JP7017474B2 - Application control program, application control method and application control system - Google Patents

Application control program, application control method and application control system Download PDF

Info

Publication number
JP7017474B2
JP7017474B2 JP2018112847A JP2018112847A JP7017474B2 JP 7017474 B2 JP7017474 B2 JP 7017474B2 JP 2018112847 A JP2018112847 A JP 2018112847A JP 2018112847 A JP2018112847 A JP 2018112847A JP 7017474 B2 JP7017474 B2 JP 7017474B2
Authority
JP
Japan
Prior art keywords
user
image
virtual space
display
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018112847A
Other languages
Japanese (ja)
Other versions
JP2018185824A (en
Inventor
匡志 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2018112847A priority Critical patent/JP7017474B2/en
Publication of JP2018185824A publication Critical patent/JP2018185824A/en
Application granted granted Critical
Publication of JP7017474B2 publication Critical patent/JP7017474B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、複数のユーザに仮想空間を共有させるためのアプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムに関する。 The present invention relates to an application control program, an application control method, and an application control system for allowing a plurality of users to share a virtual space.

ユーザの頭部に装着された装着ディスプレイ(以下、HMD:ヘッドマウントディスプレイ)に、仮想空間の画像を表示してプレイするバーチャルリアリティゲームが知られている。HMDは、例えばジャイロセンサ等のトラッキングセンサを備えており、ユーザの頭部の動きを検知できる。ユーザが頭部を動かすと、HMDは頭部の動きに追従してディスプレイに表示する画像を変化させる。このように、ゲーム画像が頭部の動きに追従することで、ユーザは一層ゲームに意識を集中させることができる。つまり、ゲームへの没入感を高めることができる。 A virtual reality game is known in which an image of a virtual space is displayed and played on a mounted display (hereinafter, HMD: head-mounted display) mounted on a user's head. The HMD is provided with a tracking sensor such as a gyro sensor, and can detect the movement of the user's head. When the user moves the head, the HMD follows the movement of the head to change the image displayed on the display. In this way, the game image follows the movement of the head, so that the user can further concentrate his / her consciousness on the game. In other words, it is possible to increase the immersive feeling in the game.

また、このようなバーチャルリアリティゲームの一つとして、複数のユーザでプレイするゲームも提案されている。特許文献1には、複数のユーザがそれぞれHMDを装着してプレイするゲームが記載されている。このゲームでは、HMDを装着した各ユーザの位置情報を仮想空間のアバターの位置情報に反映させて、仮想空間内に各ユーザのアバターを描画する。 Further, as one of such virtual reality games, a game played by a plurality of users has also been proposed. Patent Document 1 describes a game in which a plurality of users each wear an HMD and play a game. In this game, the position information of each user wearing the HMD is reflected in the position information of the avatar in the virtual space, and the avatar of each user is drawn in the virtual space.

特開2014-17776号公報Japanese Unexamined Patent Publication No. 2014-17776

一方、複数のユーザがバーチャルリアリティゲームをプレイしようとしたとき、プレイする人数と同数のHMDを常に準備できるとは限らない。また、ユーザの中には、HMDを装着することに抵抗のあるユーザが存在する可能性もある。このように多様な状況が想定されるが、HMDを装着しないユーザとHMDを装着したユーザとの両方が参加することができ、しかもHMDを装着しないユーザのアプリケーションへの寄与度を高めたゲームは見当たらない。 On the other hand, when a plurality of users try to play a virtual reality game, it is not always possible to prepare the same number of HMDs as the number of players to play. In addition, there may be some users who are reluctant to wear the HMD. Although various situations are expected in this way, a game in which both the user who does not wear the HMD and the user who wears the HMD can participate, and the user who does not wear the HMD contributes more to the application. I can't find it.

本発明は、上記実情を鑑みてなされたものであり、その目的は、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることのできるアプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an application control program, an application control method, and an application control system that can be played simultaneously by a user who wears a wearable display and a user who does not wear the wearable display. To do.

上記課題を解決するアプリケーション制御プログラムは、第1ユーザが装着する装着ディスプレイに画像を出力させる制御部を用いて仮想空間の画像を出力させるアプリケーション制御プログラムであって、前記制御部に、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、第2ユーザの操作に基づき前記仮想空間の指示位置を取得するステップと、前記装着ディスプレイに、前記指示位置が反映された前記仮想空間の画像を出力させるステップと、を実行させる。 The application control program that solves the above-mentioned problems is an application control program that outputs an image of a virtual space by using a control unit that outputs an image to a wearable display worn by the first user, and the first user causes the control unit to output an image of the virtual space. The step of outputting the image of the virtual space to the mounted display according to the posture of the user, the step of acquiring the designated position of the virtual space based on the operation of the second user, and the step of acquiring the designated position of the virtual space on the mounted display. The step of outputting the reflected image of the virtual space and the step of outputting the image are executed.

これにより、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。 As a result, a user who wears the wearing display and a user who does not wear the wearing display can play at the same time.

上記アプリケーション制御プログラムについて、前記制御部に、前記第1ユーザによる操作部での操作に応じて、前記指示位置が反映された前記仮想空間内でアクションを行うステップをさらに実行させることが好ましい。 With respect to the application control program, it is preferable to have the control unit further execute a step of performing an action in the virtual space reflecting the instruction position in response to an operation by the operation unit by the first user.

これにより、アクションを行う位置を、第2ユーザが指示位置によって指示することができる。 As a result, the second user can instruct the position where the action is to be performed by the instructed position.

上記アプリケーション制御プログラムについて、前記アクションを行うステップは、前記第1ユーザによる操作に応じて、前記仮想空間内のオブジェクトを移動させることが好ましい。 With respect to the application control program, it is preferable that the step of performing the action moves an object in the virtual space in response to an operation by the first user.

上記アプリケーション制御プログラムについて、前記指示位置が反映された前記仮想空間の画像を出力させるステップは、前記第2ユーザに指定されたオブジェクトの種類を合わせて表示することが好ましい。 For the application control program, it is preferable that the step of outputting the image of the virtual space reflecting the instruction position is displayed together with the type of the object designated by the second user.

上記アプリケーション制御プログラムについて、前記制御部に、前記第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させるステップをさらに実行させることが好ましい。 For the application control program, it is preferable to have the control unit further execute a step of outputting an image of the virtual space to the display used by the second user.

上記アプリケーション制御プログラムについて、前記第2ユーザが用いるディスプレイに仮想空間の画像を出力させるステップは、前記仮想空間を俯瞰する画像を表示することが好ましい。 Regarding the application control program, it is preferable to display an image overlooking the virtual space in the step of outputting the image of the virtual space to the display used by the second user.

上記課題を解決するアプリケーション制御方法は、第1ユーザが装着する装着ディスプレイに画像を出力させる制御部を用いて仮想空間の画像を出力させるアプリケーション制御方法であって、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、第2ユーザの操作に基づき前記仮想空間の指示位置を取得するステップと、前記装着ディスプレイに、前記指示位置が反映された前記仮想空間の画像を出力させるステップと、を行なう。 The application control method for solving the above problems is an application control method for outputting an image of a virtual space by using a control unit for outputting an image to a wearable display worn by the first user, and the control unit is the first. The step of outputting the image of the virtual space to the mounted display according to the posture of the user, the step of acquiring the designated position of the virtual space based on the operation of the second user, and the step of acquiring the designated position on the mounted display. A step of outputting the reflected image of the virtual space is performed.

これにより、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。 As a result, a user who wears the wearing display and a user who does not wear the wearing display can play at the same time.

上記課題を解決するアプリケーション制御システムにおいて、第1ユーザが装着する装着ディスプレイに画像を出力させる制御部を備えた仮想空間の画像を出力させるアプリケーション制御システムであって、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、第2ユーザの操作に基づき前記仮想空間の指示位置を取得するステップと、前記装着ディスプレイに、前記指示位置が反映された前記仮想空間の画像を出力させるステップと、を行なう。 In an application control system that solves the above problems, an application control system that outputs an image of a virtual space including a control unit that outputs an image to a wearable display worn by a first user, wherein the control unit is the first. The step of outputting the image of the virtual space to the mounted display according to the posture of the user, the step of acquiring the designated position of the virtual space based on the operation of the second user, and the step of acquiring the designated position of the virtual space on the mounted display. A step of outputting the reflected image of the virtual space is performed.

これにより、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。 As a result, a user who wears the wearing display and a user who does not wear the wearing display can play at the same time.

本発明によれば、装着ディスプレイを装着したユーザと装着しないユーザとが同時にアプリケーションをプレイすることができる。 According to the present invention, a user who wears a wearable display and a user who does not wear the wearable display can play the application at the same time.

第1実施形態のアプリケーション制御システムを俯瞰した概念図。A conceptual diagram that gives a bird's-eye view of the application control system of the first embodiment. 同実施形態のアプリケーション制御システムを機能的に示すブロック図。The block diagram functionally showing the application control system of the same embodiment. 同実施形態における仮想空間とユーザに視認される画像とを説明する概念図。The conceptual diagram explaining the virtual space and the image visually recognized by a user in the same embodiment. 同実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。Explanatory drawing of the 2nd virtual space image output to the touch panel display of the same embodiment. 同実施形態のタッチパネルディスプレイに出力される俯瞰画像の説明図。Explanatory drawing of the bird's-eye view image output to the touch panel display of the same embodiment. 同実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。Explanatory drawing of the 2nd virtual space image output to the touch panel display of the same embodiment. 同実施形態の装着ディスプレイに出力される第1仮想空間画像の説明図。Explanatory drawing of the 1st virtual space image output to the wearing display of the same embodiment. 同実施形態の装着ディスプレイに出力される第1仮想空間画像の説明図。Explanatory drawing of the 1st virtual space image output to the wearing display of the same embodiment. 同実施形態における装着ディスプレイに画像を出力する処理手順の説明図。An explanatory diagram of a processing procedure for outputting an image to a mounted display in the same embodiment. 同実施形態における移動オブジェクトを停止させる処理手順の説明図。An explanatory diagram of a processing procedure for stopping a moving object in the same embodiment. 第2実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。Explanatory drawing of the 2nd virtual space image output to the touch panel display of 2nd Embodiment. 第3実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。The explanatory view of the 2nd virtual space image output to the touch panel display of 3rd Embodiment. 第4実施形態の装着ディスプレイに出力される第1仮想空間画像の説明図。The explanatory view of the 1st virtual space image output to the wearing display of 4th Embodiment. 変形例のタッチパネルディスプレイに出力される第1仮想空間画像の説明図。Explanatory drawing of the first virtual space image output to the touch panel display of the modification. 変形例のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。Explanatory drawing of the second virtual space image output to the touch panel display of the modification. 変形例の装着ディスプレイに出力される仮想空間画像であって(a)は装着ディスプレイに出力される画像、(b)はタッチパネルディスプレイに出力される画像の説明図。An explanatory diagram of a virtual space image output to the mounted display of the modified example, (a) is an image output to the mounted display, and (b) is an image output to the touch panel display.

(第1実施形態)
以下、アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムの一実施形態を図1~図10に従って説明する。本実施形態では、複数のユーザの間で仮想空間を共有するアプリケーションとして、ゲームアプリケーションを提供する場合を想定する。
(First Embodiment)
Hereinafter, an embodiment of the application control program, the application control method, and the application control system will be described with reference to FIGS. 1 to 10. In this embodiment, it is assumed that a game application is provided as an application that shares a virtual space among a plurality of users.

図1に示すように、アプリケーション制御システムは、装着ディスプレイとしてのヘッドマウントディスプレイ(以下、HMD)11、操作部(コントローラ)14、メインディスプレイ12、タッチパネルディスプレイ13を有する。HMD11は、第1ユーザ101の頭部に装着される。HMD11には仮想空間の画像が表示される。第1ユーザ101は、仮想空間内を移動するオブジェクト(以下、移動オブジェクト)を探し、見つけた移動オブジェクトに対して、操作部14を操作することによってアクション(第2のアクション)を行なう。本実施形態では、第1ユーザ101は、「ゴースト」等の移動オブジェクトを探し、操作部14をオン操作することによって、この移動オブジェクトを狙撃する。 As shown in FIG. 1, the application control system includes a head-mounted display (hereinafter, HMD) 11 as a wearable display, an operation unit (controller) 14, a main display 12, and a touch panel display 13. The HMD 11 is attached to the head of the first user 101. An image of the virtual space is displayed on the HMD 11. The first user 101 searches for an object that moves in the virtual space (hereinafter referred to as a moving object), and performs an action (second action) by operating the operation unit 14 on the found moving object. In the present embodiment, the first user 101 searches for a moving object such as a "ghost" and turns on the operation unit 14 to sniper the moving object.

メインディスプレイ12、及びタッチパネルディスプレイ13に出力された画像は、第2ユーザ102によって視認される。第2ユーザ102は、メインディスプレイ12及びタッチパネルディスプレイ13に出力された画像を視認しながら、タッチパネルディスプレイ13を操作して、第1ユーザ101を支援する。なお、第2ユーザ102は、肉声、又はマイクを通じて入力した音声によって、第1ユーザ101に移動オブジェクトの位置を教えることができるようにしてもよい。 The images output to the main display 12 and the touch panel display 13 are visually recognized by the second user 102. The second user 102 operates the touch panel display 13 while visually recognizing the images output to the main display 12 and the touch panel display 13 to support the first user 101. The second user 102 may be able to teach the position of the moving object to the first user 101 by a real voice or a voice input through a microphone.

図2を参照して、アプリケーション制御システム10の概略構成について説明する。アプリケーション制御システム10は、HMD11、操作部14、メインディスプレイ12、タッチパネルディスプレイ13の他、これらと接続された制御装置15を備える。 A schematic configuration of the application control system 10 will be described with reference to FIG. The application control system 10 includes an HMD 11, an operation unit 14, a main display 12, a touch panel display 13, and a control device 15 connected to these.

HMD11は、HMD制御部30、トラッキングセンサ31及び表示部32を有する。HMD制御部30は、トラッキングセンサ31の検出結果に応じた信号を制御装置15に出力するとともに、制御装置15から画像信号等の各種信号を入力する。トラッキングセンサ31は、第1ユーザ101の注目点を特定するためのセンサであって、第1ユーザ101の頭部の位置及び向き等を検出する。トラッキングセンサ31は、例えばジャイロセンサ、加速度センサ、地磁気センサ等のうち少なくとも1つのセンサを有する。なお、別の実施形態として、第1ユーザ101の眼球の動きを直接的に検出するもの、例えば、虹彩内に近赤外線を入射しその反射光を検出する視線検出センサ等がトラッキングセンサ31として用いられてもよい。HMD11の表示部32には、仮想空間のうち第1ユーザ101の注目点を中心とした所定範囲の画像が表示される。すなわち、所定範囲の画像が第1ユーザ101に視認可能に表示される。なお、HMD11の表示部32に出力される仮想空間の画像を、以下、「第1仮想空間画像」という。 The HMD 11 has an HMD control unit 30, a tracking sensor 31, and a display unit 32. The HMD control unit 30 outputs a signal corresponding to the detection result of the tracking sensor 31 to the control device 15, and inputs various signals such as an image signal from the control device 15. The tracking sensor 31 is a sensor for identifying the point of interest of the first user 101, and detects the position and orientation of the head of the first user 101. The tracking sensor 31 has at least one sensor such as a gyro sensor, an acceleration sensor, and a geomagnetic sensor. As another embodiment, a sensor that directly detects the movement of the eyeball of the first user 101, for example, a line-of-sight detection sensor that incidents near infrared rays into the iris and detects the reflected light, is used as the tracking sensor 31. May be done. The display unit 32 of the HMD 11 displays an image in a predetermined range centered on the point of interest of the first user 101 in the virtual space. That is, the image in a predetermined range is visually displayed to the first user 101. The image of the virtual space output to the display unit 32 of the HMD 11 is hereinafter referred to as a “first virtual space image”.

操作部14は、例えば操作ボタンや操作レバーを備えるものであって、第1ユーザ101が目視せずに操作が可能な構成となっている。操作部14は、加速度センサ等を有しており、初期位置からの方向の変化及びその変化量等を検出することができる。操作部14は、第2ユーザ102による操作のオン/オフを示す信号、及び操作部14の方向の変化量等を制御装置15に出力する。 The operation unit 14 is provided with, for example, an operation button and an operation lever, and is configured so that the first user 101 can operate the operation without visually recognizing it. The operation unit 14 has an acceleration sensor or the like, and can detect a change in the direction from the initial position and the amount of the change. The operation unit 14 outputs a signal indicating on / off of the operation by the second user 102, an amount of change in the direction of the operation unit 14, and the like to the control device 15.

メインディスプレイ12は、第2ユーザ102が視認可能なディスプレイである。メインディスプレイ12には、HMD11の表示部32と同期させて、第1仮想空間画像が表示される。 The main display 12 is a display that can be visually recognized by the second user 102. The first virtual space image is displayed on the main display 12 in synchronization with the display unit 32 of the HMD 11.

タッチパネルディスプレイ13は、筐体に設けられたタッチパネルディスプレイでもよいし、タブレットやスマートフォン等の携帯情報端末であってもよい。タッチパネルディスプレイ13には、仮想空間内の一部を投影した画像(以下、第2仮想空間画像と呼ぶ)が出力される。本実施形態では、第2仮想空間画像として、第1ユーザ101の鉛直方向上方の位置に設定した視点から仮想空間内を見た画像を用いる。ゲームが開始されたときにタッチパネルディスプレイ13に表示される第2仮想空間画像の初期画面は、HMD11の表示部32に表示される第1仮想空間画像へ投影される仮想空間の位置と同じである。初期画面における第2仮想空間画像の視点位置は、初期画面における第1仮想空間画像の視点位置と同じでもよいし、異なっていてもよい。仮想空間を第2仮想空間画像へ投影する位置は、第2ユーザ102のスワイプ操作等の所定のタッチ操作に応じて変更及び指定される。例えば、第2ユーザ102のスワイプ操作により、仮想空間の投影範囲が変更されて第2仮想空間画像が変化し、スワイプ操作が停止されることによって、仮想空間の投影範囲の変更が停止されて、第2仮想空間画像の表示範囲が指定される。なお、「タッチ操作」は、例えば、タップ操作、スワイプ操作、フリック操作、ピンチイン操作、ピンチアウト操作、タッチアンドホールド操作等を含む。さらに、タッチパネルディスプレイ13は、第2ユーザ102のタッチ操作に応じた信号を制御装置15に出力する。例えば、タッチパネルディスプレイ13は、スワイプ操作の軌跡に応じた信号、接触位置に応じた信号等を出力する。 The touch panel display 13 may be a touch panel display provided in a housing, or may be a portable information terminal such as a tablet or a smartphone. An image obtained by projecting a part of the virtual space (hereinafter referred to as a second virtual space image) is output to the touch panel display 13. In the present embodiment, as the second virtual space image, an image viewed from the viewpoint set at a position above the vertical direction of the first user 101 is used. The initial screen of the second virtual space image displayed on the touch panel display 13 when the game is started is the same as the position of the virtual space projected on the first virtual space image displayed on the display unit 32 of the HMD 11. .. The viewpoint position of the second virtual space image on the initial screen may be the same as or different from the viewpoint position of the first virtual space image on the initial screen. The position where the virtual space is projected onto the second virtual space image is changed and designated according to a predetermined touch operation such as a swipe operation of the second user 102. For example, the swipe operation of the second user 102 changes the projection range of the virtual space to change the second virtual space image, and the swipe operation is stopped, so that the change of the projection range of the virtual space is stopped. The display range of the second virtual space image is specified. The "touch operation" includes, for example, a tap operation, a swipe operation, a flick operation, a pinch-in operation, a pinch-out operation, a touch-and-hold operation, and the like. Further, the touch panel display 13 outputs a signal corresponding to the touch operation of the second user 102 to the control device 15. For example, the touch panel display 13 outputs a signal corresponding to the locus of the swipe operation, a signal corresponding to the contact position, and the like.

HMD11の表示部32に出力される第1仮想空間画像と、タッチパネルディスプレイ13に出力される第2仮想空間画像は、同じ仮想空間内の画像であるが、前者が第1ユーザ101の体勢に応じて仮想空間の表示範囲を変更しているのに対し、後者が第2ユーザ102のタッチ操作に応じて仮想空間の表示範囲を変更している点で異なる。また、タッチパネルディスプレイ13には、仮想空間を所定位置から俯瞰した俯瞰画像が表示される。 The first virtual space image output to the display unit 32 of the HMD 11 and the second virtual space image output to the touch panel display 13 are images in the same virtual space, but the former depends on the posture of the first user 101. The latter changes the display range of the virtual space in response to the touch operation of the second user 102, whereas the display range of the virtual space is changed. Further, the touch panel display 13 displays a bird's-eye view image of the virtual space from a predetermined position.

制御装置15は、HMD11、操作部14及びタッチパネルディスプレイ13から出力された信号を取得して、第1ユーザ101と第2ユーザ102とによる仮想空間内のゲーム進行を管理する。 The control device 15 acquires the signals output from the HMD 11, the operation unit 14, and the touch panel display 13, and manages the progress of the game in the virtual space by the first user 101 and the second user 102.

制御装置15は、制御部16、記憶部17及び画像情報記憶部25を備える。制御部16は、演算部、揮発性記憶部、及び不揮発性記憶部を有し、不揮発性記憶部に記録されたアプリケーション制御プログラムに従ってゲームを実行する。記憶部17は、画像処理用の記憶部であって、揮発性記憶部でもよく、不揮発性記憶部であってもよい。この記憶部17には、ゲーム管理情報18、注目点情報19、指定表示範囲情報20、オブジェクト位置情報21及び接触位置情報22が記録されている。 The control device 15 includes a control unit 16, a storage unit 17, and an image information storage unit 25. The control unit 16 has a calculation unit, a volatile storage unit, and a non-volatile storage unit, and executes a game according to an application control program recorded in the non-volatile storage unit. The storage unit 17 is a storage unit for image processing, and may be a volatile storage unit or a non-volatile storage unit. Game management information 18, attention point information 19, designated display range information 20, object position information 21, and contact position information 22 are recorded in the storage unit 17.

ゲーム管理情報18は、ユーザID、ゲームの進行状況等を含む情報であって、ゲームの進行に伴って更新される。注目点情報19は、トラッキングセンサ31によって検出された第1ユーザ101の頭部の位置及び向きの情報、又は頭部の位置及び向きから特定された注目点の位置を示す情報である。注目点情報19は、第1ユーザ101の頭部の位置及び向きに伴って更新される。指定表示範囲情報20は、第2ユーザ102がタッチ操作によってタッチパネルディスプレイ13に表示させた範囲を示す情報であって、第2ユーザ102のタッチ操作に伴って更新される。オブジェクト位置情報21は、仮想空間内を移動する移動オブジェクトの位置を示す情報である。制御部16は、アプリケーション制御プログラムに従って移動オブジェクトの各々をランダムに移動させる。オブジェクト位置情報21は、移動オブジェクトの位置の変化に伴って更新される。移動オブジェクトの位置は、HMD11及びメインディスプレイ12に出力される第1仮想空間画像と、タッチパネルディスプレイ13に出力される第2仮想空間画像との間で同期している。さらに、接触位置情報22には、タッチパネルディスプレイ13の画面上での接触位置を示し、第2ユーザ102のタッチ操作が行なわれる度に更新される。また、画像情報記憶部25には、仮想空間の画像を描画するための情報が記録されている。 The game management information 18 is information including a user ID, a progress status of the game, and the like, and is updated as the game progresses. The attention point information 19 is information on the position and orientation of the head of the first user 101 detected by the tracking sensor 31, or information indicating the position of the attention point specified from the position and orientation of the head. The attention point information 19 is updated according to the position and orientation of the head of the first user 101. The designated display range information 20 is information indicating a range displayed on the touch panel display 13 by the second user 102 by a touch operation, and is updated with the touch operation of the second user 102. The object position information 21 is information indicating the position of a moving object moving in the virtual space. The control unit 16 randomly moves each of the moving objects according to the application control program. The object position information 21 is updated as the position of the moving object changes. The position of the moving object is synchronized between the first virtual space image output to the HMD 11 and the main display 12 and the second virtual space image output to the touch panel display 13. Further, the contact position information 22 indicates the contact position on the screen of the touch panel display 13, and is updated every time the touch operation of the second user 102 is performed. Further, the image information storage unit 25 records information for drawing an image in the virtual space.

制御部16は、HMD11から入力した信号に基づく注目点情報19を記憶部17に記録する。また、制御部16は、タッチパネルディスプレイ13から入力した指定表示範囲に応じた信号を、指定表示範囲情報20として記憶部17に記録する。 The control unit 16 records the attention point information 19 based on the signal input from the HMD 11 in the storage unit 17. Further, the control unit 16 records the signal corresponding to the designated display range input from the touch panel display 13 in the storage unit 17 as the designated display range information 20.

制御部16は、画像情報記憶部25に記録された画像情報のうち、注目点情報19に基づく注目点を中心とした所定範囲の画像情報を取得し、第1仮想空間画像としてHMD11及びメインディスプレイ12に出力する。また、制御部16は、第2ユーザ102のタッチ操作によって指定された指定表示範囲を指定表示範囲情報20として記憶部17に記録する。さらに、制御部16は、指定表示範囲情報20に基づき画像情報を画像情報記憶部25から取得して、第2仮想空間画像としてタッチパネルディスプレイ13に出力する。また、制御部16は、仮想空間の一部又は全体を俯瞰した俯瞰画像をタッチパネルディスプレイ13に出力する。 The control unit 16 acquires image information in a predetermined range centered on the attention point based on the attention point information 19 among the image information recorded in the image information storage unit 25, and uses the HMD 11 and the main display as the first virtual space image. Output to 12. Further, the control unit 16 records the designated display range designated by the touch operation of the second user 102 in the storage unit 17 as the designated display range information 20. Further, the control unit 16 acquires image information from the image information storage unit 25 based on the designated display range information 20, and outputs the image information to the touch panel display 13 as a second virtual space image. Further, the control unit 16 outputs a bird's-eye view image of a part or the whole of the virtual space to the touch panel display 13.

図3を参照して、仮想空間及びHMD11及びメインディスプレイ12に出力される第1仮想空間画像について説明する。HMD制御部30は、第1ユーザ101の頭部の位置及び向きを特定する。例えば、頭部の位置及び向きは、初期位置を基準として、水平方向に沿ったX軸及びX軸を中心とした回転方向を示すピッチθp、鉛直方向に沿ったY軸及びY軸を中心とした回転方向を示すヨーθy、奥行方向に沿ったZ軸及びZ軸を中心とした回転方向を示すロールθrの3軸方向の位置及び各軸回りの角度として算出される。HMD制御部30は、3軸方向の位置及び各軸回りの角度を注目点情報19として制御部16に出力する。 With reference to FIG. 3, the virtual space and the first virtual space image output to the HMD 11 and the main display 12 will be described. The HMD control unit 30 specifies the position and orientation of the head of the first user 101. For example, the position and orientation of the head are centered on the X-axis along the horizontal direction and the pitch θp indicating the rotation direction centered on the X-axis, and the Y-axis and Y-axis along the vertical direction with reference to the initial position. It is calculated as the yaw θy indicating the rotation direction, the Z-axis along the depth direction, and the position of the roll θr indicating the rotation direction about the Z-axis in the three-axis direction and the angle around each axis. The HMD control unit 30 outputs the position in the three-axis direction and the angle around each axis to the control unit 16 as the point of interest information 19.

制御部16は、注目点情報19に基づき仮想空間110内での注目点114又は視線方向Dを特定する。注目点又は視線方向の特定の方法は、トラッキングセンサ31の種類等に応じた公知の方法を用いることができる。例えば、制御部16は、左目位置と右目位置とを結ぶ直線を仮想的に設定し、当該直線に直交する方向に延び、且つ左目位置と右目位置の中点を通る方向を視線方向Dとする。さらに、制御部16は、視線方向Dとオブジェクト(又は背景)との交点を注目点114として特定することが可能である。なお、トラッキングセンサとして、眼球の動きを検出するものや虹彩内からの反射光を検出するものを用いる場合には、眼球の動きや反射光に基づき視線方向を特定してもよい。 The control unit 16 specifies the attention point 114 or the line-of-sight direction D in the virtual space 110 based on the attention point information 19. As a method for specifying the point of interest or the direction of the line of sight, a known method according to the type of the tracking sensor 31 or the like can be used. For example, the control unit 16 virtually sets a straight line connecting the left eye position and the right eye position, extends in a direction orthogonal to the straight line, and sets the direction passing through the midpoint between the left eye position and the right eye position as the line-of-sight direction D. .. Further, the control unit 16 can specify the intersection of the line-of-sight direction D and the object (or background) as the point of interest 114. When a tracking sensor that detects the movement of the eyeball or detects the reflected light from the inside of the iris is used, the line-of-sight direction may be specified based on the movement of the eyeball or the reflected light.

制御部16は、注目点114や視線方向Dに基づく範囲である注目範囲111の画像情報を画像情報記憶部25から取得し、HMD11の表示部32に第1仮想空間画像として出力する。例えば、注目範囲111は、第1ユーザ101の視点の位置から注目点114に向かう方向を視線方向Dとしたとき、視線方向Dを中心としとする水平方向の水平視野角α、及び垂直方向の角度である垂直視野角(図示略)等で特定される範囲である。水平視野角α及び垂直視野角は、第1ユーザ101の物理的な視野角ではなく、仮想空間110の画像を生成するレンダリングの角度である。また、制御部16は、取得した画像情報に応じた画像をメインディスプレイ12にも出力する。 The control unit 16 acquires the image information of the attention point 114 and the attention range 111, which is a range based on the line-of-sight direction D, from the image information storage unit 25, and outputs the image information to the display unit 32 of the HMD 11 as a first virtual space image. For example, the attention range 111 has a horizontal horizontal viewing angle α centered on the line-of-sight direction D and a vertical direction when the direction from the position of the viewpoint of the first user 101 toward the point of interest 114 is the line-of-sight direction D. It is a range specified by a vertical viewing angle (not shown) or the like, which is an angle. The horizontal viewing angle α and the vertical viewing angle are not the physical viewing angles of the first user 101, but the angles of rendering that generate the image of the virtual space 110. Further, the control unit 16 also outputs an image corresponding to the acquired image information to the main display 12.

HMD11に表示された第1仮想空間画像及びメインディスプレイに表示された第1仮想空間画像には、画像に対する所定のアクションがなされていない場合、仮想空間全体が初期状態で表示されている。例えば、初期状態は、「暗闇」の状態、すなわち画像の明度及び彩度の低い状態である。この初期状態の第1仮想空間画像では、仮想空間内を移動する移動オブジェクト115が非表示状態で表示されている。非表示状態とは、移動オブジェクトが全く表示されないか、又は視認しにくい不明瞭な状態である。不明瞭な表示状態の例としては、移動オブジェクト115の一部のみが表示され全体が表示されない状態、又は移動オブジェクト115の明度、彩度及び色相の少なくとも一つを背景に近付けて見えにくくした状態である。また、例えば、仮想空間内で、第2ユーザ102は、ドローン又はアバター等のキャラクタ116として表示される。本実施形態では、キャラクタ116の位置は、第1ユーザ101の鉛直方向上方の位置を維持する。 In the first virtual space image displayed on the HMD 11 and the first virtual space image displayed on the main display, the entire virtual space is displayed in the initial state when a predetermined action is not performed on the images. For example, the initial state is a "dark" state, that is, a state in which the brightness and saturation of the image are low. In the first virtual space image in this initial state, the moving object 115 moving in the virtual space is displayed in a hidden state. The hidden state is a state in which the moving object is not displayed at all or is difficult to see. As an example of an unclear display state, a state in which only a part of the moving object 115 is displayed and not entirely displayed, or a state in which at least one of the lightness, saturation, and hue of the moving object 115 is brought close to the background to make it difficult to see. Is. Further, for example, in the virtual space, the second user 102 is displayed as a character 116 such as a drone or an avatar. In the present embodiment, the position of the character 116 maintains the position above the vertical direction of the first user 101.

また、タッチパネルディスプレイ13で第2ユーザ102のタッチ操作によって表示範囲が指定されると、制御部16は、タッチパネルディスプレイ13から指定された表示範囲を取得して、指定表示範囲情報20として記憶部17に記録する。また、制御部16は、指定表示範囲情報20に応じた指定表示範囲112を、第1仮想空間画像の初期状態とは異なる表示態様で、第2仮想空間画像としてタッチパネルディスプレイ13に出力する。具体的には、このときの表示態様は、明度、彩度及び色相の少なくとも一つが初期状態とは異なる状態である変更状態であって、例えば、光が照射された状態、すなわち明度が初期状態よりも高く、彩度及び色相が初期状態とは異なる状態である。制御部16は、オブジェクト位置情報21に基づき、第2仮想空間画像に移動オブジェクトを視認可能に表示する。これにより、第2ユーザは、第2仮想空間画像上で移動オブジェクトを視認することができる。 Further, when the display range is designated by the touch operation of the second user 102 on the touch panel display 13, the control unit 16 acquires the designated display range from the touch panel display 13 and stores the designated display range information 20 as the storage unit 17. Record in. Further, the control unit 16 outputs the designated display range 112 corresponding to the designated display range information 20 to the touch panel display 13 as the second virtual space image in a display mode different from the initial state of the first virtual space image. Specifically, the display mode at this time is a changed state in which at least one of brightness, saturation and hue is different from the initial state, for example, a state in which light is irradiated, that is, the brightness is the initial state. It is a state in which the saturation and hue are different from the initial state. The control unit 16 visually displays the moving object on the second virtual space image based on the object position information 21. As a result, the second user can visually recognize the moving object on the second virtual space image.

さらに、制御部16は、第1ユーザ101の注目範囲111、及び第2ユーザ102によって指定された指定表示範囲112の少なくとも一部が重複している場合には、第1仮想空間画像のうち、その重複部分を初期状態とは異なる変更状態で表示させる。具体的には、重複部分を、それ以外の部分よりも、明度、彩度及び色相の少なくとも一部が異なる状態で表示させる。なお、図3では、注目範囲111に、指定表示範囲112の全体が含まれた状態を示している。第1仮想空間画像では、光は、キャラクタ116自身又はキャラクタ116が有する光源から照射されたように表示される。 Further, when at least a part of the attention range 111 of the first user 101 and the designated display range 112 designated by the second user 102 overlap, the control unit 16 is among the first virtual space images. The overlapping part is displayed in a changed state different from the initial state. Specifically, the overlapping portion is displayed in a state in which at least a part of lightness, saturation, and hue is different from the other portion. Note that FIG. 3 shows a state in which the attention range 111 includes the entire designated display range 112. In the first virtual space image, the light is displayed as if it was emitted from the character 116 itself or a light source possessed by the character 116.

制御部16は、第2ユーザ102によって指定された指定表示範囲112を仮想空間110内で指定して(第1のアクション)、第1仮想空間画像に第1のアクションを反映する。具体的には、制御部16は、第1仮想空間画像において、注目範囲と指定表示範囲112との重複部分(仮想空間における重複範囲)に含まれる移動オブジェクト115のみを表示状態(視認可能状態)とし、重複部分以外に存在する移動オブジェクト115を非表示状態(視認不可能状態)とする。このため、注目範囲111と指定表示範囲112とに重複があり、且つその重複部分に移動オブジェクト115が含まれる場合のみ、第1ユーザ101は、移動オブジェクト115を視認することができる。 The control unit 16 designates the designated display range 112 designated by the second user 102 in the virtual space 110 (first action), and reflects the first action on the first virtual space image. Specifically, the control unit 16 displays only the moving object 115 included in the overlapping portion (overlapping range in the virtual space) between the attention range and the designated display range 112 in the first virtual space image (visible state). Then, the moving object 115 existing other than the overlapping portion is set to a hidden state (invisible state). Therefore, the first user 101 can visually recognize the moving object 115 only when the attention range 111 and the designated display range 112 overlap and the moving object 115 is included in the overlapping portion.

また、本実施形態では、第2ユーザ102によって指定される指定表示範囲112、換言すると第2仮想空間画像を生成するための仮想空間内の投影範囲の水平視野角βは、第1仮想空間を生成するための仮想空間内の投影範囲の水平視野角αよりも小さくなっている。つまり、第2仮想空間画像の水平視野角βが第1仮想空間画像の水平視野角α以上である場合には、第1ユーザ101は第1仮想空間画像に反映された指定表示範囲112を容易に見つけることができる。これに対し、第2仮想空間画像の水平視野角βが第1仮想空間画像の水平視野角αよりも小さいと、第1ユーザ101は第1仮想空間画像に反映された指定表示範囲112を見つけにくくなる。第1仮想空間画像の水平視野角αに対する第2仮想空間画像の水平視野角βの比率は、目標とするゲームバランスに応じて決定すればよい。本実施形態では、第2仮想空間画像の水平視野角βを第1仮想空間画像の水平視野角αよりも小さくすることによって、第2ユーザ102のゲームへの寄与度を高め、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させるようになっている。 Further, in the present embodiment, the designated display range 112 designated by the second user 102, in other words, the horizontal viewing angle β of the projection range in the virtual space for generating the second virtual space image is the first virtual space. It is smaller than the horizontal viewing angle α of the projection range in the virtual space to generate. That is, when the horizontal viewing angle β of the second virtual space image is equal to or greater than the horizontal viewing angle α of the first virtual space image, the first user 101 can easily set the designated display range 112 reflected in the first virtual space image. Can be found in. On the other hand, when the horizontal viewing angle β of the second virtual space image is smaller than the horizontal viewing angle α of the first virtual space image, the first user 101 finds the designated display range 112 reflected in the first virtual space image. It becomes difficult. The ratio of the horizontal viewing angle β of the second virtual space image to the horizontal viewing angle α of the first virtual space image may be determined according to the target game balance. In the present embodiment, by making the horizontal viewing angle β of the second virtual space image smaller than the horizontal viewing angle α of the first virtual space image, the contribution of the second user 102 to the game is increased, and the first user 101 And the second user 102 cooperate to advance the game.

また、第2ユーザ102は、タッチパネルディスプレイ13上での所定のタッチ操作によって、接触位置の近傍の移動オブジェクト115の移動を停止させることができる。このとき、第2ユーザ102は、指と画面の任意の位置との接触を継続させるタッチアンドホールド操作を行なう。制御部16は、タッチアンドホールド操作が行なわれた場合、第1のアクションとして、接触位置から所定距離内の移動オブジェクトを特定し、特定した移動オブジェクト115の移動(動き)を停止させる。つまり、1つの接触位置に対して、一つの最寄りの移動オブジェクト115の移動を停止させる。例えば、5つの移動オブジェクト115が仮想空間110内に存在し、これらの動きを停止させたい場合には、5本の指を使ってタッチアンドホールド操作を行なう。 Further, the second user 102 can stop the movement of the moving object 115 in the vicinity of the contact position by a predetermined touch operation on the touch panel display 13. At this time, the second user 102 performs a touch-and-hold operation for continuing contact between the finger and an arbitrary position on the screen. When the touch-and-hold operation is performed, the control unit 16 identifies a moving object within a predetermined distance from the contact position as the first action, and stops the movement (movement) of the specified moving object 115. That is, the movement of one nearest moving object 115 is stopped with respect to one contact position. For example, when five moving objects 115 exist in the virtual space 110 and it is desired to stop these movements, a touch-and-hold operation is performed using five fingers.

さらに、第1ユーザ101は、指定表示範囲112に含まれ視認可能となった移動オブジェクト115に対してのみ、第2のアクションを行なうことができる。本実施形態では、第2のアクションとして、移動オブジェクト115の狙撃を行なう。このとき、第2ユーザ102のタッチ操作によって移動オブジェクト115の移動が停止されていると、移動オブジェクト115に照準を合わせやすくなり、有効な第2のアクションを行なうことが容易となる。具体的には、制御部16は、操作部14のオン操作を検知した場合、操作部14の仮想位置117から、操作部14の方向に沿って光線118を第1仮想空間画像及び第2仮想空間画像に表示させる。そして、光線118の方向と移動オブジェクト115の位置とが合致している場合には、制御部16は、第2のアクションが有効に行なわれたと判定する。具体的には、移動オブジェクト115が狙撃されたと判定し、第1ユーザ101に得点等を付与する。一方、指定表示範囲112に含まれない移動オブジェクト115に対しては、制御部16は、アクション用の光線118を表示させない。又は、指定表示範囲112に含まれない移動オブジェクト115に向けてアクション用の光線118が出射されても無効と判定するようにしてもよい。制御部16は、アクション用の光線118を、HMD11の表示部32、メインディスプレイ12及びタッチパネルディスプレイ13に表示させる。 Further, the first user 101 can perform the second action only on the moving object 115 which is included in the designated display range 112 and becomes visible. In the present embodiment, as the second action, the moving object 115 is sniped. At this time, if the movement of the moving object 115 is stopped by the touch operation of the second user 102, it becomes easy to aim at the moving object 115, and it becomes easy to perform an effective second action. Specifically, when the control unit 16 detects an on operation of the operation unit 14, the control unit 16 emits a ray 118 from the virtual position 117 of the operation unit 14 along the direction of the operation unit 14 to the first virtual space image and the second virtual. Display on a spatial image. Then, when the direction of the ray 118 and the position of the moving object 115 match, the control unit 16 determines that the second action has been effectively performed. Specifically, it is determined that the moving object 115 has been shot, and a score or the like is given to the first user 101. On the other hand, the control unit 16 does not display the action ray 118 for the moving object 115 that is not included in the designated display range 112. Alternatively, even if the action ray 118 is emitted toward the moving object 115 that is not included in the designated display range 112, it may be determined to be invalid. The control unit 16 causes the light ray 118 for action to be displayed on the display unit 32, the main display 12, and the touch panel display 13 of the HMD 11.

次に、図4~図8を参照して、HMD11の表示部32、メインディスプレイ12、及びタッチパネルディスプレイ13に表示される画面について説明する。
図4に示すように、制御部16は、画像情報記憶部25に記録された仮想空間の画像情報を、指定表示範囲112に応じてレンダリングして第2仮想空間画像121を表示するための画像情報を生成し、生成した画像情報を第2仮想空間画像121用に明度、彩度及び色相を調整して、タッチパネルディスプレイ13に出力する。この第2仮想空間画像121は、第1仮想空間画像と同じ範囲を表示していたとしても、第1仮想空間画像の初期状態とは明度、彩度及び色相の少なくとも一部が異なっている。具体的には、制御部16は、第2仮想空間画像121の全体を、光が照射されたような明度が高い状態で表示させる。また、制御部16は、第2仮想空間画像121に、オブジェクト位置情報21に基づき移動する移動オブジェクト115を表示させる。但し、移動オブジェクト115はランダムに移動しているため、指定表示範囲112を変更しない場合には、最初に表示された移動オブジェクト115が画面外に移動する可能性がある。第2ユーザ102は、例えばスワイプ操作を行なって指定表示範囲112を変更して画面を遷移させ、第1ユーザ101に移動オブジェクト115の位置を知らせるために、移動オブジェクト115を探す。
Next, the screens displayed on the display unit 32, the main display 12, and the touch panel display 13 of the HMD 11 will be described with reference to FIGS. 4 to 8.
As shown in FIG. 4, the control unit 16 renders the image information of the virtual space recorded in the image information storage unit 25 according to the designated display range 112, and displays an image for displaying the second virtual space image 121. Information is generated, and the generated image information is adjusted for brightness, saturation and hue for the second virtual space image 121, and output to the touch panel display 13. Even if the second virtual space image 121 displays the same range as the first virtual space image, at least a part of the brightness, saturation, and hue is different from the initial state of the first virtual space image. Specifically, the control unit 16 displays the entire second virtual space image 121 in a state of high brightness as if it was irradiated with light. Further, the control unit 16 causes the second virtual space image 121 to display the moving object 115 that moves based on the object position information 21. However, since the moving object 115 moves randomly, if the designated display range 112 is not changed, the initially displayed moving object 115 may move off the screen. The second user 102, for example, performs a swipe operation to change the designated display range 112 to change the screen, and searches for the moving object 115 in order to inform the first user 101 of the position of the moving object 115.

図5に示すように、制御部16は、画像情報記憶部25に記録された俯瞰画像用の画像情報の取得、又は仮想空間の画像情報のレンダリングによって、俯瞰画像122をタッチパネルディスプレイ13に出力する。俯瞰画像122は、仮想空間全体を俯瞰した画像であって、例えば、キャラクタ116の位置を表示している。制御部16は、俯瞰画像122のうち、第2ユーザ102の指定した指定表示範囲112を、光が照射されたような変更状態で表示させ、その他の部分は暗闇のような初期状態で表示させる。また、制御部16は、俯瞰画像122に移動オブジェクト115を表示させる。 As shown in FIG. 5, the control unit 16 outputs the bird's-eye view image 122 to the touch panel display 13 by acquiring the image information for the bird's-eye view image recorded in the image information storage unit 25 or rendering the image information in the virtual space. .. The bird's-eye view image 122 is an image that gives a bird's-eye view of the entire virtual space, and displays, for example, the position of the character 116. The control unit 16 displays the designated display range 112 specified by the second user 102 in the bird's-eye view image 122 in a changed state as if it was illuminated with light, and displays the other parts in an initial state such as darkness. .. Further, the control unit 16 causes the bird's-eye view image 122 to display the moving object 115.

図6に示すように、タッチパネルディスプレイ13に表示される第2仮想空間画像121において、第2ユーザ102がタッチアンドホールド操作を行なうと、制御部16は、指の接触位置から所定距離以内の移動オブジェクト115を特定し、特定した移動オブジェクト115の移動を停止させる。図6では、制御部16は、接触位置P1,P3,P4の各々との相対距離が所定距離以内の移動オブジェクト115の移動を停止させる。一方、制御部16は、接触位置P2の近傍の移動オブジェクト115を特定できないため移動オブジェクト115の停止を行なわず、接触位置P5との相対距離が所定距離を超える図中右側の移動オブジェクト115については、その移動を停止しない。 As shown in FIG. 6, in the second virtual space image 121 displayed on the touch panel display 13, when the second user 102 performs a touch and hold operation, the control unit 16 moves within a predetermined distance from the finger contact position. The object 115 is specified, and the movement of the specified moving object 115 is stopped. In FIG. 6, the control unit 16 stops the movement of the moving object 115 whose relative distance to each of the contact positions P1, P3, and P4 is within a predetermined distance. On the other hand, the control unit 16 does not stop the moving object 115 because the moving object 115 in the vicinity of the contact position P2 cannot be specified, and the moving object 115 on the right side in the figure whose relative distance to the contact position P5 exceeds a predetermined distance , Does not stop its movement.

図7に示すように、制御部16は、第1仮想空間画像120をHMD11の表示部32に出力し、第1ユーザ101の体勢に応じてその表示範囲を変化させる。制御部16は、第1ユーザ101の注目範囲111と、第2ユーザ102により指定された指定表示範囲112とが重複していると判断すると、その重複部分125を、光が照射されたような変更状態で表示させる。また、制御部16は、第1仮想空間画像120のうち、重複部分125以外の部分を、暗闇のような初期状態で表示させる。さらに、制御部16は、重複部分125に移動オブジェクト115が含まれる場合には、重複部分125に含まれる移動オブジェクト115のみを表示させ、重複部分125に含まれない移動オブジェクト115は表示しない。 As shown in FIG. 7, the control unit 16 outputs the first virtual space image 120 to the display unit 32 of the HMD 11 and changes the display range according to the posture of the first user 101. When the control unit 16 determines that the attention range 111 of the first user 101 and the designated display range 112 designated by the second user 102 overlap, it seems that the overlapping portion 125 is irradiated with light. Display in the changed state. Further, the control unit 16 displays the portion of the first virtual space image 120 other than the overlapping portion 125 in an initial state such as darkness. Further, when the moving object 115 is included in the overlapping portion 125, the control unit 16 displays only the moving object 115 included in the overlapping portion 125, and does not display the moving object 115 not included in the overlapping portion 125.

図8に示すように、制御部16は、操作部14からオン操作に応じた信号を入力すると、第1仮想空間画像120に第2のアクションを反映した第1仮想空間画像120をHMD11の表示部32に出力する。例えば、制御部16は、操作部14から出力され操作部14の方向を検出した信号に基づき、仮想空間内での操作部14の仮想位置117から、操作部14の方向に沿って光線118を表示させる。制御部16は、光線118の方向に移動オブジェクト115が存在する場合には、第2のアクションである狙撃を有効とする。このとき、上述したように、移動オブジェクト115の移動が停止されていると移動オブジェクト115に照準を合わせやすくなるが、移動が停止されていない移動オブジェクト115に対しても狙撃が可能である。また、例えば制御部16は、例えば制限時間内で、有効なアクションが行なわれた回数に応じた得点を算出し、ゲーム管理情報18に含まれる得点情報に得点を加える。 As shown in FIG. 8, when the control unit 16 inputs a signal corresponding to the on operation from the operation unit 14, the HMD 11 displays the first virtual space image 120 reflecting the second action on the first virtual space image 120. Output to unit 32. For example, the control unit 16 emits a light ray 118 from the virtual position 117 of the operation unit 14 in the virtual space along the direction of the operation unit 14 based on the signal output from the operation unit 14 and detecting the direction of the operation unit 14. Display. The control unit 16 enables the second action, sniper, when the moving object 115 is present in the direction of the ray 118. At this time, as described above, if the movement of the moving object 115 is stopped, it becomes easier to aim at the moving object 115, but it is possible to sniper the moving object 115 whose movement is not stopped. Further, for example, the control unit 16 calculates a score according to the number of times a valid action is performed within the time limit, and adds the score to the score information included in the game management information 18.

次に、図9及び図10を参照して、第1ユーザ101及び第2ユーザ102にゲームを提供するための各処理の手順を説明する。
まず、図9を参照して、HMD11及びメインディスプレイ12に第1仮想空間画像120を出力する処理の手順について説明する。第1仮想空間画像120を出力する処理は、例えば、操作部14又は他の装置が操作されてゲームが開始されたとき等の開始条件が成立したときに開始される。なお、制御部16は、この処理と並行して、タッチパネルディスプレイ13の指定表示範囲112の座標を取得し、その座標を指定表示範囲情報20として記憶部17に記録する処理を行なう。
Next, with reference to FIGS. 9 and 10, the procedure of each process for providing the game to the first user 101 and the second user 102 will be described.
First, with reference to FIG. 9, a procedure for outputting the first virtual space image 120 to the HMD 11 and the main display 12 will be described. The process of outputting the first virtual space image 120 is started when a start condition such as when the operation unit 14 or another device is operated to start the game is satisfied. In parallel with this process, the control unit 16 acquires the coordinates of the designated display range 112 of the touch panel display 13 and records the coordinates as the designated display range information 20 in the storage unit 17.

制御部16は、記憶部17に記録された注目点情報19を取得する(ステップS1)。そして、制御部16は、注目点情報19に基づいて注目範囲111を特定する。また、制御部16は、記憶部17に記録された指定表示範囲情報20を取得する(ステップS2)。そして、制御部16は、指定表示範囲情報20に基づいて指定表示範囲112を特定する。 The control unit 16 acquires the attention point information 19 recorded in the storage unit 17 (step S1). Then, the control unit 16 specifies the attention range 111 based on the attention point information 19. Further, the control unit 16 acquires the designated display range information 20 recorded in the storage unit 17 (step S2). Then, the control unit 16 specifies the designated display range 112 based on the designated display range information 20.

注目範囲111と指定表示範囲112とを特定すると、制御部16は、注目範囲111と指定表示範囲112とが重複するか否かを判断する(ステップS3)。例えば、制御部16は、注目範囲111の仮想空間の座標系における範囲と、指定表示範囲112の仮想空間の座標系における範囲とに基づき、それらの範囲が重複するか否かを判断する。制御部16は、注目範囲111と指定表示範囲112とが重複しないと判断すると(ステップS3:NO)、画像情報記憶部25に記録された画像情報のうち、注目範囲111に対応する画像情報を読み出して、初期状態とした第1仮想空間画像をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。 When the attention range 111 and the designated display range 112 are specified, the control unit 16 determines whether or not the attention range 111 and the designated display range 112 overlap each other (step S3). For example, the control unit 16 determines whether or not the ranges overlap based on the range in the coordinate system of the virtual space of the attention range 111 and the range in the coordinate system of the virtual space of the designated display range 112. When the control unit 16 determines that the attention range 111 and the designated display range 112 do not overlap (step S3: NO), the control unit 16 selects the image information corresponding to the attention range 111 among the image information recorded in the image information storage unit 25. The first virtual space image read out and set to the initial state is output to the display unit 32 and the main display 12 of the HMD 11 (step S8).

ステップS3において、制御部16は、注目範囲111と指定表示範囲112とが重複すると判断すると(ステップS3:YES)、オブジェクト位置情報21に基づき、その重複部分に移動オブジェクト115が含まれるか否かを判断する(ステップS4)。制御部16は、重複部分に移動オブジェクト115が含まれないと判断すると(ステップS4:NO)、重複部分を変更状態とし(ステップS7)、第1仮想空間画像をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。その結果、重複部分が変更状態とされ、移動オブジェクト115が非表示状態とされた第1仮想空間画像120がHMD11の表示部32及びメインディスプレイ12に表示される。 In step S3, when the control unit 16 determines that the attention range 111 and the designated display range 112 overlap (step S3: YES), whether or not the overlapping portion includes the moving object 115 based on the object position information 21. Is determined (step S4). When the control unit 16 determines that the moving object 115 is not included in the overlapping portion (step S4: NO), the overlapping portion is set to the changed state (step S7), and the first virtual space image is displayed in the display unit 32 of the HMD 11 and the main display. Output to 12 (step S8). As a result, the first virtual space image 120 in which the overlapping portion is changed and the moving object 115 is hidden is displayed on the display unit 32 and the main display 12 of the HMD 11.

ステップS4において、制御部16は、注目範囲111と指定表示範囲112との重複部分に移動オブジェクト115が含まれると判断すると(ステップS4:YES)、重複部分を変更状態とし(ステップS5)、重複部分の中に含まれる移動オブジェクト115を表示状態とする(ステップS6)。そして、第1仮想空間画像120をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。その結果、重複部分が変更状態とされ、且つその重複部分の中に移動オブジェクト115が表示された第1仮想空間画像120がHMD11の表示部32及びメインディスプレイ12に表示される。 In step S4, when the control unit 16 determines that the moving object 115 is included in the overlapping portion between the attention range 111 and the designated display range 112 (step S4: YES), the overlapping portion is set to the changed state (step S5), and the overlapping portion is changed. The moving object 115 included in the portion is set to the display state (step S6). Then, the first virtual space image 120 is output to the display unit 32 and the main display 12 of the HMD 11 (step S8). As a result, the first virtual space image 120 in which the overlapping portion is changed and the moving object 115 is displayed in the overlapping portion is displayed on the display unit 32 and the main display 12 of the HMD 11.

このように、制御部16は第1仮想空間画像120を出力すると、ステップS1に戻り、ゲームが終了するまでステップS1~S8を繰り返す。制御部16は、操作部14がオン操作されると第1仮想空間画像120に光線118を表示させる。また、制御部16は、表示状態の移動オブジェクト115の位置と操作部14の方向とが合致している場合には、第2のアクションが有効に行なわれたと判断する。 In this way, when the control unit 16 outputs the first virtual space image 120, it returns to step S1 and repeats steps S1 to S8 until the game ends. The control unit 16 causes the first virtual space image 120 to display the light beam 118 when the operation unit 14 is turned on. Further, when the position of the moving object 115 in the display state and the direction of the operation unit 14 match, the control unit 16 determines that the second action has been effectively performed.

次に、図10を参照して、第2ユーザ102のタッチ操作を受け付けて移動オブジェクト115の移動を停止する処理について説明する。移動オブジェクト115の移動を停止する処理は、制御部16が、タッチアンドホールド操作を検出したとき等の開始条件が成立したときに開始される。なお、制御部16は、この処理と並行して、タッチパネルディスプレイ13の指定表示範囲112の座標を取得し、その座標を指定表示範囲情報20として記憶部17に記録する処理を行なう。 Next, with reference to FIG. 10, a process of accepting a touch operation of the second user 102 and stopping the movement of the moving object 115 will be described. The process of stopping the movement of the moving object 115 is started when the start condition such as when the control unit 16 detects the touch and hold operation is satisfied. In parallel with this process, the control unit 16 acquires the coordinates of the designated display range 112 of the touch panel display 13 and records the coordinates as the designated display range information 20 in the storage unit 17.

制御部16は、記憶部17に記録された接触位置情報22を取得し、接触位置を特定する(ステップS10)。また、制御部16は、接触位置の近傍の移動オブジェクト115を少なくとも一つ特定したか否かを判断する(ステップS11)。具体的には、制御部16は、オブジェクト位置情報21に基づき移動オブジェクト115の位置を特定する。そして、特定した接触位置と移動オブジェクト115の位置との相対距離を算出し、相対距離が所定距離以内である移動オブジェクト115があるか否かを判断する。 The control unit 16 acquires the contact position information 22 recorded in the storage unit 17 and specifies the contact position (step S10). Further, the control unit 16 determines whether or not at least one moving object 115 in the vicinity of the contact position has been specified (step S11). Specifically, the control unit 16 specifies the position of the moving object 115 based on the object position information 21. Then, the relative distance between the specified contact position and the position of the moving object 115 is calculated, and it is determined whether or not there is a moving object 115 whose relative distance is within a predetermined distance.

制御部16は、接触位置からの相対距離が所定距離以内の移動オブジェクト115が存在しないと判断した場合には(ステップS11:NO)、移動オブジェクト115の移動を停止することなく処理を終了する。また、制御部16は、接触位置からの相対距離が所定距離以内の移動オブジェクト115が少なくとも一つ存在すると判断した場合には(ステップS11:YES)、その特定された移動オブジェクトの移動を停止する(ステップS12)。 When the control unit 16 determines that there is no moving object 115 whose relative distance from the contact position is within a predetermined distance (step S11: NO), the control unit 16 ends the process without stopping the movement of the moving object 115. Further, when the control unit 16 determines that there is at least one moving object 115 whose relative distance from the contact position is within a predetermined distance (step S11: YES), the control unit 16 stops the movement of the specified moving object. (Step S12).

そして、特定された移動オブジェクト115の移動を停止すると、制御部16は、第2ユーザ102の指がタッチパネルディスプレイ13の画面からリリースされたか否かを判断する(ステップS13)。制御部16は、第2ユーザ102の指がリリースされていないと判断すると(ステップS13:NO)、特定された移動オブジェクト115の移動の停止を継続する(ステップS12)。制御部16は、第2ユーザ102の指がリリースされたと判断すると(ステップS13:YES)、移動オブジェクト115の移動を再開して(ステップS14)、タッチアンドホールド操作の処理を終了する。そして、開始条件が成立すると、制御部16は、ステップS1~ステップS13までの処理を繰り返す。 Then, when the movement of the specified moving object 115 is stopped, the control unit 16 determines whether or not the finger of the second user 102 has been released from the screen of the touch panel display 13 (step S13). When the control unit 16 determines that the finger of the second user 102 has not been released (step S13: NO), the control unit 16 continues to stop the movement of the specified moving object 115 (step S12). When the control unit 16 determines that the finger of the second user 102 has been released (step S13: YES), the control unit 16 resumes the movement of the moving object 115 (step S14), and ends the process of the touch and hold operation. Then, when the start condition is satisfied, the control unit 16 repeats the processes from step S1 to step S13.

以上説明したように、第1実施形態によれば、以下の効果が得られるようになる。
(1)上記実施形態では、制御装置15の制御部16は、HMD11及びタッチパネルディスプレイ13の両方に仮想空間画像を出力する。第2ユーザ102はHMD11を装着することなく、タッチ操作で指定表示範囲112を指定し、制御部16は、第1のアクションとして、タッチ操作に応じた範囲を仮想空間内で特定する。さらに、第1ユーザ101は、注目範囲111と指定表示範囲112との重複部分に表示された移動オブジェクト115に対して操作部14を用いて操作を行ない、制御部16は、その操作に応じて、移動オブジェクト115に対して第2のアクションを行なう。従って、第1ユーザ101が第2のアクションを行なうためには第2ユーザ102による第1のアクションが行なわれていることが前提となるため、第1ユーザ101及び第2ユーザ102が仮想空間内で協力してゲームを進行させることができる。
As described above, according to the first embodiment, the following effects can be obtained.
(1) In the above embodiment, the control unit 16 of the control device 15 outputs a virtual space image to both the HMD 11 and the touch panel display 13. The second user 102 designates the designated display range 112 by touch operation without wearing the HMD 11, and the control unit 16 specifies the range corresponding to the touch operation in the virtual space as the first action. Further, the first user 101 operates the moving object 115 displayed in the overlapping portion between the attention range 111 and the designated display range 112 by using the operation unit 14, and the control unit 16 responds to the operation. , Performs a second action on the moving object 115. Therefore, in order for the first user 101 to perform the second action, it is premised that the first action by the second user 102 is performed, so that the first user 101 and the second user 102 are in the virtual space. You can work together to advance the game.

(2)上記実施形態では、制御部16は、第2ユーザ102によって指定された指定表示範囲112を特定する。そして、制御部16は、指定表示範囲112を第1仮想空間画像120に反映させる。従って、第2ユーザ102は、HMD11を装着することなく、任意の範囲を第1ユーザ101に指し示すことができる。 (2) In the above embodiment, the control unit 16 specifies the designated display range 112 designated by the second user 102. Then, the control unit 16 reflects the designated display range 112 on the first virtual space image 120. Therefore, the second user 102 can point an arbitrary range to the first user 101 without wearing the HMD 11.

(3)上記実施形態では、制御部16は、指定表示範囲112と注目範囲111が重複していない場合には、移動オブジェクト115を非表示状態でHMD11に出力し、指定表示範囲112と注目範囲111とが重複している場合には、その重複部分に含まれる移動オブジェクト115を表示状態としてHMD11に出力する。つまり、第2ユーザ102によって移動オブジェクト115を含む任意の範囲が指定され、第1ユーザ101が指定された範囲を注目範囲111に含めることによって、第1ユーザに移動オブジェクト115を視認させることができる。従って、第1ユーザ101及び第2ユーザ102は協力してゲームを進行させることができる。 (3) In the above embodiment, when the designated display range 112 and the attention range 111 do not overlap, the control unit 16 outputs the moving object 115 to the HMD 11 in a non-display state, and outputs the designated display range 112 and the attention range to the HMD 11. When the 111 overlaps, the moving object 115 included in the overlapping portion is output to the HMD 11 as a display state. That is, an arbitrary range including the moving object 115 is specified by the second user 102, and by including the range specified by the first user 101 in the attention range 111, the moving object 115 can be visually recognized by the first user. .. Therefore, the first user 101 and the second user 102 can cooperate to advance the game.

(4)上記実施形態では、制御部16は、第1仮想空間画像のうち、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、それ以外の範囲の明度、彩度及び色相と異ならせた状態でHMD11に出力する。これによれば、HMD11を装着した第1ユーザ101は、タッチパネルディスプレイ13で指定された範囲と、それ以外の範囲とを見分けることができる。また、制御部16は、第2ユーザ102によってタッチパネルディスプレイ13で指定された範囲を光が照射されたように表示させるので、当該範囲を線で囲んで第1ユーザ101に指し示す場合等に比べ、第1ユーザ101の没入感の低下を抑制することができる。 (4) In the above embodiment, the control unit 16 sets at least one of the brightness, saturation, and hue of the designated display range 112 in the first virtual space image as the brightness, saturation, and hue of the other range. It is output to HMD 11 in a different state. According to this, the first user 101 wearing the HMD 11 can distinguish between the range specified by the touch panel display 13 and the other range. Further, since the control unit 16 displays the range designated by the second user 102 on the touch panel display 13 as if it was irradiated with light, the control unit 16 surrounds the range with a line and points to the first user 101, etc. It is possible to suppress a decrease in the immersive feeling of the first user 101.

(5)上記実施形態では、制御部16は、注目範囲111と指定表示範囲112との重複部分に含まれる移動オブジェクト115のみに対する第2のアクションを有効とした。従って、第2のアクションを有効に行なうためには、第2ユーザ102によって指定される指定表示範囲112に移動オブジェクト115を含めることが前提となるため、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。 (5) In the above embodiment, the control unit 16 enables the second action only for the moving object 115 included in the overlapping portion between the attention range 111 and the designated display range 112. Therefore, in order to effectively perform the second action, it is a prerequisite that the moving object 115 is included in the designated display range 112 designated by the second user 102, so that the first user 101 and the second user 102 cooperate. You can proceed with the game.

(6)上記実施形態では、制御部16は、第1仮想空間画像120の水平視野角αよりも、第2仮想空間画像121の水平視野角βを小さくした。従って、第1ユーザ101は、仮想空間内の狭い範囲で第2のアクションのための操作を行なう必要があるため、第2のアクションの難度が高くなり、第2ユーザ102の支援が必要となる。従って、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。 (6) In the above embodiment, the control unit 16 makes the horizontal viewing angle β of the second virtual space image 121 smaller than the horizontal viewing angle α of the first virtual space image 120. Therefore, since the first user 101 needs to perform an operation for the second action in a narrow range in the virtual space, the difficulty level of the second action becomes high, and the support of the second user 102 is required. .. Therefore, the first user 101 and the second user 102 can cooperate to advance the game.

(7)上記実施形態では、制御部16は、タッチパネルディスプレイ13には、移動オブジェクト115を常時表示させる。これにより、第1ユーザ101が移動オブジェクト115を見つけるためには、第2ユーザ102が指定表示範囲112を指定することによって、移動オブジェクト115の位置情報を提供することが前提となる。従って、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。 (7) In the above embodiment, the control unit 16 constantly displays the moving object 115 on the touch panel display 13. As a result, in order for the first user 101 to find the moving object 115, it is premised that the second user 102 provides the position information of the moving object 115 by designating the designated display range 112. Therefore, the first user 101 and the second user 102 can cooperate to advance the game.

(8)上記実施形態では、制御部16は、HMD11に出力する第1仮想空間画像120において移動オブジェクト115を移動させる。また制御部16は、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき、第1仮想空間画像120及びタッチパネルディスプレイ13に出力される第2仮想空間画像121において移動オブジェクト115の移動を停止させる。これによれば、第1ユーザ101は、移動が停止された移動オブジェクト115に対して第2のアクションである狙撃を行ないやすくなる。これにより、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。 (8) In the above embodiment, the control unit 16 moves the moving object 115 in the first virtual space image 120 output to the HMD 11. Further, as the first action, the control unit 16 stops the movement of the moving object 115 in the first virtual space image 120 and the second virtual space image 121 output to the touch panel display 13 based on the touch operation of the touch panel display 13. .. According to this, the first user 101 can easily perform the sniper, which is the second action, on the moving object 115 whose movement has been stopped. As a result, the first user 101 and the second user 102 can cooperate to advance the game.

(9)上記実施形態では、制御部16は、タッチパネルディスプレイ13の画面上での接触点の近傍の移動オブジェクト115を特定し、当該移動オブジェクト115に対してのみ移動を停止させる。つまり、1つの接触点で1つの移動オブジェクト115の移動を停止させることができる。第2ユーザ102は、移動を停止させたい移動オブジェクト115の近傍をタッチすればよく、移動を停止させるための動作を直感的に理解しやすい。また、複数の移動オブジェクト115の移動を停止する場合は、移動オブジェクト115の数と同じ数だけ接触点が必要となる。従って、停止させたい移動オブジェクト115の数に応じて移動オブジェクトを停止させる難度を上げることができる。 (9) In the above embodiment, the control unit 16 identifies a moving object 115 in the vicinity of the contact point on the screen of the touch panel display 13, and stops the movement only for the moving object 115. That is, the movement of one moving object 115 can be stopped at one contact point. The second user 102 may touch the vicinity of the moving object 115 whose movement is to be stopped, and it is easy to intuitively understand the operation for stopping the movement. Further, when stopping the movement of the plurality of moving objects 115, the same number of contact points as the number of moving objects 115 are required. Therefore, the difficulty of stopping the moving object can be increased according to the number of the moving objects 115 to be stopped.

(10)上記実施形態では、制御部16は、移動オブジェクト115を表示状態とし仮想空間を俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力する。従って、第2ユーザ102は、仮想空間内に含まれる移動オブジェクト115の位置や状態を把握することができる。このため、第2のアクションである狙撃のねらいとする移動オブジェクト115を指定表示範囲112に含めやすい。また、第2ユーザ102は、指定表示範囲112と移動オブジェクト115との位置関係を把握しやすい。 (10) In the above embodiment, the control unit 16 outputs the bird's-eye view image 122, which is a bird's-eye view of the virtual space, to the touch panel display 13 with the moving object 115 in the display state. Therefore, the second user 102 can grasp the position and state of the moving object 115 included in the virtual space. Therefore, it is easy to include the moving object 115, which is the target of the sniper, which is the second action, in the designated display range 112. Further, the second user 102 can easily grasp the positional relationship between the designated display range 112 and the moving object 115.

(第2実施形態)
次に、本発明を具体化した第2実施形態を説明する。なお、第2実施形態は、第1実施形態における第1のアクションを変更した構成であるため、同様の部分については同一符号を付してその詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment embodying the present invention will be described. Since the second embodiment has a configuration in which the first action in the first embodiment is modified, the same parts are designated by the same reference numerals and detailed description thereof will be omitted.

第1実施形態では、第1のアクションを指定表示範囲112の特定としたが、本実施形態では、第1のアクションを第2ユーザ102の操作に基づく移動オブジェクト115の選択とする。なお、本実施形態では、HMD11に出力される第1仮想空間画像120の初期状態は、少なくとも移動オブジェクト115が非表示状態であればよい。つまり、本実施形態の第1仮想空間画像120は、「暗闇」のような明度が低い表示状態でなくてもよい。 In the first embodiment, the first action is specified as the designated display range 112, but in the present embodiment, the first action is the selection of the moving object 115 based on the operation of the second user 102. In the present embodiment, the initial state of the first virtual space image 120 output to the HMD 11 may be at least a non-display state of the moving object 115. That is, the first virtual space image 120 of the present embodiment does not have to be in a low-brightness display state such as “darkness”.

図11に示すように、タッチパネルディスプレイ13に表示されている第2仮想空間画像121には、移動オブジェクト115が表示されている。第2ユーザ102は、移動オブジェクト115をタッチ操作で指定する。なお、図11では、接触位置P10が一つである例を示しているが、接触位置は複数であってもよい。 As shown in FIG. 11, the moving object 115 is displayed on the second virtual space image 121 displayed on the touch panel display 13. The second user 102 designates the moving object 115 by a touch operation. Although FIG. 11 shows an example in which there is only one contact position P10, there may be a plurality of contact positions.

制御部16は、タッチパネルディスプレイ13から接触位置P10の座標を取得し、オブジェクト位置情報21に基づき、接触位置P10の座標との相対距離が所定距離以下である移動オブジェクト115があるか否かを判断する。 The control unit 16 acquires the coordinates of the contact position P10 from the touch panel display 13, and determines whether or not there is a moving object 115 whose relative distance to the coordinates of the contact position P10 is equal to or less than a predetermined distance based on the object position information 21. do.

制御部16は、接触位置P10との相対距離が所定距離以下である移動オブジェクト115が存在すると判断すると、その移動オブジェクト115を第1仮想空間画像120上で表示状態として、HMD11の表示部32及びメインディスプレイ12に出力する。なお、本実施形態では、第1実施形態のように、接触位置P10の近傍の移動オブジェクト115の移動の停止の処理は行なわない。 When the control unit 16 determines that there is a moving object 115 whose relative distance to the contact position P10 is equal to or less than a predetermined distance, the moving object 115 is set as a display state on the first virtual space image 120, and the display unit 32 of the HMD 11 and the control unit 16 Output to the main display 12. In this embodiment, unlike the first embodiment, the process of stopping the movement of the moving object 115 in the vicinity of the contact position P10 is not performed.

制御部16は、接触位置P10と移動オブジェクト115との相対距離が所定距離以下である状態が維持されている間は、その移動オブジェクト115を第1仮想空間画像上で表示し続ける。一方、第2ユーザ102がタッチ操作を続けても、移動オブジェクト115の移動に伴って接触位置P10と移動オブジェクト115との相対距離が所定距離を超えると、制御部16は、その移動オブジェクト115を非表示状態とする。 The control unit 16 continues to display the moving object 115 on the first virtual space image while the relative distance between the contact position P10 and the moving object 115 is maintained at a predetermined distance or less. On the other hand, even if the second user 102 continues the touch operation, if the relative distance between the contact position P10 and the moving object 115 exceeds a predetermined distance as the moving object 115 moves, the control unit 16 moves the moving object 115. Hide it.

このように本実施形態では、第2ユーザ102によって選択された移動オブジェクト115を、第1仮想空間画像120に表示させるので、移動オブジェクト115を指定する作業がより細かい作業となる。その結果、第1ユーザ101及び第2ユーザ102の密な連携が必要となり、ゲームの難度を好適なものとして興趣を高めることができる。 As described above, in the present embodiment, since the moving object 115 selected by the second user 102 is displayed on the first virtual space image 120, the work of designating the moving object 115 becomes a finer work. As a result, close cooperation between the first user 101 and the second user 102 is required, and the difficulty level of the game can be made suitable to enhance the interest.

以上説明したように、第2実施形態によれば、第1実施形態に記載した(1)の効果に加えて、以下の効果が得られるようになる。
(11)上記実施形態では、制御装置15の制御部16は、第2ユーザ102によって選択された移動オブジェクト115を特定する。そして、制御部16は、第2ユーザ102によって選択された移動オブジェクト115を第1仮想空間画像120に表示させる。従って、第2ユーザ102は、HMD11を装着することなく、選択した移動オブジェクト115を第1ユーザ101に指し示すことができる。
As described above, according to the second embodiment, the following effects can be obtained in addition to the effect of (1) described in the first embodiment.
(11) In the above embodiment, the control unit 16 of the control device 15 specifies the moving object 115 selected by the second user 102. Then, the control unit 16 causes the first virtual space image 120 to display the moving object 115 selected by the second user 102. Therefore, the second user 102 can point the selected moving object 115 to the first user 101 without wearing the HMD 11.

(第3実施形態)
次に、本発明を具体化した第3実施形態を説明する。なお、第3実施形態は、第1実施形態における指定表示範囲を可変とする構成であるため、同様の部分については同一符号を付してその詳細な説明を省略する。
(Third Embodiment)
Next, a third embodiment embodying the present invention will be described. Since the third embodiment has a configuration in which the designated display range in the first embodiment is variable, the same reference numerals are given to the same parts and detailed description thereof will be omitted.

第1実施形態では、第2ユーザ102がタッチ操作によってタッチパネルディスプレイ13に表示させた範囲の全体を指定表示範囲112としたが、本実施形態では、第2ユーザ102のタッチ操作によって指定表示範囲112の大きさや位置を変更可能とする。 In the first embodiment, the entire range displayed on the touch panel display 13 by the second user 102 by the touch operation is set as the designated display range 112, but in the present embodiment, the designated display range 112 is set by the touch operation of the second user 102. The size and position of the can be changed.

図12に示すように、第2ユーザ102は、指定表示範囲112を、2本の指を近づけるように画面をなぞるピンチイン操作、又は2本の指を遠ざけるように画面をなぞるピンチアウト操作等を行なうことによってその大きさや位置を変更する。指定表示範囲112は、初期状態では画面全体であり、制御部16は、ピンチイン操作が行なわれるとピンチイン操作の軌跡に基づき指定表示範囲112を縮小し、ピンチアウト操作が行なわれるとピンチアウト操作の軌跡に基づき縮小された指定表示範囲112を拡大する。また、ピンチイン操作又はピンチアウト操作をした後に、2本の指を画面に接触させたまま移動すると、制御部16は、その操作の入力軌跡に基づいて、指定表示範囲112の大きさを維持したまま、指定表示範囲112を画面内で移動させる。なお、指定表示範囲112の移動に伴い、光源位置(原点)を移動させてもよい。 As shown in FIG. 12, the second user 102 performs a pinch-in operation of tracing the screen so as to bring two fingers closer to the designated display range 112, a pinch-out operation of tracing the screen so as to move two fingers away, and the like. Change its size and position by doing. The designated display range 112 is the entire screen in the initial state, and the control unit 16 reduces the designated display range 112 based on the trajectory of the pinch-in operation when the pinch-in operation is performed, and performs the pinch-out operation when the pinch-out operation is performed. The designated display range 112 reduced based on the locus is enlarged. Further, when the two fingers are moved while being in contact with the screen after performing the pinch-in operation or the pinch-out operation, the control unit 16 maintains the size of the designated display range 112 based on the input locus of the operation. As it is, the designated display range 112 is moved within the screen. The light source position (origin) may be moved with the movement of the designated display range 112.

また、指定表示範囲112を縮小させることによって、移動オブジェクト115に対する特殊効果を発生させてもよい。例えば、指定表示範囲112の縮小が開始される時点で指定表示範囲112に含まれる移動オブジェクト115を、指定表示範囲112の外側に移動させないようにしてもよい。その結果、指定表示範囲112を縮小することで、指定表示範囲112に含まれる移動オブジェクト115を縮小された指定表示範囲112に集めることができる。このように狭い範囲に移動オブジェクト115が集められると、第1ユーザ101は、一度に多くの移動オブジェクト115に対して狙撃を行ないやすい。 Further, by reducing the designated display range 112, a special effect on the moving object 115 may be generated. For example, the moving object 115 included in the designated display range 112 may not be moved to the outside of the designated display range 112 when the reduction of the designated display range 112 is started. As a result, by reducing the designated display range 112, the moving objects 115 included in the designated display range 112 can be collected in the reduced designated display range 112. When the moving objects 115 are collected in such a narrow range, the first user 101 can easily shoot at many moving objects 115 at once.

ピンチイン操作が行なわれたとき、制御部16は、タッチ操作の入力軌跡に基づき、その入力軌跡の長さや角度に応じて、指定表示範囲112を縮小する。また、制御部16は、縮小された指定表示範囲112の明度、彩度及び色相をそれ以外の範囲と異なる変更状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。このとき、第2仮想空間画像121には、初期状態の部分、例えば「暗闇」が表現された明度や彩度の低い部分も表示されることとなる。このとき、制御部16は、初期状態の部分に含まれる移動オブジェクト115を表示状態としてもよいし、非表示状態としてもよい。 When the pinch-in operation is performed, the control unit 16 reduces the designated display range 112 according to the length and angle of the input locus based on the input locus of the touch operation. Further, the control unit 16 outputs to the touch panel display 13 a second virtual space image 121 in which the reduced brightness, saturation, and hue of the designated display range 112 are changed to different states from the other ranges. At this time, the second virtual space image 121 also displays a portion in the initial state, for example, a portion having low lightness or saturation expressing "darkness". At this time, the control unit 16 may display or hide the moving object 115 included in the initial state portion.

また、制御部16は、第1ユーザ101の注目範囲111と指定表示範囲112の重複部分があるか否かを判断し、重複部分がある場合には、その重複部分を変更状態とし、それ以外の部分を初期状態とした第1仮想空間画像120を、HMD11の表示部32及びメインディスプレイ12に出力する。 Further, the control unit 16 determines whether or not there is an overlapping portion between the attention range 111 of the first user 101 and the designated display range 112, and if there is an overlapping portion, the overlapping portion is changed to a changed state, and other than that. The first virtual space image 120 with the portion of is in the initial state is output to the display unit 32 and the main display 12 of the HMD 11.

第2ユーザ102は、第1ユーザ101による狙撃が有効に行なわれること等によって、指定表示範囲112に含まれる移動オブジェクト115がなくなるか又は減少すると、指定表示範囲112を拡大するピンチアウト操作をタッチパネルディスプレイ13の画面上で行なう。ピンチアウト操作が行なわれたとき、制御部16は、タッチ操作の入力軌跡を入力して、その入力軌跡の長さや角度に応じて、指定表示範囲112を拡大する。また、制御部16は、拡大された指定表示範囲112を変更状態とし、それ以外の部分を初期状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。これにより、指定表示範囲112には、新たな移動オブジェクト115が含まれるようになる。 The second user 102 touches the touch panel to perform a pinch-out operation to expand the designated display range 112 when the moving object 115 included in the designated display range 112 disappears or decreases due to effective sniping by the first user 101 or the like. This is done on the screen of the display 13. When the pinch-out operation is performed, the control unit 16 inputs the input locus of the touch operation and expands the designated display range 112 according to the length and angle of the input locus. Further, the control unit 16 outputs the second virtual space image 121 with the enlarged designated display range 112 in the changed state and the other parts in the initial state to the touch panel display 13. As a result, the designated display range 112 includes the new moving object 115.

以上説明したように、第3実施形態によれば、第1実施形態に記載した(1)~(10)の効果に加えて、以下の効果が得られるようになる。
(12)上記実施形態では、制御部16は、タッチパネルディスプレイ13の画面でのタッチ操作に基づき、指定表示範囲112の大きさや位置を変更するため、例えば画面の一部のみを指し示すことができる。
As described above, according to the third embodiment, the following effects can be obtained in addition to the effects (1) to (10) described in the first embodiment.
(12) In the above embodiment, the control unit 16 changes the size and position of the designated display range 112 based on the touch operation on the screen of the touch panel display 13, so that, for example, only a part of the screen can be pointed to.

(第4実施形態)
次に、本発明を具体化した第4実施形態を説明する。なお、第4実施形態は、タッチパネルディスプレイで移動オブジェクトを非表示状態とし、操作部の操作に応じて移動オブジェクトを第2仮想空間画像に表示する構成であるため、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
(Fourth Embodiment)
Next, a fourth embodiment embodying the present invention will be described. Since the fourth embodiment is configured to hide the moving object on the touch panel display and display the moving object on the second virtual space image according to the operation of the operation unit, the same portion as that of the first embodiment. The same reference numerals are given to the above, and detailed description thereof will be omitted.

第1実施形態では、第1のアクションを第2ユーザ102の操作に基づく指定表示範囲112の特定とし、第2のアクションを第1ユーザの操作に基づく移動オブジェクト115に対する狙撃とした。本実施形態では、第1のアクションを第1ユーザ101による移動オブジェクト115の選択とし、第2のアクションを、第2ユーザ102のタッチパネルディスプレイ13のタッチ操作に基づく移動オブジェクト115に対する攻撃とする。 In the first embodiment, the first action is to specify the designated display range 112 based on the operation of the second user 102, and the second action is to sniper the moving object 115 based on the operation of the first user. In the present embodiment, the first action is the selection of the moving object 115 by the first user 101, and the second action is the attack on the moving object 115 based on the touch operation of the touch panel display 13 of the second user 102.

図13に示すように、制御部16は、移動オブジェクト115を常に表示状態とした第1仮想空間画像120をHMD11の表示部32及びメインディスプレイ12に出力する。第1ユーザ101によって操作される操作部14は、方向の変更、オン操作及びオフ操作のできるコントローラや、グローブ型のコントローラである。第1ユーザ101は、操作部14を操作して、仮想空間内の移動オブジェクト115を選択する。具体的には、制御部16は、第1仮想空間画像120に表示された懐中電灯等の光源130の向きを操作部14の操作によって変更して、移動オブジェクト115に光を照射することによって移動オブジェクト115を選択する。又は、仮想空間内の網や入れ物等の道具を使用して、移動オブジェクト115を捕獲する。 As shown in FIG. 13, the control unit 16 outputs the first virtual space image 120 in which the moving object 115 is always in the display state to the display unit 32 and the main display 12 of the HMD 11. The operation unit 14 operated by the first user 101 is a controller capable of changing the direction, on operation, and off operation, or a glove type controller. The first user 101 operates the operation unit 14 to select a moving object 115 in the virtual space. Specifically, the control unit 16 changes the direction of the light source 130 such as a flashlight displayed on the first virtual space image 120 by the operation of the operation unit 14, and moves by irradiating the moving object 115 with light. Select object 115. Alternatively, the moving object 115 is captured by using a tool such as a net or a container in the virtual space.

制御部16は、操作部14から出力された信号を入力するとともに、オブジェクト位置情報21に基づき移動オブジェクト115が選択されたか否かを判断する。制御部16は、移動オブジェクト115が選択されたと判断すると、選択された移動オブジェクト115を表示状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。 The control unit 16 inputs the signal output from the operation unit 14, and determines whether or not the moving object 115 has been selected based on the object position information 21. When the control unit 16 determines that the moving object 115 is selected, the control unit 16 outputs the second virtual space image 121 with the selected moving object 115 in the display state to the touch panel display 13.

タッチパネルディスプレイ13に出力された第2仮想空間画像121には、初期状態では、移動オブジェクト115が非表示状態とされている。第2仮想空間画像121上で、第1ユーザ101によって選択された移動オブジェクト115が表示状態とされると、第2ユーザは、表示状態とされた移動オブジェクト115をタッチ操作して攻撃を行なう。制御部16は、タッチパネルディスプレイ13から入力した信号に基づき、移動オブジェクト115に対する攻撃が行なわれたと判断すると、移動オブジェクト115に対する攻撃を、第1仮想空間画像120に反映して、HMD11及びメインディスプレイ12に出力する。 In the second virtual space image 121 output to the touch panel display 13, the moving object 115 is hidden in the initial state. When the moving object 115 selected by the first user 101 is displayed on the second virtual space image 121, the second user touch-operates the moved object 115 selected in the displayed state to perform an attack. When the control unit 16 determines that the attack on the moving object 115 has been performed based on the signal input from the touch panel display 13, the attack on the moving object 115 is reflected in the first virtual space image 120, and the HMD 11 and the main display 12 are used. Output to.

以上説明したように、第4実施形態によれば、以下の効果が得られるようになる。
(13)上記実施形態では、第1ユーザ101は、移動オブジェクト115を選択して、選択した移動オブジェクト115を第2仮想空間画像121上で表示状態とさせる。第2ユーザ102はHMD11を装着することなく、仮想空間で表示状態とされた移動オブジェクト115を攻撃することができる。従って、第1ユーザ101及び第2ユーザ102は協力してゲームを進めることができる。
As described above, according to the fourth embodiment, the following effects can be obtained.
(13) In the above embodiment, the first user 101 selects the moving object 115 and puts the selected moving object 115 in the display state on the second virtual space image 121. The second user 102 can attack the moving object 115 displayed in the virtual space without wearing the HMD 11. Therefore, the first user 101 and the second user 102 can cooperate in advancing the game.

(他の実施形態)
なお、上記各実施形態は、以下のように適宜変更して実施することもできる。
・上記各実施形態では、制御部16は、第2ユーザ102に対応するキャラクタ116の位置を、第1ユーザ101の鉛直方向上方の位置とした。これに代えて、例えば第2ユーザ102によるタッチパネルディスプレイ13の画面上でのタッチ操作に基づき、キャラクタ116の位置を変更するようにしてもよい。
(Other embodiments)
It should be noted that each of the above embodiments can be appropriately modified and implemented as follows.
In each of the above embodiments, the control unit 16 sets the position of the character 116 corresponding to the second user 102 to the position above the vertical direction of the first user 101. Instead of this, the position of the character 116 may be changed, for example, based on a touch operation on the screen of the touch panel display 13 by the second user 102.

・上記各実施形態では、第2仮想空間画像の水平視野角βを、第1仮想空間画像の水平視野角αよりも小さくした。これに代えて、第2仮想空間画像の水平視野角βを、第1仮想空間画像120の水平視野角αと同じとするか、若しくは第1仮想空間画像の水平視野角αよりも大きくしてもよい。このようにすると、指定表示範囲112を見つけやすくすることができるため、例えばオブジェクトを探し当てる難度を低くしたい場合に有効である。同様に、第2仮想空間画像の垂直視野角を、第2仮想空間画像の垂直視野角よりも小さくしてもよい。若しくは、第2仮想空間画像の垂直視野角以上としてもよい。 -In each of the above embodiments, the horizontal viewing angle β of the second virtual space image is made smaller than the horizontal viewing angle α of the first virtual space image. Instead, the horizontal viewing angle β of the second virtual space image is set to be the same as the horizontal viewing angle α of the first virtual space image 120, or is made larger than the horizontal viewing angle α of the first virtual space image. May be good. By doing so, the designated display range 112 can be easily found, which is effective when, for example, it is desired to reduce the difficulty of finding an object. Similarly, the vertical viewing angle of the second virtual space image may be smaller than the vertical viewing angle of the second virtual space image. Alternatively, it may be equal to or larger than the vertical viewing angle of the second virtual space image.

・上記各実施形態では、制御部16は、第1ユーザ101の注目範囲をメインディスプレイ12に第1仮想空間画像として表示させた。これに代えて若しくは加えて、制御部16は、例えば第1ユーザ101の注目範囲111を第2仮想空間画像121に表示させてもよい。注目範囲111は、線で囲むことで指し示してもよいし、第2仮想空間画像121の背景に対して明度、彩度及び色相の少なくとも一つを異ならせて表示させてもよい。この場合、第2ユーザ102が視認するメインディスプレイ12を省略することも可能である。 -In each of the above embodiments, the control unit 16 causes the main display 12 to display the attention range of the first user 101 as a first virtual space image. Alternatively or additionally, the control unit 16 may display, for example, the attention range 111 of the first user 101 on the second virtual space image 121. The attention range 111 may be indicated by surrounding it with a line, or at least one of lightness, saturation, and hue may be displayed differently from the background of the second virtual space image 121. In this case, it is possible to omit the main display 12 visually recognized by the second user 102.

・上記各実施形態では、制御部16は、仮想空間を俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力するようにした。但し、仮想空間内のオブジェクトの位置を把握し易い場合等には、俯瞰画像122の表示を省略してもよい。 -In each of the above embodiments, the control unit 16 outputs a bird's-eye view image 122, which is a bird's-eye view of the virtual space, to the touch panel display 13. However, if it is easy to grasp the position of the object in the virtual space, the display of the bird's-eye view image 122 may be omitted.

・上記各実施形態では、制御部16は、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、指定表示範囲112以外の部分の明度、彩度及び色相と異ならせて表示させた。これ以外に、第1のアクションとして、指定表示範囲112を、画像に表示される線で囲んで表示させたり、矢印等のマークを表示させたりしてもよい。 In each of the above embodiments, the control unit 16 displays at least one of the brightness, saturation, and hue of the designated display range 112 differently from the brightness, saturation, and hue of the portion other than the designated display range 112. .. In addition to this, as the first action, the designated display range 112 may be displayed by being surrounded by a line displayed on the image, or a mark such as an arrow may be displayed.

・上記各実施形態では、制御部16は、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、指定表示範囲112以外の部分の明度、彩度及び色相と異ならせて第1仮想空間画像及び第2仮想空間画像上に表示させた。これに加えて、制御部16は、時間の経過に伴い、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、時間の経過に伴い変化させて表示させるようにしてもよい。具体的には、制御部16が、指定表示範囲112を、光が照射されているような明度、彩度及び色相で表示させている場合、時間の経過に伴って指定表示範囲112を暗くしたり、初期状態の光とは異なる色の光が照射されるようにしたりするように、明度、彩度及び色相の少なくとも一つを変更させてもよい。 In each of the above embodiments, the control unit 16 makes at least one of the brightness, saturation, and hue of the designated display range 112 different from the brightness, saturation, and hue of the portion other than the designated display range 112, and is the first virtual. It was displayed on the spatial image and the second virtual spatial image. In addition to this, the control unit 16 may change and display at least one of the lightness, saturation, and hue of the designated display range 112 with the passage of time. Specifically, when the control unit 16 displays the designated display range 112 with the brightness, saturation, and hue as if it is illuminated by light, the designated display range 112 is darkened with the passage of time. Alternatively, at least one of lightness, saturation and hue may be changed so that light of a color different from the light of the initial state is emitted.

・上記各実施形態では、制御部16は、第2ユーザ102によるタッチパネルディスプレイ13上の接触位置に基づき、第1のアクションとして、移動オブジェクト115の移動を停止させた。これに代えて若しくは加えて、制御部16は、タッチパネルディスプレイ13の画面に表示されたアイテムの選択操作に基づいて、移動オブジェクト115の移動を停止させてもよい。例えば、タッチパネルディスプレイ13の画面に表示された特殊アイテムが選択された場合、タッチパネルディスプレイ13の画面に表示されている全ての移動オブジェクト115の動きを停止させてもよい。また、アイテムが、移動オブジェクト115の近傍までドラッグアンドドロップ操作された場合、その移動オブジェクト115の移動を停止させるようにしてもよい。 In each of the above embodiments, the control unit 16 stops the movement of the moving object 115 as the first action based on the contact position on the touch panel display 13 by the second user 102. Alternatively or additionally, the control unit 16 may stop the movement of the moving object 115 based on the item selection operation displayed on the screen of the touch panel display 13. For example, when a special item displayed on the screen of the touch panel display 13 is selected, the movement of all the moving objects 115 displayed on the screen of the touch panel display 13 may be stopped. Further, when the item is dragged and dropped to the vicinity of the moving object 115, the movement of the moving object 115 may be stopped.

・上記各実施形態では、制御部16は、第2ユーザ102によるタッチパネルディスプレイ13上の接触位置に基づき、第1のアクションとして、移動オブジェクト115の移動を停止させた。これに代えて若しくは加えて、1つの接触位置に対応する所定範囲内に含まれる移動オブジェクトの移動を停止させてもよい。1つの接触位置に対応する所定範囲とは、例えば接触位置を中心とする円形状の範囲、又は接触位置を起点(隅部)とする矩形状、扇状等である。若しくは、スワイプ操作や、2本の指でタップする等して所定範囲を選択してもよい。 In each of the above embodiments, the control unit 16 stops the movement of the moving object 115 as the first action based on the contact position on the touch panel display 13 by the second user 102. Alternatively or additionally, the movement of the moving object included in the predetermined range corresponding to one contact position may be stopped. The predetermined range corresponding to one contact position is, for example, a circular range centered on the contact position, a rectangular shape having the contact position as a starting point (corner), a fan shape, or the like. Alternatively, a predetermined range may be selected by swiping or tapping with two fingers.

・上記各実施形態では、常に移動する移動オブジェクト115に対して第2のアクションが行なわれるようにした。これに代えて若しくは加えて、仮想空間内の所定の固定位置に配置されたオブジェクトに対して第2のアクションが行なわれるようにしてもよい。このようなオブジェクトとしては、例えば、仮想空間内に配置された箱、扉、楽器等である。この場合、第2のアクションを、例えば、箱の蓋を開ける、扉を開く、楽器を演奏する等のアクションとする。 -In each of the above embodiments, the second action is performed on the moving object 115 that is constantly moving. Alternatively or additionally, a second action may be performed on an object placed at a predetermined fixed position in the virtual space. Examples of such an object are a box, a door, a musical instrument, and the like arranged in a virtual space. In this case, the second action is, for example, an action such as opening the lid of a box, opening a door, or playing a musical instrument.

・上記各実施形態では、注目範囲111及び指定表示範囲112の重複部分に含まれない移動オブジェクト115には、第2のアクションを不可能とするか、又は第2のアクションが行なわれても無効とした。これに代えて、重複部分に含まれないオブジェクトにも、第2のアクションが行なわれてもよい。この場合、例えば重複部分に含まれるオブジェクトを、照準を合わせやすいように明瞭に表示し、重複部分に含まれないオブジェクトは照準を合わせやすい不明瞭に表示するようにしてもよい。また、重複部分に含まれないオブジェクトに有効なアクションを行なった場合には、重複部分に含まれるオブジェクトに有効なアクションを行なった場合よりも得点を高くするようにしてもよい。 -In each of the above embodiments, the moving object 115 that is not included in the overlapping portion of the attention range 111 and the designated display range 112 cannot perform the second action, or is invalid even if the second action is performed. And said. Alternatively, the second action may be performed on an object that is not included in the overlapping portion. In this case, for example, the objects included in the overlapping portion may be clearly displayed so as to be easy to aim, and the objects not included in the overlapping portion may be displayed unclearly so as to be easily aimed. Further, when a valid action is performed on an object not included in the overlapping portion, the score may be higher than when a valid action is performed on the object included in the overlapping portion.

・上記各実施形態では、HMD11の表示部32及びメインディスプレイ12に出力される第1仮想空間画像で所定オブジェクト(移動オブジェクト115)を非表示状態とした。これに代えて、第2のアクションの対象となるオブジェクトを第1仮想空間画像で表示状態としてもよい。この場合、例えば、注目範囲111及び指定表示範囲112の重複部分の表示態様をそれ以外の部分と異なる態様で表示し、その重複部分に含まれる移動オブジェクト115のみ第2のアクションを有効とするようにしてもよい。このようにしても、重複部分に含まれる所定のオブジェクトに対してのみ第2のアクションが有効とされるので、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。 In each of the above embodiments, the predetermined object (moving object 115) is hidden in the first virtual space image output to the display unit 32 of the HMD 11 and the main display 12. Instead of this, the object to be the target of the second action may be displayed in the first virtual space image. In this case, for example, the display mode of the overlapping portion of the attention range 111 and the designated display range 112 is displayed in a mode different from the other portions, and the second action is enabled only for the moving object 115 included in the overlapping portion. You may do it. Even in this way, since the second action is effective only for the predetermined object included in the overlapping portion, the first user 101 and the second user 102 can cooperate to advance the game.

若しくは、第1仮想空間画像及び第2仮想空間画像の間で、オブジェクト又はオブジェクトを含む仮想空間画像の表示の態様を異ならせてもよい。例えば、第2仮想空間画像では、拡大及び縮尺が可能、又は任意の角度でオブジェクトを表示することが可能であるが、第1仮想空間画像では、拡大及び縮尺が不可能、又は一定の角度でしかオブジェクトを表示できない。若しくは、第2仮想空間画をオブジェクトを含む仮想空間を俯瞰した俯瞰画像とし、第1仮想空間画像では、俯瞰画像が表示されないようにしてもよい。若しくは、第2仮想空間画像では、透過、エッジ抽出等、所定の画像処理を行なうことができるが、第1仮想空間画像では、所定の画像処理を行なうことができないようにしてもよい。 Alternatively, the display mode of the object or the virtual space image including the object may be different between the first virtual space image and the second virtual space image. For example, in the second virtual space image, it is possible to enlarge and scale, or the object can be displayed at any angle, but in the first virtual space image, it is impossible to enlarge and scale, or at a certain angle. Only objects can be displayed. Alternatively, the second virtual space image may be a bird's-eye view image of the virtual space including the object, and the bird's-eye view image may not be displayed in the first virtual space image. Alternatively, the second virtual space image can perform predetermined image processing such as transparency and edge extraction, but the first virtual space image may not be able to perform predetermined image processing.

図14及び図15は、第2仮想空間画像を、オブジェクトを含む仮想空間を俯瞰した俯瞰画像とし、第1仮想空間画像を俯瞰画像以外の画像とした例である。例えば、第1ユーザ101及び第2ユーザ102によって行なわれるゲームは、立体図形を組み合わせるパズルゲームである。図14に示すように、制御部16は、第1ユーザ101の姿勢に応じて、オブジェクトである立体図形150を含む仮想空間の画像である第1仮想空間画像120をHMD11等に出力する。立体図形150は、立方体、直方体以外にも、三角柱、円錐、球状等、特に限定されない。第1ユーザ101は、操作部14を操作して、立体図形を組み合わせる。なお、所定数以上の立体図形150が組み合わされた場合には、立体図形150の組み合わせにより形成されたパターン全体を第1仮想空間画像120の視野角に含めることは難しい。このため、第1ユーザ101の目標とするパターンを形成する際に、立体図形150を配置すべき位置、及び配置すべき立体図形150の種類の少なくとも一方について判断しにくい。 14 and 15 are examples in which the second virtual space image is a bird's-eye view image of a virtual space including an object, and the first virtual space image is an image other than the bird's-eye view image. For example, the game played by the first user 101 and the second user 102 is a puzzle game in which three-dimensional figures are combined. As shown in FIG. 14, the control unit 16 outputs the first virtual space image 120, which is an image of the virtual space including the three-dimensional figure 150, which is an object, to the HMD 11 or the like according to the posture of the first user 101. The solid figure 150 is not particularly limited to a triangular prism, a cone, a spherical shape, or the like, in addition to the cube and the rectangular parallelepiped. The first user 101 operates the operation unit 14 to combine three-dimensional figures. When a predetermined number or more of the three-dimensional figures 150 are combined, it is difficult to include the entire pattern formed by the combination of the three-dimensional figures 150 in the viewing angle of the first virtual space image 120. Therefore, when forming the target pattern of the first user 101, it is difficult to determine at least one of the position where the three-dimensional figure 150 should be arranged and the type of the three-dimensional figure 150 to be arranged.

図15に示すように、制御部16は、立体図形150が組み合わされて形成されたパターンを俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力する。第2ユーザ102は、俯瞰画像122でパターン全体を視認することができるので、どの位置にどの立体図形150を配置すればよいのかを容易に判断することができる。 As shown in FIG. 15, the control unit 16 outputs a bird's-eye view image 122, which is a bird's-eye view of a pattern formed by combining three-dimensional figures 150, to the touch panel display 13. Since the second user 102 can visually recognize the entire pattern on the bird's-eye view image 122, it is possible to easily determine which three-dimensional figure 150 should be arranged at which position.

また、図15に示すように、例えば第2ユーザ102がタッチパネルディスプレイ13の画面の所定の位置をタッチすると、図14に示すように、制御部16は、第1仮想空間画像120に、立体図形150を配置すべき位置を、指示位置マーク151で表示させる(第1のアクション)。若しくは、指示位置マーク151以外にも、立体図形150を配置すべき位置を、それ以外の部分の表示態様とは異なる態様で表示させてもよい。制御部16は、第1ユーザ101の操作部14の操作に基づく位置に立体図形150を配置する(第2のアクション)。 Further, as shown in FIG. 15, for example, when the second user 102 touches a predetermined position on the screen of the touch panel display 13, the control unit 16 displays a three-dimensional figure on the first virtual space image 120 as shown in FIG. The position where the 150 should be placed is displayed by the designated position mark 151 (first action). Alternatively, in addition to the designated position mark 151, the position where the solid figure 150 should be arranged may be displayed in a mode different from the display mode of the other parts. The control unit 16 arranges the three-dimensional figure 150 at a position based on the operation of the operation unit 14 of the first user 101 (second action).

また、立体図形150の種類の並びに基づきアクションを行なうパズルゲームでは、例えば、第2ユーザ102が、立体図形150の種類を選択するための表示領域153から、任意の立体図形150を選択し、その立体図形150を配置すべき位置をタッチする(図15参照)。図14に示すように、制御部16は、配置すべき立体図形150の種類を種類識別マーク152で表示させる(第1のアクション)。さらに、立体図形150を配置すべき位置を、指示位置マーク151等で表示させてもよい。第1ユーザ101は、操作部14を操作して、種類識別マーク152で指し示された立体図形150を、指示位置マーク151で指し示された位置に配置する。 Further, in a puzzle game in which an action is performed based on the arrangement of the types of the three-dimensional figure 150, for example, the second user 102 selects an arbitrary three-dimensional figure 150 from the display area 153 for selecting the type of the three-dimensional figure 150, and the second user 102 selects an arbitrary three-dimensional figure 150. Touch the position where the solid figure 150 should be placed (see FIG. 15). As shown in FIG. 14, the control unit 16 displays the type of the three-dimensional figure 150 to be arranged by the type identification mark 152 (first action). Further, the position where the solid figure 150 should be arranged may be displayed by the designated position mark 151 or the like. The first user 101 operates the operation unit 14 to arrange the three-dimensional figure 150 pointed to by the type identification mark 152 at the position pointed to by the designated position mark 151.

・上記各実施形態では、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき仮想空間内の範囲を指定表示範囲112として指定した。これに代えて、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき仮想空間内の方向や任意の位置を指し示すようにしてもよい。 -In each of the above embodiments, as the first action, the range in the virtual space is designated as the designated display range 112 based on the touch operation of the touch panel display 13. Instead of this, as a first action, a direction or an arbitrary position in the virtual space may be pointed out based on the touch operation of the touch panel display 13.

図16は、迷路ゲームで出力される画面の例を示している。図16(a)に示すように、制御部16は、第1仮想空間画像120として、仮想空間内に設けられた立体迷路160の画像をHMD11の表示部32等に表示させる。制御部16は、ユーザの体勢に応じて第1仮想空間画像120を出力するとともに、操作部14の操作、又はセンサによって検出されたユーザ位置に基づき、立体迷路160内を進むように第1仮想空間画像120を変更する。図16(b)に示すように、制御部16は、第2仮想空間画像121として、立体迷路160の俯瞰画像をタッチパネルディスプレイ13に表示させる。制御部16は、第2仮想空間画像121に第1ユーザ101の位置161を表示させる。第2ユーザ102は、第2仮想空間画像121を視認しつつ、例えば第1ユーザ101が進むべき方向を第1ユーザ101の進行に合わせて指でなぞる。制御部16は、タッチパネルディスプレイ13から、タッチ操作に応じた入力軌跡を取得し、その入力軌跡に沿って、第1仮想空間画像120に指示された方向を表示する(第1のアクション)。例えば、第2ユーザ102が指示する方向は、第1仮想空間画像120上で、背景に対して明度、彩度及び色相を異ならせた光として表示させてもよいし、矢印等の指標として表示してもよい。第1ユーザ101は、第1仮想空間画像120上で指示された方向を参考にして、操作部14の操作等により立体迷路160内を進む。 FIG. 16 shows an example of a screen output in the maze game. As shown in FIG. 16A, the control unit 16 causes the display unit 32 or the like of the HMD 11 to display an image of the three-dimensional maze 160 provided in the virtual space as the first virtual space image 120. The control unit 16 outputs the first virtual space image 120 according to the posture of the user, and the first virtual so as to proceed in the three-dimensional maze 160 based on the operation of the operation unit 14 or the user position detected by the sensor. The spatial image 120 is changed. As shown in FIG. 16B, the control unit 16 causes the touch panel display 13 to display a bird's-eye view image of the three-dimensional maze 160 as the second virtual space image 121. The control unit 16 causes the second virtual space image 121 to display the position 161 of the first user 101. While visually recognizing the second virtual space image 121, the second user 102 traces, for example, the direction in which the first user 101 should go with a finger in accordance with the progress of the first user 101. The control unit 16 acquires an input locus corresponding to the touch operation from the touch panel display 13, and displays the direction instructed by the first virtual space image 120 along the input locus (first action). For example, the direction indicated by the second user 102 may be displayed as light having different brightness, saturation, and hue with respect to the background on the first virtual space image 120, or may be displayed as an index such as an arrow. You may. The first user 101 advances in the three-dimensional maze 160 by operating the operation unit 14 or the like with reference to the direction indicated on the first virtual space image 120.

・上記各実施形態では、第1ユーザ101の頭部の位置及び向きを検出するHMD11に加え、現実空間での第1ユーザ101の位置を検出する位置検出センサを設けるようにしてもよい。制御部16は、第1ユーザ101の頭部の位置及び向きだけでなく、位置検出センサにより第1ユーザ101が立つ位置を検出し、第1ユーザ101が立つ位置に応じて仮想空間の画像情報をレンダリングして第1仮想空間画像を表示する。このようにすると、第1ユーザ101の移動に伴って第1仮想空間画像が変更されるため、さらに没入感を高めることができる。 In each of the above embodiments, in addition to the HMD 11 that detects the position and orientation of the head of the first user 101, a position detection sensor that detects the position of the first user 101 in the real space may be provided. The control unit 16 detects not only the position and orientation of the head of the first user 101 but also the position where the first user 101 stands by the position detection sensor, and the image information of the virtual space according to the position where the first user 101 stands. Is rendered to display the first virtual space image. By doing so, since the first virtual space image is changed with the movement of the first user 101, the immersive feeling can be further enhanced.

・上記各実施形態では、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するゲームを、所定のオブジェクトを狙撃するゲームに具体化した。これに代えて、探検ゲーム、カードゲーム、レーシングゲーム、格闘ゲーム、シュミレーションゲーム、ロールプレイングゲーム等の他のゲームに具体化してもよい。また、オブジェクトに対するアクションとしては、「狙撃」に限定されることなく、例えば、変形させる、投げる、打つ、飛散させる、分割する、回転させる、移動させる等のその他のアクションであってもよい。 -In each of the above embodiments, the game of outputting the image of the virtual space to the HMD 11 and the touch panel display 13 is embodied as a game of sniping a predetermined object. Instead, it may be embodied in other games such as exploration games, card games, racing games, fighting games, simulation games, and role-playing games. Further, the action on the object is not limited to "sniper", and may be other actions such as transforming, throwing, hitting, scattering, dividing, rotating, and moving.

・上記各実施形態では、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するアプリケーションを、ゲームに具体化した。これに代えて、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するアプリケーションを医療分野、教育分野等、ゲーム以外の分野で用いられるシミュレーションを行なうアプリケーション、トレーニングを行なうアプリケーション等、ゲーム以外のアプリケーションとしてもよい。 -In each of the above embodiments, an application that outputs an image of a virtual space to the HMD 11 and the touch panel display 13 is embodied in a game. Instead of this, an application that outputs an image of a virtual space to the HMD 11 and a touch panel display 13 is used as a non-game application such as a simulation application and a training application used in fields other than games such as medical fields and education fields. May be good.

次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
〔a〕第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力する制御部を用いて仮想空間の画像を出力するアプリケーション制御プログラムにおいて、前記制御部を、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力し、前記第2ユーザの入力操作に基づき前記仮想空間の表示範囲を決定し、前記第2ユーザが用いるディスプレイに前記決定した表示範囲の仮想空間の画像を出力し、前記仮想空間に対する前記第2ユーザの操作を受け付けて、前記仮想空間内で第1のアクションを行ない、前記装着ディスプレイに、前記第1のアクションが反映された前記仮想空間の画像を出力し、前記第1ユーザによる操作部での操作に応じて、前記第1のアクションが反映された前記仮想空間内で第2のアクションを行なう手段として機能させることを特徴とするアプリケーション制御プログラム。
〔b〕前記第1のアクションを行なう手段は、前記第1のアクションとして、前記第2ユーザの入力操作に基づきオブジェクトの移動を制御する〔a〕に記載のアプリケーション制御プログラム。
〔c〕前記第1のアクションを行なう手段は、前記第1のアクションとして、前記第2ユーザの入力操作に基づきオブジェクトを選択する〔a〕又は〔b〕に記載のアプリケーション制御プログラム。
〔d〕前記制御部を、前記装着ディスプレイに出力する前記仮想空間の画像において、前記第2のアクションの対象となる移動オブジェクトを移動させる手段としてさらに機能させ、前記第1のアクションを行なう手段は、前記第1のアクションとして、前記ディスプレイの操作に基づき前記移動オブジェクトの移動を停止させ、前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記装着ディスプレイに出力する画像において前記移動オブジェクトの移動を停止させる〔a〕~〔c〕のいずれか1項に記載のアプリケーション制御プログラム。
〔e〕前記第1のアクションを行なう手段は、前記ディスプレイの画面上での接触点の近傍の前記移動オブジェクトを特定し、当該移動オブジェクトに対してのみ移動を停止させる〔d〕に記載のアプリケーション制御プログラム。
〔f〕前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記決定した表示範囲と前記第1ユーザの姿勢に応じた注目範囲とが重複している場合には、その重複部分に含まれる所定のオブジェクトを表示状態とし、前記重複部分に含まれない前記所定のオブジェクトがある場合には、その所定のオブジェクトを非表示状態として前記装着ディスプレイに出力する〔a〕~〔e〕のいずれか1項に記載のアプリケーション制御プログラム。
〔g〕前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記決定した表示範囲の明度、彩度及び色相の少なくとも一つを、それ以外の範囲の明度、彩度及び色相と異ならせた状態で前記装着ディスプレイに出力する〔f〕に記載のアプリケーション制御プログラム。
〔h〕前記第2のアクションを行なう手段は、前記決定した表示範囲と前記第1ユーザの姿勢に応じた注目範囲との重複部分に含まれる所定のオブジェクトに対してのみ第2のアクションを有効とする〔f〕又は〔g〕に記載のアプリケーション制御プログラム。
〔i〕前記ディスプレイに前記仮想空間の画像を出力する手段は、前記第2のアクションの対象となる所定のオブジェクトを表示状態で出力する〔f〕~〔h〕のいずれか1項に記載のアプリケーション制御プログラム。
〔j〕前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記装着ディスプレイにおいて出力される前記仮想空間の画像の水平方向の視野角よりも、前記決定した表示範囲の水平方向の視野角を小さくする〔a〕~〔i〕のいずれか1項に記載のアプリケーション制御プログラム。
〔k〕前記ディスプレイに前記仮想空間の画像を出力する手段は、前記仮想空間を俯瞰し、且つ前記第2のアクションの対象となる所定のオブジェクトを表示状態とした画像を出力する手段としてさらに機能させる請求項〔a〕~〔j〕のいずれか1項に記載のアプリケーション制御プログラム。
〔l〕第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力する制御部を用いて仮想空間の画像を出力するアプリケーション制御方法において、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力し、前記第2ユーザの入力操作に基づき前記仮想空間の表示範囲を決定し、前記第2ユーザに用いるディスプレイに前記決定した表示範囲の仮想空間の画像を出力し、前記仮想空間に対する前記第2ユーザの操作を受け付けて、前記仮想空間内で第1のアクションを行ない、前記装着ディスプレイに、前記第1のアクションが反映された前記仮想空間の画像を出力し、前記第1ユーザによる操作部での操作に応じて、前記第1のアクションが反映された前記仮想空間内で第2のアクションを行なうことを特徴とするアプリケーション制御方法。
〔m〕第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力する制御部を備えた仮想空間の画像を出力するアプリケーション制御システムにおいて、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力し、前記第2ユーザの入力操作に基づき前記仮想空間の表示範囲を決定し、前記第2ユーザが用いるディスプレイに前記決定した表示範囲の仮想空間の画像を出力し、前記仮想空間に対する前記第2ユーザの操作を受け付けて、前記仮想空間内で第1のアクションを行ない、前記装着ディスプレイに、前記第1のアクションが反映された前記仮想空間の画像を出力し、前記第1ユーザによる操作部での操作に応じて、前記第1のアクションが反映された前記仮想空間内で第2のアクションを行なうことを特徴とするアプリケーション制御システム。
Next, the technical ideas that can be grasped from the above-described embodiment and other examples will be added below together with their effects.
[A] In an application control program that outputs an image of a virtual space using a wearable display worn by a first user and a control unit that outputs an image to a display used by the second user, the control unit is used as the first user. The image of the virtual space is output to the mounted display, the display range of the virtual space is determined based on the input operation of the second user, and the determined display is displayed on the display used by the second user. An image of the virtual space in the range is output, the operation of the second user with respect to the virtual space is received, the first action is performed in the virtual space, and the first action is reflected on the mounted display. It is characterized in that it outputs an image of the virtual space and functions as a means for performing a second action in the virtual space in which the first action is reflected in response to an operation by the operation unit by the first user. The application control program to be.
[B] The application control program according to [a], wherein the means for performing the first action is, as the first action, controlling the movement of an object based on an input operation of the second user.
[C] The application control program according to [a] or [b], wherein the means for performing the first action selects an object based on an input operation of the second user as the first action.
[D] The means for further functioning the control unit as a means for moving a moving object that is the target of the second action in the image of the virtual space output to the mounted display, and performing the first action. As the first action, the means for stopping the movement of the moving object based on the operation of the display and outputting the image of the virtual space reflecting the first action is an image to be output to the mounted display. The application control program according to any one of [a] to [c], which stops the movement of the moving object in the above.
[E] The application according to [d], wherein the means for performing the first action identifies the moving object in the vicinity of the contact point on the screen of the display and stops the movement only for the moving object. Control program.
[F] When the means for outputting the image of the virtual space reflecting the first action overlaps the determined display range and the attention range according to the posture of the first user, the means may overlap. A predetermined object included in the overlapping portion is displayed, and if there is a predetermined object not included in the overlapping portion, the predetermined object is hidden and output to the mounted display [a] to The application control program according to any one of [e].
[G] The means for outputting the image of the virtual space reflecting the first action is to set at least one of the brightness, saturation and hue of the determined display range, and the brightness and saturation of the other range. The application control program according to [f], which outputs to the mounted display in a state different from the hue.
[H] The means for performing the second action is effective only for a predetermined object included in the overlapping portion between the determined display range and the attention range according to the posture of the first user. The application control program according to [f] or [g].
[I] The means for outputting an image of the virtual space to the display is described in any one of [f] to [h], which outputs a predetermined object to be the target of the second action in a display state. Application control program.
[J] The means for outputting the image of the virtual space reflecting the first action has the determined display range rather than the horizontal viewing angle of the image of the virtual space output on the mounted display. The application control program according to any one of [a] to [i], which reduces the viewing angle in the horizontal direction.
[K] The means for outputting the image of the virtual space to the display further functions as a means for outputting an image in which the predetermined object to be the target of the second action is displayed in a bird's-eye view of the virtual space. The application control program according to any one of claims [a] to [j].
[L] In an application control method for outputting an image of a virtual space using a wearable display worn by a first user and a control unit that outputs an image to a display used by the second user, the control unit is the first user. The image of the virtual space is output to the mounted display, the display range of the virtual space is determined based on the input operation of the second user, and the determined display is displayed on the display used for the second user. An image of the virtual space in the range is output, the operation of the second user with respect to the virtual space is received, the first action is performed in the virtual space, and the first action is reflected on the mounted display. An application control characterized in that an image of the virtual space is output and a second action is performed in the virtual space in which the first action is reflected in response to an operation in the operation unit by the first user. Method.
[M] In an application control system that outputs an image of a virtual space including a wearable display worn by a first user and a control unit that outputs an image to a display used by the second user, the control unit is the first user. The image of the virtual space is output to the mounted display, the display range of the virtual space is determined based on the input operation of the second user, and the determined display is displayed on the display used by the second user. An image of the virtual space in the range is output, the operation of the second user with respect to the virtual space is received, the first action is performed in the virtual space, and the first action is reflected on the mounted display. An application control characterized in that an image of the virtual space is output and a second action is performed in the virtual space in which the first action is reflected in response to an operation in the operation unit by the first user. system.

11…装着ディスプレイとしてのヘッドマウントディスプレイ(HMD)、12…メインディスプレイ、13…タッチパネルディスプレイ、14…操作部、15…制御装置、16…制御部、17…記憶部、18…ゲーム管理情報、19…注目点情報、20…指定表示範囲情報、21…オブジェクト位置情報、22…接触位置情報、24…注視位置特定部、25…画像情報記憶部、30…HMD制御部、31…トラッキングセンサ、32…表示部、101…第1ユーザ、102…第2ユーザ、110…仮想空間、111…注目範囲、112…指定表示範囲、114…注目点、115…移動オブジェクト、116…キャラクタ、118…光線、120…第1仮想空間画像、121…第2仮想空間画像、122…俯瞰画像、125…重複部分。
11 ... Head-mounted display (HMD) as a mounted display, 12 ... Main display, 13 ... Touch panel display, 14 ... Operation unit, 15 ... Control device, 16 ... Control unit, 17 ... Storage unit, 18 ... Game management information, 19 ... Attention point information, 20 ... Designated display range information, 21 ... Object position information, 22 ... Contact position information, 24 ... Gaze position specifying unit, 25 ... Image information storage unit, 30 ... HMD control unit, 31 ... Tracking sensor, 32 ... display unit, 101 ... first user, 102 ... second user, 110 ... virtual space, 111 ... attention range, 112 ... designated display range, 114 ... attention point, 115 ... moving object, 116 ... character, 118 ... ray, 120 ... 1st virtual space image, 121 ... 2nd virtual space image, 122 ... bird's-eye view image, 125 ... overlapping part.

Claims (4)

第1ユーザが装着する装着ディスプレイに仮想空間の画像を出力させるアプリケーション制御プログラムであって、
1又は複数のコンピュータに、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに、複数の種類に分類され且つ前記第1ユーザが配置すべき位置に配置するオブジェクトを含み、複数の前記オブジェクトを組み合わせたパターンを形成可能な前記仮想空間の第1画像を出力させるステップと、
第2ユーザが用いるディスプレイに、前記オブジェクトを含む仮想空間を前記第1画像の視野角よりも広い視野角で俯瞰した第2画像を出力させるとともに、前記オブジェクトの種類を選択するための表示領域を出力させるステップと、
前記表示領域に表示された前記オブジェクトの種類の中から所定の種類のオブジェクトを選択する前記第2ユーザの操作を受け付けるステップと、
選択された前記所定の種類のオブジェクトの配置位置を指定する前記第2ユーザの操作を受け付けるステップと、
前記装着ディスプレイに、前記第2ユーザが指定した前記配置位置及び選択された前記所定の種類のオブジェクトを識別可能に表示した前記仮想空間の画像を出力させるステップと、を実行させ
前記第1画像を出力させるステップでは、前記第2画像を前記装着ディスプレイに出力させず、
前記第2画像を出力させるステップでは、前記第1画像を前記ディスプレイに出力させないアプリケーション制御プログラム。
It is an application control program that outputs an image of virtual space to the wearable display worn by the first user.
For one or more computers
Depending on the posture of the first user, the mounted display may include objects classified into a plurality of types and arranged at positions to be arranged by the first user, and a pattern in which a plurality of the objects are combined can be formed. The step of outputting the first image of the virtual space and
The display used by the second user is made to output a second image in which the virtual space including the object is overlooked with a viewing angle wider than the viewing angle of the first image, and a display area for selecting the type of the object is provided. Steps to output and
A step of accepting an operation of the second user to select an object of a predetermined type from the types of the objects displayed in the display area, and
A step of accepting the operation of the second user to specify the placement position of the selected object of the predetermined type, and
A step of causing the wearing display to output an image of the virtual space in which the arrangement position designated by the second user and the selected object of the predetermined type are identifiablely displayed is executed .
In the step of outputting the first image, the second image is not output to the mounted display.
An application control program that does not output the first image to the display in the step of outputting the second image .
前記第2ユーザが指定した前記配置位置及び選択された前記所定の種類のオブジェクトを識別可能に表示した前記仮想空間内において、前記第1ユーザによる操作部での操作に基づき、前記第1ユーザが選択した前記オブジェクトを前記第1ユーザが指定した位置に配置するステップをさらに実行させる、請求項1に記載のアプリケーション制御プログラム。 In the virtual space in which the arrangement position designated by the second user and the selected object of the predetermined type are identifiablely displayed, the first user is based on the operation by the operation unit by the first user. The application control program according to claim 1, further executing a step of arranging the selected object at a position designated by the first user. 第1ユーザが装着する装着ディスプレイに仮想空間の画像を出力させるアプリケーション制御方法であって、
1又は複数のコンピュータが、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに、複数の種類に分類され且つ前記第1ユーザが配置すべき位置に配置するオブジェクトを含み、複数の前記オブジェクトを組み合わせたパターンを形成可能な前記仮想空間の第1画像を出力させるステップと、
第2ユーザが用いるディスプレイに、前記オブジェクトを含む仮想空間を前記第1画像の視野角よりも広い視野角で俯瞰した第2画像を出力させるとともに、前記オブジェクトの種類を選択するための表示領域を出力させるステップと、
前記表示領域に表示された前記オブジェクトの種類の中から所定の種類のオブジェクトを選択する前記第2ユーザの操作を受け付けるステップと、
選択された前記所定の種類のオブジェクトの配置位置を指定する前記第2ユーザの操作を受け付けるステップと、
前記装着ディスプレイに、前記第2ユーザが指定した前記配置位置及び選択された前記所定の種類のオブジェクトを識別可能に表示した前記仮想空間の画像を出力させるステップと、を行い、
前記第1画像を出力させるステップでは、前記第2画像を前記装着ディスプレイに出力させず、
前記第2画像を出力させるステップでは、前記第1画像を前記ディスプレイに出力させないアプリケーション制御方法。
It is an application control method that outputs an image of virtual space to a wearable display worn by a first user.
One or more computers
Depending on the posture of the first user, the mounted display may include objects classified into a plurality of types and arranged at positions to be arranged by the first user, and a pattern in which a plurality of the objects are combined can be formed. The step of outputting the first image of the virtual space and
The display used by the second user is made to output a second image in which the virtual space including the object is overlooked with a viewing angle wider than the viewing angle of the first image, and a display area for selecting the type of the object is provided. Steps to output and
A step of accepting an operation of the second user to select an object of a predetermined type from the types of the objects displayed in the display area, and
A step of accepting the operation of the second user to specify the placement position of the selected object of the predetermined type, and
A step of outputting the image of the virtual space in which the arrangement position designated by the second user and the selected object of the predetermined type are identifiablely displayed on the mounted display is performed.
In the step of outputting the first image, the second image is not output to the mounted display.
An application control method in which the first image is not output to the display in the step of outputting the second image .
第1ユーザが装着する装着ディスプレイに画像を出力させる制御部を備え、仮想空間の画像を出力させるアプリケーション制御システムであって、
前記制御部が、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに、複数の種類に分類され且つ前記第1ユーザが配置すべき位置に配置するオブジェクトを含み、複数の前記オブジェクトを組み合わせたパターンを形成可能な前記仮想空間の第1画像を出力させるステップと、
第2ユーザが用いるディスプレイに、前記オブジェクトを含む仮想空間を前記第1画像の視野角よりも広い視野角で俯瞰した第2画像を出力させるとともに、前記オブジェクトの種類を選択するための表示領域を出力させるステップと、
前記表示領域に表示された前記オブジェクトの種類の中から所定の種類のオブジェクトを選択する前記第2ユーザの操作を受け付けるステップと、
選択された前記所定の種類のオブジェクトの配置位置を指定する前記第2ユーザの操作を受け付けるステップと、
前記装着ディスプレイに、前記第2ユーザが指定した前記配置位置及び選択された前記所定の種類のオブジェクトを識別可能に表示した前記仮想空間の画像を出力させるステップと、を行い、
前記第1画像を出力させるステップでは、前記第2画像を前記装着ディスプレイに出力させず、
前記第2画像を出力させるステップでは、前記第1画像を前記ディスプレイに出力させないアプリケーション制御システム。
It is an application control system that has a control unit that outputs an image to a wearable display worn by a first user and outputs an image of a virtual space.
The control unit
Depending on the posture of the first user, the mounted display may include objects classified into a plurality of types and arranged at positions to be arranged by the first user, and a pattern in which a plurality of the objects are combined can be formed. The step of outputting the first image of the virtual space and
The display used by the second user is made to output a second image in which the virtual space including the object is overlooked with a viewing angle wider than the viewing angle of the first image, and a display area for selecting the type of the object is provided. Steps to output and
A step of accepting an operation of the second user to select an object of a predetermined type from the types of the objects displayed in the display area, and
A step of accepting the operation of the second user to specify the placement position of the selected object of the predetermined type, and
A step of outputting the image of the virtual space in which the arrangement position designated by the second user and the selected object of the predetermined type are identifiablely displayed on the mounted display is performed.
In the step of outputting the first image, the second image is not output to the mounted display.
An application control system that does not output the first image to the display in the step of outputting the second image .
JP2018112847A 2018-06-13 2018-06-13 Application control program, application control method and application control system Active JP7017474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018112847A JP7017474B2 (en) 2018-06-13 2018-06-13 Application control program, application control method and application control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018112847A JP7017474B2 (en) 2018-06-13 2018-06-13 Application control program, application control method and application control system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017139711A Division JP6356878B2 (en) 2016-11-30 2017-07-19 Application control program, application control method, and application control system

Publications (2)

Publication Number Publication Date
JP2018185824A JP2018185824A (en) 2018-11-22
JP7017474B2 true JP7017474B2 (en) 2022-02-08

Family

ID=64356119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112847A Active JP7017474B2 (en) 2018-06-13 2018-06-13 Application control program, application control method and application control system

Country Status (1)

Country Link
JP (1) JP7017474B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102218088B1 (en) * 2019-01-22 2021-02-19 (주)스코넥엔터테인먼트 Virtual Reality Control System
CN114111718B (en) * 2021-11-23 2023-09-19 中国航空工业集团公司洛阳电光设备研究所 Head display visual axis level detection method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016158795A (en) 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント Display control program, display control apparatus, and display control method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120086630A1 (en) * 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
JP6214027B2 (en) * 2013-03-28 2017-10-18 株式会社コナミデジタルエンタテインメント GAME SYSTEM, GAME DEVICE, AND PROGRAM
JP2015095147A (en) * 2013-11-13 2015-05-18 ソニー株式会社 Display control device, display control method, and program
JP6368965B2 (en) * 2014-07-11 2018-08-08 株式会社コナミデジタルエンタテインメント GAME SYSTEM, GAME CONTROL DEVICE, AND PROGRAM
KR101828286B1 (en) * 2014-10-27 2018-02-13 허철구 Advising system for contesting games and method thereof
JP2016127981A (en) * 2016-02-25 2016-07-14 株式会社コロプラ System, program, and method for performing screen operation by interlocking display and plural controllers connected through network

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016158795A (en) 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント Display control program, display control apparatus, and display control method

Also Published As

Publication number Publication date
JP2018185824A (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP6181842B1 (en) Application control program, application control method, and application control system
US11893697B2 (en) Application control program, application control method, and application control system
EP2394710A2 (en) Image generation system, image generation method, and information storage medium
KR20190001348A (en) Virtual reality·argumented reality complex arcade game system
JP7017474B2 (en) Application control program, application control method and application control system
JP7462192B2 (en) Application control program, application control method and application control system
JP6479933B1 (en) Program, information processing apparatus, and method
WO2020255991A1 (en) Game program, game method, and information terminal device
JP6611383B2 (en) Application control program, application control method, and application control system
JP6600051B2 (en) Application control program, application control method, and application control system
JP6832320B2 (en) Systems, methods, and programs for providing content using augmented reality technology
JP6905022B2 (en) Application control program, application control method and application control system
JP6389305B1 (en) Information processing method, computer, and program
JP6356878B2 (en) Application control program, application control method, and application control system
JP6826626B2 (en) Viewing program, viewing method, and viewing terminal
JP2022090964A (en) Game program, game processing method, and game device
JP7073228B2 (en) Information processing methods, computers, and programs
WO2024166715A1 (en) Information processing system, and program
JP7282731B2 (en) Program, method and terminal
WO2022124135A1 (en) Game program, game processing method, and game device
JP7299197B2 (en) DELIVERY PROGRAM, DELIVERY METHOD, AND COMPUTER
JP7440401B2 (en) Game program, game method, and information terminal device
JP7377790B2 (en) Game program, game method, and information terminal device
EP4400943A1 (en) Touchless control method, system, computer program and computer-readable medium for controlling an avatar
JP2024110135A (en) Information processing system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200902

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200902

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200911

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200915

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20201120

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20201201

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210511

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210629

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210917

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20211005

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20211201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211214

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220125

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220127

R150 Certificate of patent or registration of utility model

Ref document number: 7017474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150