JP6600051B2 - Application control program, application control method, and application control system - Google Patents

Application control program, application control method, and application control system Download PDF

Info

Publication number
JP6600051B2
JP6600051B2 JP2018112846A JP2018112846A JP6600051B2 JP 6600051 B2 JP6600051 B2 JP 6600051B2 JP 2018112846 A JP2018112846 A JP 2018112846A JP 2018112846 A JP2018112846 A JP 2018112846A JP 6600051 B2 JP6600051 B2 JP 6600051B2
Authority
JP
Japan
Prior art keywords
user
virtual space
display
image
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018112846A
Other languages
Japanese (ja)
Other versions
JP2018183600A (en
Inventor
匡志 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2018112846A priority Critical patent/JP6600051B2/en
Publication of JP2018183600A publication Critical patent/JP2018183600A/en
Priority to JP2019182013A priority patent/JP6905022B2/en
Application granted granted Critical
Publication of JP6600051B2 publication Critical patent/JP6600051B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数のユーザに仮想空間を共有させるためのアプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムに関する。   The present invention relates to an application control program, an application control method, and an application control system for allowing a plurality of users to share a virtual space.

ユーザの頭部に装着された装着ディスプレイ(以下、HMD:ヘッドマウントディスプレイ)に、仮想空間の画像を表示してプレイするバーチャルリアリティゲームが知られている。HMDは、例えばジャイロセンサ等のトラッキングセンサを備えており、ユーザの頭部の動きを検知できる。ユーザが頭部を動かすと、HMDは頭部の動きに追従してディスプレイに表示する画像を変化させる。このように、ゲーム画像が頭部の動きに追従することで、ユーザは一層ゲームに意識を集中させることができる。つまり、ゲームへの没入感を高めることができる。   A virtual reality game is known in which an image of a virtual space is displayed and played on a mounting display (hereinafter referred to as HMD: head mounted display) mounted on a user's head. The HMD includes a tracking sensor such as a gyro sensor, and can detect the movement of the user's head. When the user moves the head, the HMD changes the image displayed on the display following the movement of the head. As described above, the game image follows the movement of the head, so that the user can concentrate more on the game. That is, it is possible to increase the sense of immersion in the game.

また、このようなバーチャルリアリティゲームの一つとして、複数のユーザでプレイするゲームも提案されている。特許文献1には、複数のユーザがそれぞれHMDを装着してプレイするゲームが記載されている。このゲームでは、HMDを装着した各ユーザの位置情報を仮想空間のアバターの位置情報に反映させて、仮想空間内に各ユーザのアバターを描画する。   As one of such virtual reality games, a game played by a plurality of users has also been proposed. Patent Document 1 describes a game in which a plurality of users each play with an HMD. In this game, the position information of each user wearing the HMD is reflected in the position information of the avatar in the virtual space, and the avatar of each user is drawn in the virtual space.

特開2014−17776号公報JP 2014-177776 A

一方、複数のユーザがバーチャルリアリティゲームをプレイしようとしたとき、プレイする人数と同数のHMDを常に準備できるとは限らない。また、ユーザの中には、HMDを装着することに抵抗のあるユーザが存在する可能性もある。このように多様な状況が想定されるが、HMDを装着しないユーザとHMDを装着したユーザとの両方が参加することができ、しかもHMDを装着しないユーザのアプリケーションへの寄与度を高めたゲームは見当たらない。   On the other hand, when a plurality of users try to play a virtual reality game, it is not always possible to prepare the same number of HMDs as the number of players to play. In addition, some users may be resistant to wearing the HMD. In this way, a variety of situations are assumed, but both a user who does not wear the HMD and a user who wears the HMD can participate, and a game that increases the degree of contribution to the application of the user who does not wear the HMD is I can't find it.

本発明は、上記実情を鑑みてなされたものであり、その目的は、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることのできるアプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an application control program, an application control method, and an application control system that can be played simultaneously by a user wearing a wearing display and a user not wearing the wearing display. There is to do.

上記課題を解決するアプリケーション制御プログラムは、第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるアプリケーション制御プログラムである。   An application control program that solves the above problem is an application control program that outputs an image of a virtual space on a mounting display worn by a first user and a display used by a second user.

上記アプリケーション制御プログラムは、前記制御部に、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、前記第2ユーザの操作に基づき当該第2ユーザが視認する範囲を特定する。   The application control program causes the control unit to output an image of the virtual space to the wearing display according to the posture of the first user, and the second user visually recognizes based on an operation of the second user. Specify the range.

さらに、前記制御部に、前記第2ユーザが用いるディスプレイに前記特定した範囲の仮想空間の画像を出力させるステップと、前記装着ディスプレイに、前記特定した範囲を識別可能に表示させるステップと、を実行させる。   And causing the control unit to output an image of the specified range of virtual space on the display used by the second user, and causing the wearing display to display the specified range in an identifiable manner. Let

これによれば、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。   According to this, the user wearing the wearing display and the user not wearing can play simultaneously.

上記アプリケーション制御プログラムについて、前記特定した範囲を識別可能に表示するステップは、前記特定した範囲に含まれる画像の明度、彩度及び色相のうち少なくとも一つを、前記特定した範囲以外の画像と異ならせて表示することが好ましい。   In the application control program, the step of displaying the specified range in an identifiable manner is such that at least one of brightness, saturation, and hue of an image included in the specified range is different from an image outside the specified range. It is preferable to display it.

上記アプリケーション制御プログラムについて、前記仮想空間にはオブジェクトが含まれ、当該オブジェクトが前記特定した範囲と前記装着ディスプレイに表示された範囲との重複部分に含まれる場合には、当該オブジェクトの表示態様が変化することが好ましい。   Regarding the application control program, when the virtual space includes an object and the object is included in an overlapping portion between the specified range and the range displayed on the wearing display, the display mode of the object changes. It is preferable to do.

上記アプリケーション制御プログラムについて、前記仮想空間にはオブジェクトが含まれ、前記オブジェクトが前記特定した範囲と前記装着ディスプレイに表示された範囲との重複部分に含まれる場合には、当該オブジェクトについて前記第1ユーザによるアクションを有効とすることが好ましい。   Regarding the application control program, when the virtual space includes an object, and the object is included in an overlapping portion of the specified range and the range displayed on the wearing display, the first user for the object is included. It is preferable to enable the action according to.

上記アプリケーション制御プログラムについて、前記装着ディスプレイにおいて出力される前記仮想空間の画像の水平方向の視野角よりも、前記特定した範囲の水平方向の視野角を小さくすることが好ましい。   In the application control program, it is preferable that a horizontal viewing angle in the specified range is made smaller than a horizontal viewing angle of the image in the virtual space output from the mounted display.

上記課題を解決するアプリケーション制御方法は、第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるアプリケーション制御方法であって、1又は複数のコンピュータが、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、前記第2ユーザの操作に基づき当該第2ユーザが視認する範囲を特定し、前記第2ユーザが用いるディスプレイに前記特定した範囲の仮想空間の画像を出力させるステップと、前記装着ディスプレイに、前記特定した範囲を識別可能に表示するステップと、を行なう。   An application control method for solving the above-described problem is an application control method for outputting an image of a virtual space on a mounting display worn by a first user and a display used by a second user. A step of outputting an image of the virtual space on the mounted display according to the posture of one user, a range that the second user visually recognizes based on an operation of the second user, and a display used by the second user And outputting an image of the specified range of the virtual space, and displaying the specified range in an identifiable manner on the wearing display.

これによれば、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。   According to this, the user wearing the wearing display and the user not wearing can play simultaneously.

上記課題を解決するアプリケーション制御システムは、第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力させる制御部とを備え、仮想空間の画像を出力させるアプリケーションシステムであって、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、前記第2ユーザの操作に基づき当該第2ユーザが視認する範囲を特定し、前記第2ユーザが用いるディスプレイに前記特定した範囲の仮想空間の画像を出力させるステップと、前記装着ディスプレイに、前記特定した範囲を識別可能に表示するステップと、を行なう。   An application control system that solves the above problem is an application system that includes a mounting display worn by a first user and a control unit that outputs an image to a display used by a second user, and that outputs an image of a virtual space, The control unit specifies a range that the second user visually recognizes based on the operation of the second user, and a step of outputting an image of the virtual space on the display according to the posture of the first user, The step of outputting the image of the specified range of the virtual space on the display used by the second user, and the step of displaying the specified range on the wearing display in an identifiable manner are performed.

これによれば、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。   According to this, the user wearing the wearing display and the user not wearing can play simultaneously.

本発明によれば、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。   According to the present invention, a user wearing a wearing display and a user not wearing can play simultaneously.

第1実施形態のアプリケーション制御システムを俯瞰した概念図。The conceptual diagram which looked down at the application control system of 1st Embodiment. 同実施形態のアプリケーション制御システムを機能的に示すブロック図。The block diagram which shows the application control system of the embodiment functionally. 同実施形態における仮想空間とユーザに視認される画像とを説明する概念図。The conceptual diagram explaining the virtual space and the image visually recognized by the user in the embodiment. 同実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。Explanatory drawing of the 2nd virtual space image output to the touchscreen display of the embodiment. 同実施形態のタッチパネルディスプレイに出力される俯瞰画像の説明図。Explanatory drawing of the bird's-eye view image output to the touchscreen display of the embodiment. 同実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。Explanatory drawing of the 2nd virtual space image output to the touchscreen display of the embodiment. 同実施形態の装着ディスプレイに出力される第1仮想空間画像の説明図。Explanatory drawing of the 1st virtual space image output to the mounting display of the embodiment. 同実施形態の装着ディスプレイに出力される第1仮想空間画像の説明図。Explanatory drawing of the 1st virtual space image output to the mounting display of the embodiment. 同実施形態における装着ディスプレイに画像を出力する処理手順の説明図。Explanatory drawing of the process sequence which outputs an image to the mounting | wearing display in the embodiment. 同実施形態における移動オブジェクトを停止させる処理手順の説明図。Explanatory drawing of the process sequence which stops the moving object in the embodiment. 第2実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。Explanatory drawing of the 2nd virtual space image output to the touchscreen display of 2nd Embodiment. 第3実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。Explanatory drawing of the 2nd virtual space image output to the touchscreen display of 3rd Embodiment. 第4実施形態の装着ディスプレイに出力される第1仮想空間画像の説明図。Explanatory drawing of the 1st virtual space image output to the mounting display of 4th Embodiment. 変形例のタッチパネルディスプレイに出力される第1仮想空間画像の説明図。Explanatory drawing of the 1st virtual space image output to the touchscreen display of a modification. 変形例のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。Explanatory drawing of the 2nd virtual space image output to the touchscreen display of a modification. 変形例の装着ディスプレイに出力される仮想空間画像であって(a)は装着ディスプレイに出力される画像、(b)はタッチパネルディスプレイに出力される画像の説明図。It is a virtual space image output to the mounting display of a modification, (a) is an image output to a mounting display, (b) is explanatory drawing of the image output to a touchscreen display.

(第1実施形態)
以下、アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムの一実施形態を図1〜図10に従って説明する。本実施形態では、複数のユーザの間で仮想空間を共有するアプリケーションとして、ゲームアプリケーションを提供する場合を想定する。
(First embodiment)
Hereinafter, an embodiment of an application control program, an application control method, and an application control system will be described with reference to FIGS. In the present embodiment, it is assumed that a game application is provided as an application that shares a virtual space among a plurality of users.

図1に示すように、アプリケーション制御システムは、装着ディスプレイとしてのヘッドマウントディスプレイ(以下、HMD)11、操作部(コントローラ)14、メインディスプレイ12、タッチパネルディスプレイ13を有する。HMD11は、第1ユーザ101の頭部に装着される。HMD11には仮想空間の画像が表示される。第1ユーザ101は、仮想空間内を移動するオブジェクト(以下、移動オブジェクト)を探し、見つけた移動オブジェクトに対して、操作部14を操作することによってアクション(第2のアクション)を行なう。本実施形態では、第1ユーザ101は、「ゴースト」等の移動オブジェクトを探し、操作部14をオン操作することによって、この移動オブジェクトを狙撃する。   As shown in FIG. 1, the application control system includes a head mounted display (hereinafter, HMD) 11, an operation unit (controller) 14, a main display 12, and a touch panel display 13 as wearing displays. The HMD 11 is attached to the head of the first user 101. An image of the virtual space is displayed on the HMD 11. The first user 101 searches for an object moving in the virtual space (hereinafter referred to as a moving object), and performs an action (second action) on the found moving object by operating the operation unit 14. In the present embodiment, the first user 101 searches for a moving object such as “ghost” and snips the moving object by turning on the operation unit 14.

メインディスプレイ12、及びタッチパネルディスプレイ13に出力された画像は、第2ユーザ102によって視認される。第2ユーザ102は、メインディスプレイ12及びタッチパネルディスプレイ13に出力された画像を視認しながら、タッチパネルディスプレイ13を操作して、第1ユーザ101を支援する。なお、第2ユーザ102は、肉声、又はマイクを通じて入力した音声によって、第1ユーザ101に移動オブジェクトの位置を教えることができるようにしてもよい。   The images output to the main display 12 and the touch panel display 13 are visually recognized by the second user 102. The second user 102 supports the first user 101 by operating the touch panel display 13 while visually recognizing images output to the main display 12 and the touch panel display 13. Note that the second user 102 may be able to teach the position of the moving object to the first user 101 by a voice or a voice input through a microphone.

図2を参照して、アプリケーション制御システム10の概略構成について説明する。アプリケーション制御システム10は、HMD11、操作部14、メインディスプレイ12、タッチパネルディスプレイ13の他、これらと接続された制御装置15を備える。   A schematic configuration of the application control system 10 will be described with reference to FIG. The application control system 10 includes a HMD 11, an operation unit 14, a main display 12, a touch panel display 13, and a control device 15 connected thereto.

HMD11は、HMD制御部30、トラッキングセンサ31及び表示部32を有する。HMD制御部30は、トラッキングセンサ31の検出結果に応じた信号を制御装置15に出力するとともに、制御装置15から画像信号等の各種信号を入力する。トラッキングセンサ31は、第1ユーザ101の注目点を特定するためのセンサであって、第1ユーザ101の頭部の位置及び向き等を検出する。トラッキングセンサ31は、例えばジャイロセンサ、加速度センサ、地磁気センサ等のうち少なくとも1つのセンサを有する。なお、別の実施形態として、第1ユーザ101の眼球の動きを直接的に検出するもの、例えば、虹彩内に近赤外線を入射しその反射光を検出する視線検出センサ等がトラッキングセンサ31として用いられてもよい。HMD11の表示部32には、仮想空間のうち第1ユーザ101の注目点を中心とした所定範囲の画像が表示される。すなわち、所定範囲の画像が第1ユーザ101に視認可能に表示される。なお、HMD11の表示部32に出力される仮想空間の画像を、以下、「第1仮想空間画像」という。   The HMD 11 includes an HMD control unit 30, a tracking sensor 31, and a display unit 32. The HMD control unit 30 outputs a signal corresponding to the detection result of the tracking sensor 31 to the control device 15 and inputs various signals such as an image signal from the control device 15. The tracking sensor 31 is a sensor for specifying a point of interest of the first user 101 and detects the position and orientation of the head of the first user 101. The tracking sensor 31 includes, for example, at least one sensor among a gyro sensor, an acceleration sensor, a geomagnetic sensor, and the like. As another embodiment, the tracking sensor 31 is a sensor that directly detects the movement of the eyeball of the first user 101, for example, a line-of-sight detection sensor that detects near-infrared rays in the iris and detects the reflected light. May be. The display unit 32 of the HMD 11 displays an image in a predetermined range centered on the point of interest of the first user 101 in the virtual space. That is, an image within a predetermined range is displayed so as to be visible to the first user 101. The virtual space image output to the display unit 32 of the HMD 11 is hereinafter referred to as a “first virtual space image”.

操作部14は、例えば操作ボタンや操作レバーを備えるものであって、第1ユーザ101が目視せずに操作が可能な構成となっている。操作部14は、加速度センサ等を有しており、初期位置からの方向の変化及びその変化量等を検出することができる。操作部14は、第2ユーザ102による操作のオン/オフを示す信号、及び操作部14の方向の変化量等を制御装置15に出力する。   The operation unit 14 includes, for example, an operation button and an operation lever, and is configured to be operated by the first user 101 without viewing. The operation unit 14 includes an acceleration sensor and the like, and can detect a change in direction from the initial position, a change amount thereof, and the like. The operation unit 14 outputs a signal indicating on / off of the operation by the second user 102, a change amount of the direction of the operation unit 14, and the like to the control device 15.

メインディスプレイ12は、第2ユーザ102が視認可能なディスプレイである。メインディスプレイ12には、HMD11の表示部32と同期させて、第1仮想空間画像が表示される。   The main display 12 is a display that can be viewed by the second user 102. The first virtual space image is displayed on the main display 12 in synchronization with the display unit 32 of the HMD 11.

タッチパネルディスプレイ13は、筐体に設けられたタッチパネルディスプレイでもよいし、タブレットやスマートフォン等の携帯情報端末であってもよい。タッチパネルディスプレイ13には、仮想空間内の一部を投影した画像(以下、第2仮想空間画像と呼ぶ)が出力される。本実施形態では、第2仮想空間画像として、第1ユーザ101の鉛直方向上方の位置に設定した視点から仮想空間内を見た画像を用いる。ゲームが開始されたときにタッチパネルディスプレイ13に表示される第2仮想空間画像の初期画面は、HMD11の表示部32に表示される第1仮想空間画像へ投影される仮想空間の位置と同じである。初期画面における第2仮想空間画像の視点位置は、初期画面における第1仮想空間画像の視点位置と同じでもよいし、異なっていてもよい。仮想空間を第2仮想空間画像へ投影する位置は、第2ユーザ102のスワイプ操作等の所定のタッチ操作に応じて変更及び指定される。例えば、第2ユーザ102のスワイプ操作により、仮想空間の投影範囲が変更されて第2仮想空間画像が変化し、スワイプ操作が停止されることによって、仮想空間の投影範囲の変更が停止されて、第2仮想空間画像の表示範囲が指定される。なお、「タッチ操作」は、例えば、タップ操作、スワイプ操作、フリック操作、ピンチイン操作、ピンチアウト操作、タッチアンドホールド操作等を含む。さらに、タッチパネルディスプレイ13は、第2ユーザ102のタッチ操作に応じた信号を制御装置15に出力する。例えば、タッチパネルディスプレイ13は、スワイプ操作の軌跡に応じた信号、接触位置に応じた信号等を出力する。   The touch panel display 13 may be a touch panel display provided in a housing, or may be a portable information terminal such as a tablet or a smartphone. The touch panel display 13 outputs an image obtained by projecting a part of the virtual space (hereinafter referred to as a second virtual space image). In the present embodiment, as the second virtual space image, an image obtained by looking inside the virtual space from the viewpoint set at a position above the first user 101 in the vertical direction is used. The initial screen of the second virtual space image displayed on the touch panel display 13 when the game is started is the same as the position of the virtual space projected on the first virtual space image displayed on the display unit 32 of the HMD 11. . The viewpoint position of the second virtual space image on the initial screen may be the same as or different from the viewpoint position of the first virtual space image on the initial screen. The position where the virtual space is projected onto the second virtual space image is changed and specified according to a predetermined touch operation such as a swipe operation of the second user 102. For example, the projection range of the virtual space is changed by the swipe operation of the second user 102, the second virtual space image is changed, and the change of the projection range of the virtual space is stopped by stopping the swipe operation. A display range of the second virtual space image is designated. The “touch operation” includes, for example, a tap operation, a swipe operation, a flick operation, a pinch-in operation, a pinch-out operation, a touch-and-hold operation, and the like. Furthermore, the touch panel display 13 outputs a signal corresponding to the touch operation of the second user 102 to the control device 15. For example, the touch panel display 13 outputs a signal corresponding to the swipe operation locus, a signal corresponding to the contact position, and the like.

HMD11の表示部32に出力される第1仮想空間画像と、タッチパネルディスプレイ13に出力される第2仮想空間画像は、同じ仮想空間内の画像であるが、前者が第1ユーザ101の体勢に応じて仮想空間の表示範囲を変更しているのに対し、後者が第2ユーザ102のタッチ操作に応じて仮想空間の表示範囲を変更している点で異なる。また、タッチパネルディスプレイ13には、仮想空間を所定位置から俯瞰した俯瞰画像が表示される。   The first virtual space image output to the display unit 32 of the HMD 11 and the second virtual space image output to the touch panel display 13 are images in the same virtual space, but the former depends on the posture of the first user 101. The difference is that the display range of the virtual space is changed while the latter changes the display range of the virtual space according to the touch operation of the second user 102. The touch panel display 13 displays a bird's-eye view image of the virtual space seen from a predetermined position.

制御装置15は、HMD11、操作部14及びタッチパネルディスプレイ13から出力された信号を取得して、第1ユーザ101と第2ユーザ102とによる仮想空間内のゲーム進行を管理する。   The control device 15 acquires signals output from the HMD 11, the operation unit 14, and the touch panel display 13, and manages the game progress in the virtual space by the first user 101 and the second user 102.

制御装置15は、制御部16、記憶部17及び画像情報記憶部25を備える。制御部16は、演算部、揮発性記憶部、及び不揮発性記憶部を有し、不揮発性記憶部に記録されたアプリケーション制御プログラムに従ってゲームを実行する。記憶部17は、画像処理用の記憶部であって、揮発性記憶部でもよく、不揮発性記憶部であってもよい。この記憶部17には、ゲーム管理情報18、注目点情報19、指定表示範囲情報20、オブジェクト位置情報21及び接触位置情報22が記録されている。   The control device 15 includes a control unit 16, a storage unit 17, and an image information storage unit 25. The control unit 16 includes a calculation unit, a volatile storage unit, and a nonvolatile storage unit, and executes a game according to an application control program recorded in the nonvolatile storage unit. The storage unit 17 is a storage unit for image processing, and may be a volatile storage unit or a non-volatile storage unit. In the storage unit 17, game management information 18, attention point information 19, designated display range information 20, object position information 21, and contact position information 22 are recorded.

ゲーム管理情報18は、ユーザID、ゲームの進行状況等を含む情報であって、ゲームの進行に伴って更新される。注目点情報19は、トラッキングセンサ31によって検出された第1ユーザ101の頭部の位置及び向きの情報、又は頭部の位置及び向きから特定された注目点の位置を示す情報である。注目点情報19は、第1ユーザ101の頭部の位置及び向きに伴って更新される。指定表示範囲情報20は、第2ユーザ102がタッチ操作によってタッチパネルディスプレイ13に表示させた範囲を示す情報であって、第2ユーザ102のタッチ操作に伴って更新される。オブジェクト位置情報21は、仮想空間内を移動する移動オブジェクトの位置を示す情報である。制御部16は、アプリケーション制御プログラムに従って移動オブジェクトの各々をランダムに移動させる。オブジェクト位置情報21は、移動オブジェクトの位置の変化に伴って更新される。移動オブジェクトの位置は、HMD11及びメインディスプレイ12に出力される第1仮想空間画像と、タッチパネルディスプレイ13に出力される第2仮想空間画像との間で同期している。さらに、接触位置情報22には、タッチパネルディスプレイ13の画面上での接触位置を示し、第2ユーザ102のタッチ操作が行なわれる度に更新される。また、画像情報記憶部25には、仮想空間の画像を描画するための情報が記録されている。   The game management information 18 is information including the user ID, the progress of the game, and the like, and is updated as the game progresses. The attention point information 19 is information indicating the position and orientation information of the head of the first user 101 detected by the tracking sensor 31, or information indicating the position of the attention point identified from the position and orientation of the head. The attention point information 19 is updated with the position and orientation of the head of the first user 101. The designated display range information 20 is information indicating a range displayed on the touch panel display 13 by the second user 102 by a touch operation, and is updated with the touch operation of the second user 102. The object position information 21 is information indicating the position of a moving object that moves in the virtual space. The control unit 16 randomly moves each moving object according to the application control program. The object position information 21 is updated with a change in the position of the moving object. The position of the moving object is synchronized between the first virtual space image output to the HMD 11 and the main display 12 and the second virtual space image output to the touch panel display 13. Furthermore, the contact position information 22 indicates a contact position on the screen of the touch panel display 13 and is updated each time the second user 102 performs a touch operation. The image information storage unit 25 stores information for drawing an image of the virtual space.

制御部16は、HMD11から入力した信号に基づく注目点情報19を記憶部17に記録する。また、制御部16は、タッチパネルディスプレイ13から入力した指定表示範囲に応じた信号を、指定表示範囲情報20として記憶部17に記録する。   The control unit 16 records attention point information 19 based on the signal input from the HMD 11 in the storage unit 17. Further, the control unit 16 records a signal corresponding to the designated display range input from the touch panel display 13 in the storage unit 17 as the designated display range information 20.

制御部16は、画像情報記憶部25に記録された画像情報のうち、注目点情報19に基づく注目点を中心とした所定範囲の画像情報を取得し、第1仮想空間画像としてHMD11及びメインディスプレイ12に出力する。また、制御部16は、第2ユーザ102のタッチ操作によって指定された指定表示範囲を指定表示範囲情報20として記憶部17に記録する。さらに、制御部16は、指定表示範囲情報20に基づき画像情報を画像情報記憶部25から取得して、第2仮想空間画像としてタッチパネルディスプレイ13に出力する。また、制御部16は、仮想空間の一部又は全体を俯瞰した俯瞰画像をタッチパネルディスプレイ13に出力する。   The control unit 16 acquires image information in a predetermined range centered on the point of interest based on the point of interest information 19 among the image information recorded in the image information storage unit 25, and the HMD 11 and the main display as the first virtual space image. 12 is output. Further, the control unit 16 records the designated display range designated by the touch operation of the second user 102 in the storage unit 17 as the designated display range information 20. Further, the control unit 16 acquires image information from the image information storage unit 25 based on the designated display range information 20 and outputs it to the touch panel display 13 as a second virtual space image. Further, the control unit 16 outputs a bird's-eye view image obtained by bird's-eye view of part or the whole of the virtual space to the touch panel display 13.

図3を参照して、仮想空間及びHMD11及びメインディスプレイ12に出力される第1仮想空間画像について説明する。HMD制御部30は、第1ユーザ101の頭部の位置及び向きを特定する。例えば、頭部の位置及び向きは、初期位置を基準として、水平方向に沿ったX軸及びX軸を中心とした回転方向を示すピッチθp、鉛直方向に沿ったY軸及びY軸を中心とした回転方向を示すヨーθy、奥行方向に沿ったZ軸及びZ軸を中心とした回転方向を示すロールθrの3軸方向の位置及び各軸回りの角度として算出される。HMD制御部30は、3軸方向の位置及び各軸回りの角度を注目点情報19として制御部16に出力する。   With reference to FIG. 3, the virtual space and the first virtual space image output to the HMD 11 and the main display 12 will be described. The HMD control unit 30 specifies the position and orientation of the head of the first user 101. For example, the position and orientation of the head are centered on the Y axis and the Y axis along the vertical direction, the pitch θp indicating the rotation direction around the X axis and the X axis along the horizontal direction, with the initial position as a reference. The yaw θy indicating the rotation direction, the Z axis along the depth direction, and the roll θr indicating the rotation direction around the Z axis and the angle around each axis are calculated. The HMD control unit 30 outputs the position in the three axis directions and the angle around each axis to the control unit 16 as attention point information 19.

制御部16は、注目点情報19に基づき仮想空間110内での注目点114又は視線方向Dを特定する。注目点又は視線方向の特定の方法は、トラッキングセンサ31の種類等に応じた公知の方法を用いることができる。例えば、制御部16は、左目位置と右目位置とを結ぶ直線を仮想的に設定し、当該直線に直交する方向に延び、且つ左目位置と右目位置の中点を通る方向を視線方向Dとする。さらに、制御部16は、視線方向Dとオブジェクト(又は背景)との交点を注目点114として特定することが可能である。なお、トラッキングセンサとして、眼球の動きを検出するものや虹彩内からの反射光を検出するものを用いる場合には、眼球の動きや反射光に基づき視線方向を特定してもよい。   The control unit 16 specifies the attention point 114 or the line-of-sight direction D in the virtual space 110 based on the attention point information 19. As a method for specifying the attention point or the line-of-sight direction, a known method according to the type of the tracking sensor 31 or the like can be used. For example, the control unit 16 virtually sets a straight line connecting the left eye position and the right eye position, extends in a direction orthogonal to the straight line, and passes through the middle point of the left eye position and the right eye position as the line-of-sight direction D. . Furthermore, the control unit 16 can specify the intersection point between the line-of-sight direction D and the object (or background) as the attention point 114. When a tracking sensor that detects the movement of the eyeball or a sensor that detects reflected light from within the iris is used, the line-of-sight direction may be specified based on the movement of the eyeball or the reflected light.

制御部16は、注目点114や視線方向Dに基づく範囲である注目範囲111の画像情報を画像情報記憶部25から取得し、HMD11の表示部32に第1仮想空間画像として出力する。例えば、注目範囲111は、第1ユーザ101の視点の位置から注目点114に向かう方向を視線方向Dとしたとき、視線方向Dを中心としとする水平方向の水平視野角α、及び垂直方向の角度である垂直視野角(図示略)等で特定される範囲である。水平視野角α及び垂直視野角は、第1ユーザ101の物理的な視野角ではなく、仮想空間110の画像を生成するレンダリングの角度である。また、制御部16は、取得した画像情報に応じた画像をメインディスプレイ12にも出力する。   The control unit 16 acquires image information of the attention range 111 that is a range based on the attention point 114 and the line-of-sight direction D from the image information storage unit 25 and outputs the image information to the display unit 32 of the HMD 11 as a first virtual space image. For example, the attention range 111 is the horizontal viewing angle α in the horizontal direction centered on the viewing direction D and the vertical direction when the direction from the viewpoint position of the first user 101 toward the attention point 114 is the viewing direction D. This is a range specified by an angle such as a vertical viewing angle (not shown). The horizontal viewing angle α and the vertical viewing angle are not physical viewing angles of the first user 101, but are rendering angles for generating an image of the virtual space 110. The control unit 16 also outputs an image corresponding to the acquired image information to the main display 12.

HMD11に表示された第1仮想空間画像及びメインディスプレイに表示された第1仮想空間画像には、画像に対する所定のアクションがなされていない場合、仮想空間全体が初期状態で表示されている。例えば、初期状態は、「暗闇」の状態、すなわち画像の明度及び彩度の低い状態である。この初期状態の第1仮想空間画像では、仮想空間内を移動する移動オブジェクト115が非表示状態で表示されている。非表示状態とは、移動オブジェクトが全く表示されないか、又は視認しにくい不明瞭な状態である。不明瞭な表示状態の例としては、移動オブジェクト115の一部のみが表示され全体が表示されない状態、又は移動オブジェクト115の明度、彩度及び色相の少なくとも一つを背景に近付けて見えにくくした状態である。また、例えば、仮想空間内で、第2ユーザ102は、ドローン又はアバター等のキャラクタ116として表示される。本実施形態では、キャラクタ116の位置は、第1ユーザ101の鉛直方向上方の位置を維持する。   In the first virtual space image displayed on the HMD 11 and the first virtual space image displayed on the main display, when a predetermined action is not performed on the image, the entire virtual space is displayed in an initial state. For example, the initial state is a state of “darkness”, that is, a state where the brightness and saturation of the image are low. In the initial first virtual space image, the moving object 115 moving in the virtual space is displayed in a non-display state. The non-display state is an unclear state in which a moving object is not displayed at all or is difficult to view. Examples of the unclear display state include a state where only a part of the moving object 115 is displayed and the whole is not displayed, or a state in which at least one of the lightness, saturation and hue of the moving object 115 is brought close to the background to make it difficult to see. It is. Further, for example, in the virtual space, the second user 102 is displayed as a character 116 such as a drone or an avatar. In the present embodiment, the position of the character 116 maintains the position above the first user 101 in the vertical direction.

また、タッチパネルディスプレイ13で第2ユーザ102のタッチ操作によって表示範囲が指定されると、制御部16は、タッチパネルディスプレイ13から指定された表示範囲を取得して、指定表示範囲情報20として記憶部17に記録する。また、制御部16は、指定表示範囲情報20に応じた指定表示範囲112を、第1仮想空間画像の初期状態とは異なる表示態様で、第2仮想空間画像としてタッチパネルディスプレイ13に出力する。具体的には、このときの表示態様は、明度、彩度及び色相の少なくとも一つが初期状態とは異なる状態である変更状態であって、例えば、光が照射された状態、すなわち明度が初期状態よりも高く、彩度及び色相が初期状態とは異なる状態である。制御部16は、オブジェクト位置情報21に基づき、第2仮想空間画像に移動オブジェクトを視認可能に表示する。これにより、第2ユーザは、第2仮想空間画像上で移動オブジェクトを視認することができる。   When the display range is designated by the touch operation of the second user 102 on the touch panel display 13, the control unit 16 acquires the designated display range from the touch panel display 13 and stores the designated display range information 20 as the storage unit 17. To record. Further, the control unit 16 outputs the designated display range 112 corresponding to the designated display range information 20 to the touch panel display 13 as a second virtual space image in a display mode different from the initial state of the first virtual space image. Specifically, the display mode at this time is a changed state in which at least one of lightness, saturation, and hue is different from the initial state, for example, a state in which light is irradiated, that is, the lightness is in the initial state. The saturation and hue are different from the initial state. Based on the object position information 21, the control unit 16 displays the moving object in the second virtual space image so as to be visible. Thereby, the second user can visually recognize the moving object on the second virtual space image.

さらに、制御部16は、第1ユーザ101の注目範囲111、及び第2ユーザ102によって指定された指定表示範囲112の少なくとも一部が重複している場合には、第1仮想空間画像のうち、その重複部分を初期状態とは異なる変更状態で表示させる。具体的には、重複部分を、それ以外の部分よりも、明度、彩度及び色相の少なくとも一部が異なる状態で表示させる。なお、図3では、注目範囲111に、指定表示範囲112の全体が含まれた状態を示している。第1仮想空間画像では、光は、キャラクタ116自身又はキャラクタ116が有する光源から照射されたように表示される。   Furthermore, when at least a part of the attention range 111 of the first user 101 and the designated display range 112 designated by the second user 102 overlap, the control unit 16 includes the first virtual space image, The overlapping part is displayed in a changed state different from the initial state. Specifically, the overlapping portion is displayed in a state in which at least part of brightness, saturation, and hue is different from those of the other portions. FIG. 3 shows a state in which the entire designated display range 112 is included in the attention range 111. In the first virtual space image, the light is displayed as if it is emitted from the character 116 itself or the light source of the character 116.

制御部16は、第2ユーザ102によって指定された指定表示範囲112を仮想空間110内で指定して(第1のアクション)、第1仮想空間画像に第1のアクションを反映する。具体的には、制御部16は、第1仮想空間画像において、注目範囲と指定表示範囲112との重複部分(仮想空間における重複範囲)に含まれる移動オブジェクト115のみを表示状態(視認可能状態)とし、重複部分以外に存在する移動オブジェクト115を非表示状態(視認不可能状態)とする。このため、注目範囲111と指定表示範囲112とに重複があり、且つその重複部分に移動オブジェクト115が含まれる場合のみ、第1ユーザ101は、移動オブジェクト115を視認することができる。   The control unit 16 designates the designated display range 112 designated by the second user 102 in the virtual space 110 (first action), and reflects the first action in the first virtual space image. Specifically, the control unit 16 displays only the moving object 115 included in the overlapping portion (the overlapping range in the virtual space) of the attention range and the designated display range 112 in the first virtual space image (the visible state). The moving object 115 that exists in a region other than the overlapping portion is set to a non-display state (non-viewable state). For this reason, the first user 101 can visually recognize the moving object 115 only when the attention range 111 and the designated display range 112 are overlapped and the moving object 115 is included in the overlapping portion.

また、本実施形態では、第2ユーザ102によって指定される指定表示範囲112、換言すると第2仮想空間画像を生成するための仮想空間内の投影範囲の水平視野角βは、第1仮想空間を生成するための仮想空間内の投影範囲の水平視野角αよりも小さくなっている。つまり、第2仮想空間画像の水平視野角βが第1仮想空間画像の水平視野角α以上である場合には、第1ユーザ101は第1仮想空間画像に反映された指定表示範囲112を容易に見つけることができる。これに対し、第2仮想空間画像の水平視野角βが第1仮想空間画像の水平視野角αよりも小さいと、第1ユーザ101は第1仮想空間画像に反映された指定表示範囲112を見つけにくくなる。第1仮想空間画像の水平視野角αに対する第2仮想空間画像の水平視野角βの比率は、目標とするゲームバランスに応じて決定すればよい。本実施形態では、第2仮想空間画像の水平視野角βを第1仮想空間画像の水平視野角αよりも小さくすることによって、第2ユーザ102のゲームへの寄与度を高め、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させるようになっている。   In the present embodiment, the horizontal viewing angle β of the designated display range 112 designated by the second user 102, in other words, the projection range in the virtual space for generating the second virtual space image, is the first virtual space. It is smaller than the horizontal viewing angle α of the projection range in the virtual space for generation. That is, when the horizontal viewing angle β of the second virtual space image is greater than or equal to the horizontal viewing angle α of the first virtual space image, the first user 101 can easily display the designated display range 112 reflected in the first virtual space image. Can be found in On the other hand, when the horizontal viewing angle β of the second virtual space image is smaller than the horizontal viewing angle α of the first virtual space image, the first user 101 finds the designated display range 112 reflected in the first virtual space image. It becomes difficult. The ratio of the horizontal viewing angle β of the second virtual space image to the horizontal viewing angle α of the first virtual space image may be determined according to the target game balance. In the present embodiment, by making the horizontal viewing angle β of the second virtual space image smaller than the horizontal viewing angle α of the first virtual space image, the degree of contribution of the second user 102 to the game is increased, and the first user 101 The second user 102 cooperates to advance the game.

また、第2ユーザ102は、タッチパネルディスプレイ13上での所定のタッチ操作によって、接触位置の近傍の移動オブジェクト115の移動を停止させることができる。このとき、第2ユーザ102は、指と画面の任意の位置との接触を継続させるタッチアンドホールド操作を行なう。制御部16は、タッチアンドホールド操作が行なわれた場合、第1のアクションとして、接触位置から所定距離内の移動オブジェクトを特定し、特定した移動オブジェクト115の移動(動き)を停止させる。つまり、1つの接触位置に対して、一つの最寄りの移動オブジェクト115の移動を停止させる。例えば、5つの移動オブジェクト115が仮想空間110内に存在し、これらの動きを停止させたい場合には、5本の指を使ってタッチアンドホールド操作を行なう。   Further, the second user 102 can stop the movement of the moving object 115 in the vicinity of the contact position by a predetermined touch operation on the touch panel display 13. At this time, the second user 102 performs a touch-and-hold operation for continuing the contact between the finger and an arbitrary position on the screen. When a touch-and-hold operation is performed, the control unit 16 specifies a moving object within a predetermined distance from the contact position as a first action, and stops the movement (movement) of the specified moving object 115. That is, the movement of one nearest moving object 115 is stopped with respect to one contact position. For example, when there are five moving objects 115 in the virtual space 110 and it is desired to stop these movements, a touch-and-hold operation is performed using five fingers.

さらに、第1ユーザ101は、指定表示範囲112に含まれ視認可能となった移動オブジェクト115に対してのみ、第2のアクションを行なうことができる。本実施形態では、第2のアクションとして、移動オブジェクト115の狙撃を行なう。このとき、第2ユーザ102のタッチ操作によって移動オブジェクト115の移動が停止されていると、移動オブジェクト115に照準を合わせやすくなり、有効な第2のアクションを行なうことが容易となる。具体的には、制御部16は、操作部14のオン操作を検知した場合、操作部14の仮想位置117から、操作部14の方向に沿って光線118を第1仮想空間画像及び第2仮想空間画像に表示させる。そして、光線118の方向と移動オブジェクト115の位置とが合致している場合には、制御部16は、第2のアクションが有効に行なわれたと判定する。具体的には、移動オブジェクト115が狙撃されたと判定し、第1ユーザ101に得点等を付与する。一方、指定表示範囲112に含まれない移動オブジェクト115に対しては、制御部16は、アクション用の光線118を表示させない。又は、指定表示範囲112に含まれない移動オブジェクト115に向けてアクション用の光線118が出射されても無効と判定するようにしてもよい。制御部16は、アクション用の光線118を、HMD11の表示部32、メインディスプレイ12及びタッチパネルディスプレイ13に表示させる。   Furthermore, the first user 101 can perform the second action only on the moving object 115 included in the designated display range 112 and made visible. In the present embodiment, the moving object 115 is sniped as the second action. At this time, if the movement of the moving object 115 is stopped by the touch operation of the second user 102, it is easy to aim at the moving object 115 and it is easy to perform an effective second action. Specifically, when detecting the on operation of the operation unit 14, the control unit 16 transmits the light beam 118 from the virtual position 117 of the operation unit 14 along the direction of the operation unit 14 in the first virtual space image and the second virtual space. Display on a spatial image. If the direction of the light beam 118 matches the position of the moving object 115, the control unit 16 determines that the second action has been performed effectively. Specifically, it is determined that the moving object 115 has been shot, and a score or the like is given to the first user 101. On the other hand, the control unit 16 does not display the action light beam 118 for the moving object 115 not included in the designated display range 112. Alternatively, even if the action light beam 118 is emitted toward the moving object 115 not included in the designated display range 112, it may be determined to be invalid. The control unit 16 causes the action light beam 118 to be displayed on the display unit 32, the main display 12, and the touch panel display 13 of the HMD 11.

次に、図4〜図8を参照して、HMD11の表示部32、メインディスプレイ12、及びタッチパネルディスプレイ13に表示される画面について説明する。
図4に示すように、制御部16は、画像情報記憶部25に記録された仮想空間の画像情報を、指定表示範囲112に応じてレンダリングして第2仮想空間画像121を表示するための画像情報を生成し、生成した画像情報を第2仮想空間画像121用に明度、彩度及び色相を調整して、タッチパネルディスプレイ13に出力する。この第2仮想空間画像121は、第1仮想空間画像と同じ範囲を表示していたとしても、第1仮想空間画像の初期状態とは明度、彩度及び色相の少なくとも一部が異なっている。具体的には、制御部16は、第2仮想空間画像121の全体を、光が照射されたような明度が高い状態で表示させる。また、制御部16は、第2仮想空間画像121に、オブジェクト位置情報21に基づき移動する移動オブジェクト115を表示させる。但し、移動オブジェクト115はランダムに移動しているため、指定表示範囲112を変更しない場合には、最初に表示された移動オブジェクト115が画面外に移動する可能性がある。第2ユーザ102は、例えばスワイプ操作を行なって指定表示範囲112を変更して画面を遷移させ、第1ユーザ101に移動オブジェクト115の位置を知らせるために、移動オブジェクト115を探す。
Next, screens displayed on the display unit 32, the main display 12, and the touch panel display 13 of the HMD 11 will be described with reference to FIGS.
As shown in FIG. 4, the control unit 16 renders the virtual space image information recorded in the image information storage unit 25 according to the designated display range 112 and displays the second virtual space image 121. Information is generated, and brightness, saturation, and hue of the generated image information for the second virtual space image 121 are adjusted and output to the touch panel display 13. Even if the second virtual space image 121 displays the same range as the first virtual space image, at least a part of brightness, saturation, and hue is different from the initial state of the first virtual space image. Specifically, the control unit 16 displays the entire second virtual space image 121 in a state where the lightness is high as if it was irradiated with light. In addition, the control unit 16 causes the second virtual space image 121 to display the moving object 115 that moves based on the object position information 21. However, since the moving object 115 is moving randomly, if the designated display range 112 is not changed, the moving object 115 displayed first may move out of the screen. For example, the second user 102 performs a swipe operation to change the designated display range 112 to change the screen, and searches for the moving object 115 to notify the first user 101 of the position of the moving object 115.

図5に示すように、制御部16は、画像情報記憶部25に記録された俯瞰画像用の画像情報の取得、又は仮想空間の画像情報のレンダリングによって、俯瞰画像122をタッチパネルディスプレイ13に出力する。俯瞰画像122は、仮想空間全体を俯瞰した画像であって、例えば、キャラクタ116の位置を表示している。制御部16は、俯瞰画像122のうち、第2ユーザ102の指定した指定表示範囲112を、光が照射されたような変更状態で表示させ、その他の部分は暗闇のような初期状態で表示させる。また、制御部16は、俯瞰画像122に移動オブジェクト115を表示させる。   As illustrated in FIG. 5, the control unit 16 outputs the overhead image 122 to the touch panel display 13 by acquiring the image information for the overhead image recorded in the image information storage unit 25 or rendering the image information in the virtual space. . The bird's-eye view image 122 is an image obtained by bird's-eye view of the entire virtual space, and displays the position of the character 116, for example. The control unit 16 displays the designated display range 112 designated by the second user 102 in the overhead image 122 in a changed state where light is irradiated, and displays the other parts in an initial state such as darkness. . In addition, the control unit 16 displays the moving object 115 on the overhead image 122.

図6に示すように、タッチパネルディスプレイ13に表示される第2仮想空間画像121において、第2ユーザ102がタッチアンドホールド操作を行なうと、制御部16は、指の接触位置から所定距離以内の移動オブジェクト115を特定し、特定した移動オブジェクト115の移動を停止させる。図6では、制御部16は、接触位置P1,P3,P4の各々との相対距離が所定距離以内の移動オブジェクト115の移動を停止させる。一方、制御部16は、接触位置P2の近傍の移動オブジェクト115を特定できないため移動オブジェクト115の停止を行なわず、接触位置P5との相対距離が所定距離を超える図中右側の移動オブジェクト115については、その移動を停止しない。   As shown in FIG. 6, when the second user 102 performs a touch and hold operation on the second virtual space image 121 displayed on the touch panel display 13, the control unit 16 moves within a predetermined distance from the finger contact position. The object 115 is specified, and the movement of the specified moving object 115 is stopped. In FIG. 6, the control unit 16 stops the movement of the moving object 115 whose relative distance to each of the contact positions P1, P3, and P4 is within a predetermined distance. On the other hand, the control unit 16 cannot identify the moving object 115 in the vicinity of the contact position P2, and does not stop the moving object 115. For the moving object 115 on the right side in the figure, the relative distance from the contact position P5 exceeds the predetermined distance. Do not stop that move.

図7に示すように、制御部16は、第1仮想空間画像120をHMD11の表示部32に出力し、第1ユーザ101の体勢に応じてその表示範囲を変化させる。制御部16は、第1ユーザ101の注目範囲111と、第2ユーザ102により指定された指定表示範囲112とが重複していると判断すると、その重複部分125を、光が照射されたような変更状態で表示させる。また、制御部16は、第1仮想空間画像120のうち、重複部分125以外の部分を、暗闇のような初期状態で表示させる。さらに、制御部16は、重複部分125に移動オブジェクト115が含まれる場合には、重複部分125に含まれる移動オブジェクト115のみを表示させ、重複部分125に含まれない移動オブジェクト115は表示しない。   As illustrated in FIG. 7, the control unit 16 outputs the first virtual space image 120 to the display unit 32 of the HMD 11 and changes the display range according to the posture of the first user 101. When the control unit 16 determines that the attention range 111 of the first user 101 and the designated display range 112 designated by the second user 102 are overlapped, the overlapping portion 125 is irradiated with light. Display in the changed state. Moreover, the control part 16 displays parts other than the duplication part 125 among the 1st virtual space images 120 in the initial state like darkness. Further, when the overlapping portion 125 includes the moving object 115, the control unit 16 displays only the moving object 115 included in the overlapping portion 125 and does not display the moving object 115 not included in the overlapping portion 125.

図8に示すように、制御部16は、操作部14からオン操作に応じた信号を入力すると、第1仮想空間画像120に第2のアクションを反映した第1仮想空間画像120をHMD11の表示部32に出力する。例えば、制御部16は、操作部14から出力され操作部14の方向を検出した信号に基づき、仮想空間内での操作部14の仮想位置117から、操作部14の方向に沿って光線118を表示させる。制御部16は、光線118の方向に移動オブジェクト115が存在する場合には、第2のアクションである狙撃を有効とする。このとき、上述したように、移動オブジェクト115の移動が停止されていると移動オブジェクト115に照準を合わせやすくなるが、移動が停止されていない移動オブジェクト115に対しても狙撃が可能である。また、例えば制御部16は、例えば制限時間内で、有効なアクションが行なわれた回数に応じた得点を算出し、ゲーム管理情報18に含まれる得点情報に得点を加える。   As illustrated in FIG. 8, when the control unit 16 inputs a signal corresponding to the ON operation from the operation unit 14, the first virtual space image 120 reflecting the second action on the first virtual space image 120 is displayed on the HMD 11. To the unit 32. For example, the control unit 16 outputs the light beam 118 along the direction of the operation unit 14 from the virtual position 117 of the operation unit 14 in the virtual space based on the signal output from the operation unit 14 and detecting the direction of the operation unit 14. Display. When the moving object 115 exists in the direction of the light beam 118, the control unit 16 validates the sniper that is the second action. At this time, as described above, when the movement of the moving object 115 is stopped, it is easy to aim at the moving object 115, but it is possible to snip the moving object 115 that has not stopped moving. For example, the control unit 16 calculates a score corresponding to the number of times that an effective action has been performed within a time limit, for example, and adds a score to the score information included in the game management information 18.

次に、図9及び図10を参照して、第1ユーザ101及び第2ユーザ102にゲームを提供するための各処理の手順を説明する。
まず、図9を参照して、HMD11及びメインディスプレイ12に第1仮想空間画像120を出力する処理の手順について説明する。第1仮想空間画像120を出力する処理は、例えば、操作部14又は他の装置が操作されてゲームが開始されたとき等の開始条件が成立したときに開始される。なお、制御部16は、この処理と並行して、タッチパネルディスプレイ13の指定表示範囲112の座標を取得し、その座標を指定表示範囲情報20として記憶部17に記録する処理を行なう。
Next, with reference to FIG. 9 and FIG. 10, the procedure of each process for providing a game to the first user 101 and the second user 102 will be described.
First, with reference to FIG. 9, the procedure of the process of outputting the first virtual space image 120 to the HMD 11 and the main display 12 will be described. The process of outputting the first virtual space image 120 is started when a start condition is established, for example, when the operation unit 14 or another device is operated and a game is started. In parallel with this process, the control unit 16 acquires the coordinates of the designated display range 112 of the touch panel display 13 and performs a process of recording the coordinates as designated display range information 20 in the storage unit 17.

制御部16は、記憶部17に記録された注目点情報19を取得する(ステップS1)。そして、制御部16は、注目点情報19に基づいて注目範囲111を特定する。また、制御部16は、記憶部17に記録された指定表示範囲情報20を取得する(ステップS2)。そして、制御部16は、指定表示範囲情報20に基づいて指定表示範囲112を特定する。   The control unit 16 acquires the attention point information 19 recorded in the storage unit 17 (step S1). Then, the control unit 16 specifies the attention range 111 based on the attention point information 19. In addition, the control unit 16 acquires the designated display range information 20 recorded in the storage unit 17 (Step S2). Then, the control unit 16 specifies the designated display range 112 based on the designated display range information 20.

注目範囲111と指定表示範囲112とを特定すると、制御部16は、注目範囲111と指定表示範囲112とが重複するか否かを判断する(ステップS3)。例えば、制御部16は、注目範囲111の仮想空間の座標系における範囲と、指定表示範囲112の仮想空間の座標系における範囲とに基づき、それらの範囲が重複するか否かを判断する。制御部16は、注目範囲111と指定表示範囲112とが重複しないと判断すると(ステップS3:NO)、画像情報記憶部25に記録された画像情報のうち、注目範囲111に対応する画像情報を読み出して、初期状態とした第1仮想空間画像をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。   When the attention range 111 and the designated display range 112 are specified, the control unit 16 determines whether or not the attention range 111 and the designated display range 112 overlap (step S3). For example, the control unit 16 determines whether or not these ranges overlap based on the range of the attention range 111 in the virtual space coordinate system and the range of the designated display range 112 in the virtual space coordinate system. When the control unit 16 determines that the attention range 111 and the designated display range 112 do not overlap (step S3: NO), the image information corresponding to the attention range 111 among the image information recorded in the image information storage unit 25 is displayed. The first virtual space image that is read out and is in the initial state is output to the display unit 32 and the main display 12 of the HMD 11 (step S8).

ステップS3において、制御部16は、注目範囲111と指定表示範囲112とが重複すると判断すると(ステップS3:YES)、オブジェクト位置情報21に基づき、その重複部分に移動オブジェクト115が含まれるか否かを判断する(ステップS4)。制御部16は、重複部分に移動オブジェクト115が含まれないと判断すると(ステップS4:NO)、重複部分を変更状態とし(ステップS7)、第1仮想空間画像をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。その結果、重複部分が変更状態とされ、移動オブジェクト115が非表示状態とされた第1仮想空間画像120がHMD11の表示部32及びメインディスプレイ12に表示される。   In step S3, when the control unit 16 determines that the attention range 111 and the designated display range 112 overlap (step S3: YES), based on the object position information 21, whether or not the moving object 115 is included in the overlapping portion. Is determined (step S4). When the control unit 16 determines that the moving object 115 is not included in the overlapping part (step S4: NO), the overlapping part is changed (step S7), and the first virtual space image is displayed on the display unit 32 and the main display of the HMD 11. 12 (step S8). As a result, the first virtual space image 120 in which the overlapping portion is changed and the moving object 115 is not displayed is displayed on the display unit 32 and the main display 12 of the HMD 11.

ステップS4において、制御部16は、注目範囲111と指定表示範囲112との重複部分に移動オブジェクト115が含まれると判断すると(ステップS4:YES)、重複部分を変更状態とし(ステップS5)、重複部分の中に含まれる移動オブジェクト115を表示状態とする(ステップS6)。そして、第1仮想空間画像120をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。その結果、重複部分が変更状態とされ、且つその重複部分の中に移動オブジェクト115が表示された第1仮想空間画像120がHMD11の表示部32及びメインディスプレイ12に表示される。   In step S4, when the control unit 16 determines that the moving object 115 is included in the overlapping portion of the attention range 111 and the designated display range 112 (step S4: YES), the overlapping portion is changed (step S5). The moving object 115 included in the portion is displayed (step S6). Then, the first virtual space image 120 is output to the display unit 32 and the main display 12 of the HMD 11 (step S8). As a result, the overlapping part is changed, and the first virtual space image 120 in which the moving object 115 is displayed in the overlapping part is displayed on the display unit 32 and the main display 12 of the HMD 11.

このように、制御部16は第1仮想空間画像120を出力すると、ステップS1に戻り、ゲームが終了するまでステップS1〜S8を繰り返す。制御部16は、操作部14がオン操作されると第1仮想空間画像120に光線118を表示させる。また、制御部16は、表示状態の移動オブジェクト115の位置と操作部14の方向とが合致している場合には、第2のアクションが有効に行なわれたと判断する。   As described above, when the control unit 16 outputs the first virtual space image 120, the control unit 16 returns to step S1 and repeats steps S1 to S8 until the game ends. When the operation unit 14 is turned on, the control unit 16 displays the light beam 118 on the first virtual space image 120. In addition, when the position of the moving object 115 in the display state matches the direction of the operation unit 14, the control unit 16 determines that the second action has been performed effectively.

次に、図10を参照して、第2ユーザ102のタッチ操作を受け付けて移動オブジェクト115の移動を停止する処理について説明する。移動オブジェクト115の移動を停止する処理は、制御部16が、タッチアンドホールド操作を検出したとき等の開始条件が成立したときに開始される。なお、制御部16は、この処理と並行して、タッチパネルディスプレイ13の指定表示範囲112の座標を取得し、その座標を指定表示範囲情報20として記憶部17に記録する処理を行なう。   Next, processing for stopping the movement of the moving object 115 upon receiving the touch operation of the second user 102 will be described with reference to FIG. The process of stopping the movement of the moving object 115 is started when a start condition such as when the control unit 16 detects a touch and hold operation is satisfied. In parallel with this process, the control unit 16 acquires the coordinates of the designated display range 112 of the touch panel display 13 and performs a process of recording the coordinates as designated display range information 20 in the storage unit 17.

制御部16は、記憶部17に記録された接触位置情報22を取得し、接触位置を特定する(ステップS10)。また、制御部16は、接触位置の近傍の移動オブジェクト115を少なくとも一つ特定したか否かを判断する(ステップS11)。具体的には、制御部16は、オブジェクト位置情報21に基づき移動オブジェクト115の位置を特定する。そして、特定した接触位置と移動オブジェクト115の位置との相対距離を算出し、相対距離が所定距離以内である移動オブジェクト115があるか否かを判断する。   The control unit 16 acquires the contact position information 22 recorded in the storage unit 17 and specifies the contact position (step S10). Further, the control unit 16 determines whether or not at least one moving object 115 near the contact position has been specified (step S11). Specifically, the control unit 16 specifies the position of the moving object 115 based on the object position information 21. Then, the relative distance between the specified contact position and the position of the moving object 115 is calculated, and it is determined whether or not there is the moving object 115 whose relative distance is within a predetermined distance.

制御部16は、接触位置からの相対距離が所定距離以内の移動オブジェクト115が存在しないと判断した場合には(ステップS11:NO)、移動オブジェクト115の移動を停止することなく処理を終了する。また、制御部16は、接触位置からの相対距離が所定距離以内の移動オブジェクト115が少なくとも一つ存在すると判断した場合には(ステップS11:YES)、その特定された移動オブジェクトの移動を停止する(ステップS12)。   When the control unit 16 determines that there is no moving object 115 whose relative distance from the contact position is within the predetermined distance (step S11: NO), the control unit 16 ends the process without stopping the movement of the moving object 115. In addition, when the control unit 16 determines that there is at least one moving object 115 whose relative distance from the contact position is within the predetermined distance (step S11: YES), the control unit 16 stops the movement of the specified moving object. (Step S12).

そして、特定された移動オブジェクト115の移動を停止すると、制御部16は、第2ユーザ102の指がタッチパネルディスプレイ13の画面からリリースされたか否かを判断する(ステップS13)。制御部16は、第2ユーザ102の指がリリースされていないと判断すると(ステップS13:NO)、特定された移動オブジェクト115の移動の停止を継続する(ステップS12)。制御部16は、第2ユーザ102の指がリリースされたと判断すると(ステップS13:YES)、移動オブジェクト115の移動を再開して(ステップS14)、タッチアンドホールド操作の処理を終了する。そして、開始条件が成立すると、制御部16は、ステップS1〜ステップS13までの処理を繰り返す。   Then, when the movement of the specified moving object 115 is stopped, the control unit 16 determines whether or not the finger of the second user 102 has been released from the screen of the touch panel display 13 (step S13). When determining that the finger of the second user 102 has not been released (step S13: NO), the control unit 16 continues to stop the movement of the identified moving object 115 (step S12). When determining that the finger of the second user 102 has been released (step S13: YES), the control unit 16 resumes the movement of the moving object 115 (step S14) and ends the touch-and-hold operation process. And if start conditions are satisfied, the control part 16 will repeat the process from step S1 to step S13.

以上説明したように、第1実施形態によれば、以下の効果が得られるようになる。
(1)上記実施形態では、制御装置15の制御部16は、HMD11及びタッチパネルディスプレイ13の両方に仮想空間画像を出力する。第2ユーザ102はHMD11を装着することなく、タッチ操作で指定表示範囲112を指定し、制御部16は、第1のアクションとして、タッチ操作に応じた範囲を仮想空間内で特定する。さらに、第1ユーザ101は、注目範囲111と指定表示範囲112との重複部分に表示された移動オブジェクト115に対して操作部14を用いて操作を行ない、制御部16は、その操作に応じて、移動オブジェクト115に対して第2のアクションを行なう。従って、第1ユーザ101が第2のアクションを行なうためには第2ユーザ102による第1のアクションが行なわれていることが前提となるため、第1ユーザ101及び第2ユーザ102が仮想空間内で協力してゲームを進行させることができる。
As described above, according to the first embodiment, the following effects can be obtained.
(1) In the above embodiment, the control unit 16 of the control device 15 outputs a virtual space image to both the HMD 11 and the touch panel display 13. The second user 102 designates the designated display range 112 by a touch operation without wearing the HMD 11, and the control unit 16 identifies a range corresponding to the touch operation in the virtual space as the first action. Furthermore, the first user 101 operates the moving object 115 displayed in the overlapping portion of the attention range 111 and the designated display range 112 using the operation unit 14, and the control unit 16 responds to the operation. Then, the second action is performed on the moving object 115. Therefore, since it is assumed that the first user 101 is performing the first action in order for the first user 101 to perform the second action, the first user 101 and the second user 102 are in the virtual space. You can advance the game in cooperation.

(2)上記実施形態では、制御部16は、第2ユーザ102によって指定された指定表示範囲112を特定する。そして、制御部16は、指定表示範囲112を第1仮想空間画像120に反映させる。従って、第2ユーザ102は、HMD11を装着することなく、任意の範囲を第1ユーザ101に指し示すことができる。   (2) In the above embodiment, the control unit 16 specifies the designated display range 112 designated by the second user 102. Then, the control unit 16 reflects the designated display range 112 on the first virtual space image 120. Therefore, the second user 102 can point an arbitrary range to the first user 101 without wearing the HMD 11.

(3)上記実施形態では、制御部16は、指定表示範囲112と注目範囲111が重複していない場合には、移動オブジェクト115を非表示状態でHMD11に出力し、指定表示範囲112と注目範囲111とが重複している場合には、その重複部分に含まれる移動オブジェクト115を表示状態としてHMD11に出力する。つまり、第2ユーザ102によって移動オブジェクト115を含む任意の範囲が指定され、第1ユーザ101が指定された範囲を注目範囲111に含めることによって、第1ユーザに移動オブジェクト115を視認させることができる。従って、第1ユーザ101及び第2ユーザ102は協力してゲームを進行させることができる。   (3) In the above embodiment, when the designated display range 112 and the attention range 111 do not overlap, the control unit 16 outputs the moving object 115 to the HMD 11 in a non-display state, and the designated display range 112 and the attention range. If 111 overlaps, the moving object 115 included in the overlapping part is output to the HMD 11 as a display state. That is, an arbitrary range including the moving object 115 is specified by the second user 102, and the moving object 115 can be viewed by the first user by including the range in which the first user 101 is specified in the attention range 111. . Therefore, the first user 101 and the second user 102 can advance the game in cooperation.

(4)上記実施形態では、制御部16は、第1仮想空間画像のうち、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、それ以外の範囲の明度、彩度及び色相と異ならせた状態でHMD11に出力する。これによれば、HMD11を装着した第1ユーザ101は、タッチパネルディスプレイ13で指定された範囲と、それ以外の範囲とを見分けることができる。また、制御部16は、第2ユーザ102によってタッチパネルディスプレイ13で指定された範囲を光が照射されたように表示させるので、当該範囲を線で囲んで第1ユーザ101に指し示す場合等に比べ、第1ユーザ101の没入感の低下を抑制することができる。   (4) In the above embodiment, the control unit 16 uses at least one of the brightness, saturation, and hue of the designated display range 112 as the brightness, saturation, and hue of the other ranges in the first virtual space image. Output to the HMD 11 in a different state. According to this, the first user 101 wearing the HMD 11 can distinguish between the range designated on the touch panel display 13 and the other range. Moreover, since the control part 16 displays the range designated with the touch panel display 13 by the 2nd user 102 so that light was irradiated, compared with the case where the said range is enclosed with a line and it points to the 1st user 101, etc. A decrease in the immersive feeling of the first user 101 can be suppressed.

(5)上記実施形態では、制御部16は、注目範囲111と指定表示範囲112との重複部分に含まれる移動オブジェクト115のみに対する第2のアクションを有効とした。従って、第2のアクションを有効に行なうためには、第2ユーザ102によって指定される指定表示範囲112に移動オブジェクト115を含めることが前提となるため、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。   (5) In the above embodiment, the control unit 16 validates the second action for only the moving object 115 included in the overlapping portion of the attention range 111 and the designated display range 112. Therefore, in order to effectively perform the second action, it is assumed that the moving object 115 is included in the designated display range 112 designated by the second user 102. Therefore, the first user 101 and the second user 102 cooperate with each other. The game can be advanced.

(6)上記実施形態では、制御部16は、第1仮想空間画像120の水平視野角αよりも、第2仮想空間画像121の水平視野角βを小さくした。従って、第1ユーザ101は、仮想空間内の狭い範囲で第2のアクションのための操作を行なう必要があるため、第2のアクションの難度が高くなり、第2ユーザ102の支援が必要となる。従って、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。   (6) In the above embodiment, the control unit 16 makes the horizontal viewing angle β of the second virtual space image 121 smaller than the horizontal viewing angle α of the first virtual space image 120. Therefore, since the first user 101 needs to perform an operation for the second action in a narrow range in the virtual space, the difficulty of the second action becomes high and the support of the second user 102 is necessary. . Therefore, the first user 101 and the second user 102 can advance the game in cooperation.

(7)上記実施形態では、制御部16は、タッチパネルディスプレイ13には、移動オブジェクト115を常時表示させる。これにより、第1ユーザ101が移動オブジェクト115を見つけるためには、第2ユーザ102が指定表示範囲112を指定することによって、移動オブジェクト115の位置情報を提供することが前提となる。従って、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。   (7) In the above embodiment, the control unit 16 always displays the moving object 115 on the touch panel display 13. Accordingly, in order for the first user 101 to find the moving object 115, it is assumed that the second user 102 provides the positional information of the moving object 115 by specifying the specified display range 112. Therefore, the first user 101 and the second user 102 can advance the game in cooperation.

(8)上記実施形態では、制御部16は、HMD11に出力する第1仮想空間画像120において移動オブジェクト115を移動させる。また制御部16は、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき、第1仮想空間画像120及びタッチパネルディスプレイ13に出力される第2仮想空間画像121において移動オブジェクト115の移動を停止させる。これによれば、第1ユーザ101は、移動が停止された移動オブジェクト115に対して第2のアクションである狙撃を行ないやすくなる。これにより、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。   (8) In the above embodiment, the control unit 16 moves the moving object 115 in the first virtual space image 120 output to the HMD 11. In addition, the control unit 16 stops the movement of the moving object 115 in the first virtual space image 120 and the second virtual space image 121 output to the touch panel display 13 based on the touch operation of the touch panel display 13 as the first action. . This makes it easier for the first user 101 to snip the second action against the moving object 115 whose movement has been stopped. Thereby, the 1st user 101 and the 2nd user 102 can advance a game in cooperation.

(9)上記実施形態では、制御部16は、タッチパネルディスプレイ13の画面上での接触点の近傍の移動オブジェクト115を特定し、当該移動オブジェクト115に対してのみ移動を停止させる。つまり、1つの接触点で1つの移動オブジェクト115の移動を停止させることができる。第2ユーザ102は、移動を停止させたい移動オブジェクト115の近傍をタッチすればよく、移動を停止させるための動作を直感的に理解しやすい。また、複数の移動オブジェクト115の移動を停止する場合は、移動オブジェクト115の数と同じ数だけ接触点が必要となる。従って、停止させたい移動オブジェクト115の数に応じて移動オブジェクトを停止させる難度を上げることができる。   (9) In the embodiment described above, the control unit 16 specifies the moving object 115 near the contact point on the screen of the touch panel display 13 and stops the movement only with respect to the moving object 115. That is, the movement of one moving object 115 can be stopped at one contact point. The second user 102 only needs to touch the vicinity of the moving object 115 whose movement is to be stopped, and it is easy to intuitively understand the operation for stopping the movement. When stopping the movement of the plurality of moving objects 115, the same number of contact points as the number of moving objects 115 are required. Therefore, the difficulty of stopping the moving objects can be increased according to the number of moving objects 115 to be stopped.

(10)上記実施形態では、制御部16は、移動オブジェクト115を表示状態とし仮想空間を俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力する。従って、第2ユーザ102は、仮想空間内に含まれる移動オブジェクト115の位置や状態を把握することができる。このため、第2のアクションである狙撃のねらいとする移動オブジェクト115を指定表示範囲112に含めやすい。また、第2ユーザ102は、指定表示範囲112と移動オブジェクト115との位置関係を把握しやすい。   (10) In the embodiment described above, the control unit 16 outputs the overhead image 122 obtained by overlooking the virtual space to the touch panel display 13 with the moving object 115 in the display state. Therefore, the second user 102 can grasp the position and state of the moving object 115 included in the virtual space. For this reason, it is easy to include in the designated display range 112 the moving object 115 intended for the sniper as the second action. Further, the second user 102 can easily grasp the positional relationship between the designated display range 112 and the moving object 115.

(第2実施形態)
次に、本発明を具体化した第2実施形態を説明する。なお、第2実施形態は、第1実施形態における第1のアクションを変更した構成であるため、同様の部分については同一符号を付してその詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment embodying the present invention will be described. In addition, since 2nd Embodiment is the structure which changed the 1st action in 1st Embodiment, it attaches | subjects the same code | symbol about the same part, and abbreviate | omits the detailed description.

第1実施形態では、第1のアクションを指定表示範囲112の特定としたが、本実施形態では、第1のアクションを第2ユーザ102の操作に基づく移動オブジェクト115の選択とする。なお、本実施形態では、HMD11に出力される第1仮想空間画像120の初期状態は、少なくとも移動オブジェクト115が非表示状態であればよい。つまり、本実施形態の第1仮想空間画像120は、「暗闇」のような明度が低い表示状態でなくてもよい。   In the first embodiment, the first action is specified in the designated display range 112, but in the present embodiment, the first action is a selection of the moving object 115 based on the operation of the second user 102. In the present embodiment, the initial state of the first virtual space image 120 output to the HMD 11 may be at least the moving object 115 is in a non-display state. That is, the first virtual space image 120 of the present embodiment may not be in a display state with low brightness such as “darkness”.

図11に示すように、タッチパネルディスプレイ13に表示されている第2仮想空間画像121には、移動オブジェクト115が表示されている。第2ユーザ102は、移動オブジェクト115をタッチ操作で指定する。なお、図11では、接触位置P10が一つである例を示しているが、接触位置は複数であってもよい。   As shown in FIG. 11, a moving object 115 is displayed in the second virtual space image 121 displayed on the touch panel display 13. The second user 102 specifies the moving object 115 by a touch operation. Although FIG. 11 shows an example in which there is one contact position P10, there may be a plurality of contact positions.

制御部16は、タッチパネルディスプレイ13から接触位置P10の座標を取得し、オブジェクト位置情報21に基づき、接触位置P10の座標との相対距離が所定距離以下である移動オブジェクト115があるか否かを判断する。   The control unit 16 acquires the coordinates of the contact position P10 from the touch panel display 13, and determines whether or not there is a moving object 115 whose relative distance from the coordinates of the contact position P10 is equal to or less than a predetermined distance based on the object position information 21. To do.

制御部16は、接触位置P10との相対距離が所定距離以下である移動オブジェクト115が存在すると判断すると、その移動オブジェクト115を第1仮想空間画像120上で表示状態として、HMD11の表示部32及びメインディスプレイ12に出力する。なお、本実施形態では、第1実施形態のように、接触位置P10の近傍の移動オブジェクト115の移動の停止の処理は行なわない。   When the control unit 16 determines that there is a moving object 115 having a relative distance from the contact position P10 that is equal to or less than the predetermined distance, the control unit 16 sets the moving object 115 as a display state on the first virtual space image 120, and the display unit 32 of the HMD 11 Output to the main display 12. In the present embodiment, unlike the first embodiment, the process of stopping the movement of the moving object 115 in the vicinity of the contact position P10 is not performed.

制御部16は、接触位置P10と移動オブジェクト115との相対距離が所定距離以下である状態が維持されている間は、その移動オブジェクト115を第1仮想空間画像上で表示し続ける。一方、第2ユーザ102がタッチ操作を続けても、移動オブジェクト115の移動に伴って接触位置P10と移動オブジェクト115との相対距離が所定距離を超えると、制御部16は、その移動オブジェクト115を非表示状態とする。   The control unit 16 continues to display the moving object 115 on the first virtual space image while the state where the relative distance between the contact position P10 and the moving object 115 is not more than the predetermined distance is maintained. On the other hand, even if the second user 102 continues the touch operation, when the relative distance between the contact position P10 and the moving object 115 exceeds the predetermined distance as the moving object 115 moves, the control unit 16 moves the moving object 115 to the moving object 115. Set to non-display state.

このように本実施形態では、第2ユーザ102によって選択された移動オブジェクト115を、第1仮想空間画像120に表示させるので、移動オブジェクト115を指定する作業がより細かい作業となる。その結果、第1ユーザ101及び第2ユーザ102の密な連携が必要となり、ゲームの難度を好適なものとして興趣を高めることができる。   Thus, in this embodiment, since the moving object 115 selected by the second user 102 is displayed on the first virtual space image 120, the work of specifying the moving object 115 becomes a finer work. As a result, close cooperation between the first user 101 and the second user 102 is required, and it is possible to enhance the interest by making the game difficulty level suitable.

以上説明したように、第2実施形態によれば、第1実施形態に記載した(1)の効果に加えて、以下の効果が得られるようになる。
(11)上記実施形態では、制御装置15の制御部16は、第2ユーザ102によって選択された移動オブジェクト115を特定する。そして、制御部16は、第2ユーザ102によって選択された移動オブジェクト115を第1仮想空間画像120に表示させる。従って、第2ユーザ102は、HMD11を装着することなく、選択した移動オブジェクト115を第1ユーザ101に指し示すことができる。
As described above, according to the second embodiment, in addition to the effect (1) described in the first embodiment, the following effects can be obtained.
(11) In the above embodiment, the control unit 16 of the control device 15 specifies the moving object 115 selected by the second user 102. Then, the control unit 16 displays the moving object 115 selected by the second user 102 on the first virtual space image 120. Therefore, the second user 102 can point the selected moving object 115 to the first user 101 without wearing the HMD 11.

(第3実施形態)
次に、本発明を具体化した第3実施形態を説明する。なお、第3実施形態は、第1実施形態における指定表示範囲を可変とする構成であるため、同様の部分については同一符号を付してその詳細な説明を省略する。
(Third embodiment)
Next, a third embodiment embodying the present invention will be described. In addition, since 3rd Embodiment is a structure which makes the designation | designated display range in 1st Embodiment variable, the same code | symbol is attached | subjected about the same part and the detailed description is abbreviate | omitted.

第1実施形態では、第2ユーザ102がタッチ操作によってタッチパネルディスプレイ13に表示させた範囲の全体を指定表示範囲112としたが、本実施形態では、第2ユーザ102のタッチ操作によって指定表示範囲112の大きさや位置を変更可能とする。   In the first embodiment, the entire range displayed on the touch panel display 13 by the second user 102 by the touch operation is set as the designated display range 112. However, in the present embodiment, the designated display range 112 by the touch operation of the second user 102 is used. The size and position of the can be changed.

図12に示すように、第2ユーザ102は、指定表示範囲112を、2本の指を近づけるように画面をなぞるピンチイン操作、又は2本の指を遠ざけるように画面をなぞるピンチアウト操作等を行なうことによってその大きさや位置を変更する。指定表示範囲112は、初期状態では画面全体であり、制御部16は、ピンチイン操作が行なわれるとピンチイン操作の軌跡に基づき指定表示範囲112を縮小し、ピンチアウト操作が行なわれるとピンチアウト操作の軌跡に基づき縮小された指定表示範囲112を拡大する。また、ピンチイン操作又はピンチアウト操作をした後に、2本の指を画面に接触させたまま移動すると、制御部16は、その操作の入力軌跡に基づいて、指定表示範囲112の大きさを維持したまま、指定表示範囲112を画面内で移動させる。なお、指定表示範囲112の移動に伴い、光源位置(原点)を移動させてもよい。   As shown in FIG. 12, the second user 102 performs a pinch-in operation in which the designated display range 112 is traced on the screen so that two fingers are brought close to each other, or a pinch-out operation in which the screen is moved so that two fingers are moved away from each other. The size and position are changed by performing. The designated display range 112 is the entire screen in the initial state, and the control unit 16 reduces the designated display range 112 based on the locus of the pinch-in operation when the pinch-in operation is performed, and performs the pinch-out operation when the pinch-out operation is performed. The designated display range 112 reduced based on the locus is enlarged. In addition, after performing a pinch-in operation or a pinch-out operation, when the two fingers are moved while being in contact with the screen, the control unit 16 maintains the size of the designated display range 112 based on the input locus of the operation. The designated display range 112 is moved within the screen. Note that the light source position (origin) may be moved with the movement of the designated display range 112.

また、指定表示範囲112を縮小させることによって、移動オブジェクト115に対する特殊効果を発生させてもよい。例えば、指定表示範囲112の縮小が開始される時点で指定表示範囲112に含まれる移動オブジェクト115を、指定表示範囲112の外側に移動させないようにしてもよい。その結果、指定表示範囲112を縮小することで、指定表示範囲112に含まれる移動オブジェクト115を縮小された指定表示範囲112に集めることができる。このように狭い範囲に移動オブジェクト115が集められると、第1ユーザ101は、一度に多くの移動オブジェクト115に対して狙撃を行ないやすい。   Further, a special effect on the moving object 115 may be generated by reducing the designated display range 112. For example, the moving object 115 included in the designated display range 112 may not be moved outside the designated display range 112 when the reduction of the designated display range 112 is started. As a result, by reducing the designated display range 112, the moving objects 115 included in the designated display range 112 can be collected in the reduced designated display range 112. When the moving objects 115 are collected in such a narrow range, the first user 101 can easily snip the many moving objects 115 at a time.

ピンチイン操作が行なわれたとき、制御部16は、タッチ操作の入力軌跡に基づき、その入力軌跡の長さや角度に応じて、指定表示範囲112を縮小する。また、制御部16は、縮小された指定表示範囲112の明度、彩度及び色相をそれ以外の範囲と異なる変更状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。このとき、第2仮想空間画像121には、初期状態の部分、例えば「暗闇」が表現された明度や彩度の低い部分も表示されることとなる。このとき、制御部16は、初期状態の部分に含まれる移動オブジェクト115を表示状態としてもよいし、非表示状態としてもよい。   When a pinch-in operation is performed, the control unit 16 reduces the designated display range 112 according to the length and angle of the input trajectory based on the input trajectory of the touch operation. In addition, the control unit 16 outputs a second virtual space image 121 in which the brightness, saturation, and hue of the reduced designated display range 112 are changed from the other ranges to the touch panel display 13. At this time, in the second virtual space image 121, a part in an initial state, for example, a part with low brightness and saturation in which “darkness” is expressed is displayed. At this time, the control unit 16 may set the moving object 115 included in the initial state portion to the display state or the non-display state.

また、制御部16は、第1ユーザ101の注目範囲111と指定表示範囲112の重複部分があるか否かを判断し、重複部分がある場合には、その重複部分を変更状態とし、それ以外の部分を初期状態とした第1仮想空間画像120を、HMD11の表示部32及びメインディスプレイ12に出力する。   In addition, the control unit 16 determines whether or not there is an overlapping portion between the attention range 111 and the designated display range 112 of the first user 101, and if there is an overlapping portion, the overlapping portion is changed to a changed state, otherwise The first virtual space image 120 in the initial state is output to the display unit 32 and the main display 12 of the HMD 11.

第2ユーザ102は、第1ユーザ101による狙撃が有効に行なわれること等によって、指定表示範囲112に含まれる移動オブジェクト115がなくなるか又は減少すると、指定表示範囲112を拡大するピンチアウト操作をタッチパネルディスプレイ13の画面上で行なう。ピンチアウト操作が行なわれたとき、制御部16は、タッチ操作の入力軌跡を入力して、その入力軌跡の長さや角度に応じて、指定表示範囲112を拡大する。また、制御部16は、拡大された指定表示範囲112を変更状態とし、それ以外の部分を初期状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。これにより、指定表示範囲112には、新たな移動オブジェクト115が含まれるようになる。   The second user 102 performs a pinch-out operation for expanding the designated display range 112 when the moving object 115 included in the designated display range 112 disappears or decreases due to effective sniper by the first user 101 or the like. This is performed on the screen of the display 13. When a pinch-out operation is performed, the control unit 16 inputs an input locus of the touch operation, and expands the designated display range 112 according to the length and angle of the input locus. In addition, the control unit 16 outputs the second virtual space image 121 in which the enlarged designated display range 112 is changed and the other part is in the initial state to the touch panel display 13. As a result, the new display object 112 includes the new moving object 115.

以上説明したように、第3実施形態によれば、第1実施形態に記載した(1)〜(10)の効果に加えて、以下の効果が得られるようになる。
(12)上記実施形態では、制御部16は、タッチパネルディスプレイ13の画面でのタッチ操作に基づき、指定表示範囲112の大きさや位置を変更するため、例えば画面の一部のみを指し示すことができる。
As described above, according to the third embodiment, in addition to the effects (1) to (10) described in the first embodiment, the following effects can be obtained.
(12) In the above embodiment, the control unit 16 can indicate only a part of the screen, for example, in order to change the size and position of the designated display range 112 based on the touch operation on the screen of the touch panel display 13.

(第4実施形態)
次に、本発明を具体化した第4実施形態を説明する。なお、第4実施形態は、タッチパネルディスプレイで移動オブジェクトを非表示状態とし、操作部の操作に応じて移動オブジェクトを第2仮想空間画像に表示する構成であるため、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment embodying the present invention will be described. In the fourth embodiment, the moving object is hidden on the touch panel display, and the moving object is displayed in the second virtual space image according to the operation of the operation unit. Therefore, the same part as the first embodiment Are denoted by the same reference numerals, and detailed description thereof is omitted.

第1実施形態では、第1のアクションを第2ユーザ102の操作に基づく指定表示範囲112の特定とし、第2のアクションを第1ユーザの操作に基づく移動オブジェクト115に対する狙撃とした。本実施形態では、第1のアクションを第1ユーザ101による移動オブジェクト115の選択とし、第2のアクションを、第2ユーザ102のタッチパネルディスプレイ13のタッチ操作に基づく移動オブジェクト115に対する攻撃とする。   In the first embodiment, the first action is specified for the designated display range 112 based on the operation of the second user 102, and the second action is the sniper for the moving object 115 based on the operation of the first user. In the present embodiment, the first action is a selection of the moving object 115 by the first user 101, and the second action is an attack on the moving object 115 based on the touch operation of the touch panel display 13 of the second user 102.

図13に示すように、制御部16は、移動オブジェクト115を常に表示状態とした第1仮想空間画像120をHMD11の表示部32及びメインディスプレイ12に出力する。第1ユーザ101によって操作される操作部14は、方向の変更、オン操作及びオフ操作のできるコントローラや、グローブ型のコントローラである。第1ユーザ101は、操作部14を操作して、仮想空間内の移動オブジェクト115を選択する。具体的には、制御部16は、第1仮想空間画像120に表示された懐中電灯等の光源130の向きを操作部14の操作によって変更して、移動オブジェクト115に光を照射することによって移動オブジェクト115を選択する。又は、仮想空間内の網や入れ物等の道具を使用して、移動オブジェクト115を捕獲する。   As illustrated in FIG. 13, the control unit 16 outputs the first virtual space image 120 in which the moving object 115 is always displayed to the display unit 32 and the main display 12 of the HMD 11. The operation unit 14 operated by the first user 101 is a controller capable of changing direction, turning on and off, and a glove-type controller. The first user 101 operates the operation unit 14 to select the moving object 115 in the virtual space. Specifically, the control unit 16 changes the direction of the light source 130 such as a flashlight displayed in the first virtual space image 120 by operating the operation unit 14 and moves the object by irradiating the moving object 115 with light. The object 115 is selected. Alternatively, the moving object 115 is captured using a tool such as a net or a container in the virtual space.

制御部16は、操作部14から出力された信号を入力するとともに、オブジェクト位置情報21に基づき移動オブジェクト115が選択されたか否かを判断する。制御部16は、移動オブジェクト115が選択されたと判断すると、選択された移動オブジェクト115を表示状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。   The control unit 16 inputs the signal output from the operation unit 14 and determines whether or not the moving object 115 has been selected based on the object position information 21. When determining that the moving object 115 has been selected, the control unit 16 outputs a second virtual space image 121 in which the selected moving object 115 is displayed to the touch panel display 13.

タッチパネルディスプレイ13に出力された第2仮想空間画像121には、初期状態では、移動オブジェクト115が非表示状態とされている。第2仮想空間画像121上で、第1ユーザ101によって選択された移動オブジェクト115が表示状態とされると、第2ユーザは、表示状態とされた移動オブジェクト115をタッチ操作して攻撃を行なう。制御部16は、タッチパネルディスプレイ13から入力した信号に基づき、移動オブジェクト115に対する攻撃が行なわれたと判断すると、移動オブジェクト115に対する攻撃を、第1仮想空間画像120に反映して、HMD11及びメインディスプレイ12に出力する。   In the second virtual space image 121 output to the touch panel display 13, the moving object 115 is not displayed in the initial state. When the moving object 115 selected by the first user 101 is displayed on the second virtual space image 121, the second user performs an attack by touching the moving object 115 in the display state. When the control unit 16 determines that an attack on the moving object 115 has been performed based on the signal input from the touch panel display 13, the attack on the moving object 115 is reflected in the first virtual space image 120, and the HMD 11 and the main display 12. Output to.

以上説明したように、第4実施形態によれば、以下の効果が得られるようになる。
(13)上記実施形態では、第1ユーザ101は、移動オブジェクト115を選択して、選択した移動オブジェクト115を第2仮想空間画像121上で表示状態とさせる。第2ユーザ102はHMD11を装着することなく、仮想空間で表示状態とされた移動オブジェクト115を攻撃することができる。従って、第1ユーザ101及び第2ユーザ102は協力してゲームを進めることができる。
As described above, according to the fourth embodiment, the following effects can be obtained.
(13) In the above embodiment, the first user 101 selects the moving object 115 and causes the selected moving object 115 to be displayed on the second virtual space image 121. The second user 102 can attack the moving object 115 displayed in the virtual space without wearing the HMD 11. Therefore, the first user 101 and the second user 102 can advance the game in cooperation.

(他の実施形態)
なお、上記各実施形態は、以下のように適宜変更して実施することもできる。
・上記各実施形態では、制御部16は、第2ユーザ102に対応するキャラクタ116の位置を、第1ユーザ101の鉛直方向上方の位置とした。これに代えて、例えば第2ユーザ102によるタッチパネルディスプレイ13の画面上でのタッチ操作に基づき、キャラクタ116の位置を変更するようにしてもよい。
(Other embodiments)
In addition, each said embodiment can also be suitably changed and implemented as follows.
In each of the above embodiments, the control unit 16 sets the position of the character 116 corresponding to the second user 102 as the position above the first user 101 in the vertical direction. Instead of this, the position of the character 116 may be changed based on, for example, a touch operation on the screen of the touch panel display 13 by the second user 102.

・上記各実施形態では、第2仮想空間画像の水平視野角βを、第1仮想空間画像の水平視野角αよりも小さくした。これに代えて、第2仮想空間画像の水平視野角βを、第1仮想空間画像120の水平視野角αと同じとするか、若しくは第1仮想空間画像の水平視野角αよりも大きくしてもよい。このようにすると、指定表示範囲112を見つけやすくすることができるため、例えばオブジェクトを探し当てる難度を低くしたい場合に有効である。同様に、第2仮想空間画像の垂直視野角を、第2仮想空間画像の垂直視野角よりも小さくしてもよい。若しくは、第2仮想空間画像の垂直視野角以上としてもよい。   In each of the above embodiments, the horizontal viewing angle β of the second virtual space image is made smaller than the horizontal viewing angle α of the first virtual space image. Instead, the horizontal viewing angle β of the second virtual space image is the same as the horizontal viewing angle α of the first virtual space image 120 or is larger than the horizontal viewing angle α of the first virtual space image. Also good. This makes it easy to find the designated display range 112, which is effective when, for example, it is desired to reduce the difficulty of finding an object. Similarly, the vertical viewing angle of the second virtual space image may be smaller than the vertical viewing angle of the second virtual space image. Alternatively, it may be greater than or equal to the vertical viewing angle of the second virtual space image.

・上記各実施形態では、制御部16は、第1ユーザ101の注目範囲をメインディスプレイ12に第1仮想空間画像として表示させた。これに代えて若しくは加えて、制御部16は、例えば第1ユーザ101の注目範囲111を第2仮想空間画像121に表示させてもよい。注目範囲111は、線で囲むことで指し示してもよいし、第2仮想空間画像121の背景に対して明度、彩度及び色相の少なくとも一つを異ならせて表示させてもよい。この場合、第2ユーザ102が視認するメインディスプレイ12を省略することも可能である。   In each of the above embodiments, the control unit 16 displays the attention range of the first user 101 on the main display 12 as the first virtual space image. Instead of or in addition to this, the control unit 16 may display the attention range 111 of the first user 101 on the second virtual space image 121, for example. The attention range 111 may be indicated by being surrounded by a line, or may be displayed with at least one of brightness, saturation, and hue different from the background of the second virtual space image 121. In this case, the main display 12 visually recognized by the second user 102 can be omitted.

・上記各実施形態では、制御部16は、仮想空間を俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力するようにした。但し、仮想空間内のオブジェクトの位置を把握し易い場合等には、俯瞰画像122の表示を省略してもよい。   In each of the above embodiments, the control unit 16 outputs the overhead image 122 obtained by overlooking the virtual space to the touch panel display 13. However, when it is easy to grasp the position of the object in the virtual space, the display of the overhead image 122 may be omitted.

・上記各実施形態では、制御部16は、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、指定表示範囲112以外の部分の明度、彩度及び色相と異ならせて表示させた。これ以外に、第1のアクションとして、指定表示範囲112を、画像に表示される線で囲んで表示させたり、矢印等のマークを表示させたりしてもよい。   In each of the embodiments described above, the control unit 16 displays at least one of the brightness, saturation, and hue of the designated display range 112 different from the brightness, saturation, and hue of the portion other than the designated display range 112. . In addition to this, as the first action, the designated display range 112 may be displayed surrounded by a line displayed in the image, or a mark such as an arrow may be displayed.

・上記各実施形態では、制御部16は、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、指定表示範囲112以外の部分の明度、彩度及び色相と異ならせて第1仮想空間画像及び第2仮想空間画像上に表示させた。これに加えて、制御部16は、時間の経過に伴い、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、時間の経過に伴い変化させて表示させるようにしてもよい。具体的には、制御部16が、指定表示範囲112を、光が照射されているような明度、彩度及び色相で表示させている場合、時間の経過に伴って指定表示範囲112を暗くしたり、初期状態の光とは異なる色の光が照射されるようにしたりするように、明度、彩度及び色相の少なくとも一つを変更させてもよい。   In each of the above embodiments, the control unit 16 makes the first virtual difference by making at least one of the brightness, saturation, and hue of the designated display range 112 different from the brightness, saturation, and hue of the portion other than the designated display range 112. It displayed on the space image and the 2nd virtual space image. In addition, the control unit 16 may change and display at least one of the brightness, saturation, and hue of the designated display range 112 with the passage of time. Specifically, when the control unit 16 displays the designated display range 112 with lightness, saturation, and hue such that light is irradiated, the designated display range 112 is darkened over time. Alternatively, at least one of brightness, saturation, and hue may be changed so that light of a color different from the light in the initial state is irradiated.

・上記各実施形態では、制御部16は、第2ユーザ102によるタッチパネルディスプレイ13上の接触位置に基づき、第1のアクションとして、移動オブジェクト115の移動を停止させた。これに代えて若しくは加えて、制御部16は、タッチパネルディスプレイ13の画面に表示されたアイテムの選択操作に基づいて、移動オブジェクト115の移動を停止させてもよい。例えば、タッチパネルディスプレイ13の画面に表示された特殊アイテムが選択された場合、タッチパネルディスプレイ13の画面に表示されている全ての移動オブジェクト115の動きを停止させてもよい。また、アイテムが、移動オブジェクト115の近傍までドラッグアンドドロップ操作された場合、その移動オブジェクト115の移動を停止させるようにしてもよい。   In each embodiment described above, the control unit 16 stops the movement of the moving object 115 as the first action based on the contact position on the touch panel display 13 by the second user 102. Instead of or in addition to this, the control unit 16 may stop the movement of the moving object 115 based on an item selection operation displayed on the screen of the touch panel display 13. For example, when a special item displayed on the screen of the touch panel display 13 is selected, the movement of all the moving objects 115 displayed on the screen of the touch panel display 13 may be stopped. Further, when the item is dragged and dropped to the vicinity of the moving object 115, the movement of the moving object 115 may be stopped.

・上記各実施形態では、制御部16は、第2ユーザ102によるタッチパネルディスプレイ13上の接触位置に基づき、第1のアクションとして、移動オブジェクト115の移動を停止させた。これに代えて若しくは加えて、1つの接触位置に対応する所定範囲内に含まれる移動オブジェクトの移動を停止させてもよい。1つの接触位置に対応する所定範囲とは、例えば接触位置を中心とする円形状の範囲、又は接触位置を起点(隅部)とする矩形状、扇状等である。若しくは、スワイプ操作や、2本の指でタップする等して所定範囲を選択してもよい。   In each embodiment described above, the control unit 16 stops the movement of the moving object 115 as the first action based on the contact position on the touch panel display 13 by the second user 102. Instead of or in addition to this, the movement of a moving object included in a predetermined range corresponding to one contact position may be stopped. The predetermined range corresponding to one contact position is, for example, a circular range centered on the contact position, or a rectangular shape, a fan shape, or the like starting from the contact position (corner). Alternatively, the predetermined range may be selected by performing a swipe operation or tapping with two fingers.

・上記各実施形態では、常に移動する移動オブジェクト115に対して第2のアクションが行なわれるようにした。これに代えて若しくは加えて、仮想空間内の所定の固定位置に配置されたオブジェクトに対して第2のアクションが行なわれるようにしてもよい。このようなオブジェクトとしては、例えば、仮想空間内に配置された箱、扉、楽器等である。この場合、第2のアクションを、例えば、箱の蓋を開ける、扉を開く、楽器を演奏する等のアクションとする。   In the above embodiments, the second action is performed on the moving object 115 that always moves. Instead of or in addition to this, the second action may be performed on an object placed at a predetermined fixed position in the virtual space. Examples of such objects include boxes, doors, musical instruments, and the like arranged in the virtual space. In this case, the second action is, for example, an action of opening a box lid, opening a door, playing a musical instrument, or the like.

・上記各実施形態では、注目範囲111及び指定表示範囲112の重複部分に含まれない移動オブジェクト115には、第2のアクションを不可能とするか、又は第2のアクションが行なわれても無効とした。これに代えて、重複部分に含まれないオブジェクトにも、第2のアクションが行なわれてもよい。この場合、例えば重複部分に含まれるオブジェクトを、照準を合わせやすいように明瞭に表示し、重複部分に含まれないオブジェクトは照準を合わせやすい不明瞭に表示するようにしてもよい。また、重複部分に含まれないオブジェクトに有効なアクションを行なった場合には、重複部分に含まれるオブジェクトに有効なアクションを行なった場合よりも得点を高くするようにしてもよい。   In each of the embodiments described above, the second action cannot be performed on the moving object 115 that is not included in the overlapping portion of the attention range 111 and the designated display range 112, or is invalid even if the second action is performed. It was. Alternatively, the second action may be performed on an object that is not included in the overlapping portion. In this case, for example, the object included in the overlapping portion may be clearly displayed so that the aim is easy to aim, and the object not included in the overlapping portion may be displayed unclearly so that the aim is easy to aim. In addition, when an effective action is performed on an object not included in the overlapping portion, the score may be higher than when an effective action is performed on the object included in the overlapping portion.

・上記各実施形態では、HMD11の表示部32及びメインディスプレイ12に出力される第1仮想空間画像で所定オブジェクト(移動オブジェクト115)を非表示状態とした。これに代えて、第2のアクションの対象となるオブジェクトを第1仮想空間画像で表示状態としてもよい。この場合、例えば、注目範囲111及び指定表示範囲112の重複部分の表示態様をそれ以外の部分と異なる態様で表示し、その重複部分に含まれる移動オブジェクト115のみ第2のアクションを有効とするようにしてもよい。このようにしても、重複部分に含まれる所定のオブジェクトに対してのみ第2のアクションが有効とされるので、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。   In each of the above embodiments, the predetermined object (moving object 115) is hidden in the first virtual space image output to the display unit 32 of the HMD 11 and the main display 12. Instead, the object that is the target of the second action may be displayed in the first virtual space image. In this case, for example, the display mode of the overlapped portion of the attention range 111 and the designated display range 112 is displayed in a mode different from the other portions, and the second action is enabled only for the moving object 115 included in the overlapped portion. It may be. Even in this case, since the second action is effective only for the predetermined object included in the overlapping portion, the first user 101 and the second user 102 can advance the game in cooperation.

若しくは、第1仮想空間画像及び第2仮想空間画像の間で、オブジェクト又はオブジェクトを含む仮想空間画像の表示の態様を異ならせてもよい。例えば、第2仮想空間画像では、拡大及び縮尺が可能、又は任意の角度でオブジェクトを表示することが可能であるが、第1仮想空間画像では、拡大及び縮尺が不可能、又は一定の角度でしかオブジェクトを表示できない。若しくは、第2仮想空間画をオブジェクトを含む仮想空間を俯瞰した俯瞰画像とし、第1仮想空間画像では、俯瞰画像が表示されないようにしてもよい。若しくは、第2仮想空間画像では、透過、エッジ抽出等、所定の画像処理を行なうことができるが、第1仮想空間画像では、所定の画像処理を行なうことができないようにしてもよい。   Alternatively, the display mode of the object or the virtual space image including the object may be different between the first virtual space image and the second virtual space image. For example, the second virtual space image can be enlarged and reduced, or an object can be displayed at an arbitrary angle. However, the first virtual space image cannot be enlarged and reduced, or can be displayed at a fixed angle. Only objects can be displayed. Alternatively, the second virtual space image may be an overhead image that is an overhead view of the virtual space including the object, and the overhead image may not be displayed in the first virtual space image. Alternatively, predetermined image processing such as transmission and edge extraction can be performed on the second virtual space image, but predetermined image processing may not be performed on the first virtual space image.

図14及び図15は、第2仮想空間画像を、オブジェクトを含む仮想空間を俯瞰した俯瞰画像とし、第1仮想空間画像を俯瞰画像以外の画像とした例である。例えば、第1ユーザ101及び第2ユーザ102によって行なわれるゲームは、立体図形を組み合わせるパズルゲームである。図14に示すように、制御部16は、第1ユーザ101の姿勢に応じて、オブジェクトである立体図形150を含む仮想空間の画像である第1仮想空間画像120をHMD11等に出力する。立体図形150は、立方体、直方体以外にも、三角柱、円錐、球状等、特に限定されない。第1ユーザ101は、操作部14を操作して、立体図形を組み合わせる。なお、所定数以上の立体図形150が組み合わされた場合には、立体図形150の組み合わせにより形成されたパターン全体を第1仮想空間画像120の視野角に含めることは難しい。このため、第1ユーザ101の目標とするパターンを形成する際に、立体図形150を配置すべき位置、及び配置すべき立体図形150の種類の少なくとも一方について判断しにくい。   FIG. 14 and FIG. 15 are examples in which the second virtual space image is an overhead image obtained by overlooking a virtual space including an object, and the first virtual space image is an image other than the overhead image. For example, the game performed by the first user 101 and the second user 102 is a puzzle game that combines three-dimensional figures. As illustrated in FIG. 14, the control unit 16 outputs, to the HMD 11 or the like, a first virtual space image 120 that is an image of a virtual space including the solid figure 150 that is an object, according to the posture of the first user 101. The solid figure 150 is not particularly limited to a triangular prism, a cone, a sphere, or the like other than a cube and a rectangular parallelepiped. The first user 101 operates the operation unit 14 to combine solid figures. When a predetermined number or more of solid figures 150 are combined, it is difficult to include the entire pattern formed by the combination of solid figures 150 in the viewing angle of the first virtual space image 120. For this reason, when forming the target pattern of the first user 101, it is difficult to determine at least one of the position where the three-dimensional figure 150 should be arranged and the type of the three-dimensional figure 150 to be arranged.

図15に示すように、制御部16は、立体図形150が組み合わされて形成されたパターンを俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力する。第2ユーザ102は、俯瞰画像122でパターン全体を視認することができるので、どの位置にどの立体図形150を配置すればよいのかを容易に判断することができる。   As shown in FIG. 15, the control unit 16 outputs to the touch panel display 13 an overhead image 122 that is an overhead view of a pattern formed by combining the solid figures 150. Since the 2nd user 102 can visually recognize the whole pattern in the bird's-eye view image 122, it can judge easily which solid figure 150 should be arrange | positioned in which position.

また、図15に示すように、例えば第2ユーザ102がタッチパネルディスプレイ13の画面の所定の位置をタッチすると、図14に示すように、制御部16は、第1仮想空間画像120に、立体図形150を配置すべき位置を、指示位置マーク151で表示させる(第1のアクション)。若しくは、指示位置マーク151以外にも、立体図形150を配置すべき位置を、それ以外の部分の表示態様とは異なる態様で表示させてもよい。制御部16は、第1ユーザ101の操作部14の操作に基づく位置に立体図形150を配置する(第2のアクション)。   As shown in FIG. 15, for example, when the second user 102 touches a predetermined position on the screen of the touch panel display 13, the control unit 16 adds a three-dimensional figure to the first virtual space image 120 as shown in FIG. 14. The position where 150 is to be arranged is displayed by the designated position mark 151 (first action). Alternatively, in addition to the indication position mark 151, the position where the three-dimensional figure 150 is to be arranged may be displayed in a mode different from the display mode of other parts. The control part 16 arrange | positions the solid figure 150 in the position based on operation of the operation part 14 of the 1st user 101 (2nd action).

また、立体図形150の種類の並びに基づきアクションを行なうパズルゲームでは、例えば、第2ユーザ102が、立体図形150の種類を選択するための表示領域153から、任意の立体図形150を選択し、その立体図形150を配置すべき位置をタッチする(図15参照)。図14に示すように、制御部16は、配置すべき立体図形150の種類を種類識別マーク152で表示させる(第1のアクション)。さらに、立体図形150を配置すべき位置を、指示位置マーク151等で表示させてもよい。第1ユーザ101は、操作部14を操作して、種類識別マーク152で指し示された立体図形150を、指示位置マーク151で指し示された位置に配置する。   In a puzzle game in which an action is performed based on the type of the three-dimensional figure 150, for example, the second user 102 selects an arbitrary three-dimensional figure 150 from the display area 153 for selecting the type of the three-dimensional figure 150, and The position where the solid figure 150 is to be placed is touched (see FIG. 15). As shown in FIG. 14, the control unit 16 displays the type of the three-dimensional figure 150 to be arranged with the type identification mark 152 (first action). Furthermore, the position where the three-dimensional figure 150 should be arranged may be displayed by the indication position mark 151 or the like. The first user 101 operates the operation unit 14 to place the three-dimensional figure 150 indicated by the type identification mark 152 at the position indicated by the indication position mark 151.

・上記各実施形態では、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき仮想空間内の範囲を指定表示範囲112として指定した。これに代えて、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき仮想空間内の方向や任意の位置を指し示すようにしてもよい。   In each of the above embodiments, as the first action, the range in the virtual space is designated as the designated display range 112 based on the touch operation on the touch panel display 13. Instead of this, as a first action, a direction or an arbitrary position in the virtual space may be indicated based on a touch operation on the touch panel display 13.

図16は、迷路ゲームで出力される画面の例を示している。図16(a)に示すように、制御部16は、第1仮想空間画像120として、仮想空間内に設けられた立体迷路160の画像をHMD11の表示部32等に表示させる。制御部16は、ユーザの体勢に応じて第1仮想空間画像120を出力するとともに、操作部14の操作、又はセンサによって検出されたユーザ位置に基づき、立体迷路160内を進むように第1仮想空間画像120を変更する。図16(b)に示すように、制御部16は、第2仮想空間画像121として、立体迷路160の俯瞰画像をタッチパネルディスプレイ13に表示させる。制御部16は、第2仮想空間画像121に第1ユーザ101の位置161を表示させる。第2ユーザ102は、第2仮想空間画像121を視認しつつ、例えば第1ユーザ101が進むべき方向を第1ユーザ101の進行に合わせて指でなぞる。制御部16は、タッチパネルディスプレイ13から、タッチ操作に応じた入力軌跡を取得し、その入力軌跡に沿って、第1仮想空間画像120に指示された方向を表示する(第1のアクション)。例えば、第2ユーザ102が指示する方向は、第1仮想空間画像120上で、背景に対して明度、彩度及び色相を異ならせた光として表示させてもよいし、矢印等の指標として表示してもよい。第1ユーザ101は、第1仮想空間画像120上で指示された方向を参考にして、操作部14の操作等により立体迷路160内を進む。   FIG. 16 shows an example of a screen output in the maze game. As shown in FIG. 16A, the control unit 16 displays an image of the solid maze 160 provided in the virtual space on the display unit 32 of the HMD 11 as the first virtual space image 120. The control unit 16 outputs the first virtual space image 120 according to the posture of the user, and also proceeds through the three-dimensional maze 160 based on the operation of the operation unit 14 or the user position detected by the sensor. The aerial image 120 is changed. As illustrated in FIG. 16B, the control unit 16 causes the touch panel display 13 to display an overhead image of the three-dimensional maze 160 as the second virtual space image 121. The control unit 16 displays the position 161 of the first user 101 on the second virtual space image 121. For example, the second user 102 traces the direction in which the first user 101 is to travel with the finger according to the progress of the first user 101 while viewing the second virtual space image 121. The control part 16 acquires the input locus | trajectory according to touch operation from the touchscreen display 13, and displays the direction instruct | indicated in the 1st virtual space image 120 along the input locus | trajectory (1st action). For example, the direction indicated by the second user 102 may be displayed on the first virtual space image 120 as light with different brightness, saturation, and hue with respect to the background, or as an indicator such as an arrow. May be. The first user 101 proceeds through the solid maze 160 by operating the operation unit 14 with reference to the direction instructed on the first virtual space image 120.

・上記各実施形態では、第1ユーザ101の頭部の位置及び向きを検出するHMD11に加え、現実空間での第1ユーザ101の位置を検出する位置検出センサを設けるようにしてもよい。制御部16は、第1ユーザ101の頭部の位置及び向きだけでなく、位置検出センサにより第1ユーザ101が立つ位置を検出し、第1ユーザ101が立つ位置に応じて仮想空間の画像情報をレンダリングして第1仮想空間画像を表示する。このようにすると、第1ユーザ101の移動に伴って第1仮想空間画像が変更されるため、さらに没入感を高めることができる。   In each of the above embodiments, in addition to the HMD 11 that detects the position and orientation of the head of the first user 101, a position detection sensor that detects the position of the first user 101 in the real space may be provided. The control unit 16 detects not only the position and orientation of the head of the first user 101 but also the position where the first user 101 stands by the position detection sensor, and image information in the virtual space according to the position where the first user 101 stands. Is rendered to display the first virtual space image. In this way, since the first virtual space image is changed as the first user 101 moves, it is possible to further enhance the immersive feeling.

・上記各実施形態では、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するゲームを、所定のオブジェクトを狙撃するゲームに具体化した。これに代えて、探検ゲーム、カードゲーム、レーシングゲーム、格闘ゲーム、シュミレーションゲーム、ロールプレイングゲーム等の他のゲームに具体化してもよい。また、オブジェクトに対するアクションとしては、「狙撃」に限定されることなく、例えば、変形させる、投げる、打つ、飛散させる、分割する、回転させる、移動させる等のその他のアクションであってもよい。   In each of the above embodiments, the game that outputs a virtual space image to the HMD 11 and the touch panel display 13 is embodied as a game that snips a predetermined object. Instead, it may be embodied in other games such as an exploration game, a card game, a racing game, a fighting game, a simulation game, and a role playing game. Further, the action on the object is not limited to “sniper”, but may be other actions such as deforming, throwing, hitting, scattering, dividing, rotating, moving, and the like.

・上記各実施形態では、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するアプリケーションを、ゲームに具体化した。これに代えて、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するアプリケーションを医療分野、教育分野等、ゲーム以外の分野で用いられるシミュレーションを行なうアプリケーション、トレーニングを行なうアプリケーション等、ゲーム以外のアプリケーションとしてもよい。   In each of the above embodiments, the application that outputs an image of the virtual space to the HMD 11 and the touch panel display 13 is embodied in a game. Instead, applications that output images of the virtual space to the HMD 11 and the touch panel display 13 are applications other than games, such as simulation applications and training applications that are used in fields other than games, such as medical fields and educational fields. Also good.

次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
〔a〕第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力する制御部を用いて仮想空間の画像を出力するアプリケーション制御プログラムにおいて、前記制御部を、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力し、前記第2ユーザの入力操作に基づき前記仮想空間の表示範囲を決定し、前記第2ユーザが用いるディスプレイに前記決定した表示範囲の仮想空間の画像を出力し、前記仮想空間に対する前記第2ユーザの操作を受け付けて、前記仮想空間内で第1のアクションを行ない、前記装着ディスプレイに、前記第1のアクションが反映された前記仮想空間の画像を出力し、前記第1ユーザによる操作部での操作に応じて、前記第1のアクションが反映された前記仮想空間内で第2のアクションを行なう手段として機能させることを特徴とするアプリケーション制御プログラム。
〔b〕前記第1のアクションを行なう手段は、前記第1のアクションとして、前記第2ユーザの入力操作に基づきオブジェクトの移動を制御する〔a〕に記載のアプリケーション制御プログラム。
〔c〕前記第1のアクションを行なう手段は、前記第1のアクションとして、前記第2ユーザの入力操作に基づきオブジェクトを選択する〔a〕又は〔b〕に記載のアプリケーション制御プログラム。
〔d〕前記制御部を、前記装着ディスプレイに出力する前記仮想空間の画像において、前記第2のアクションの対象となる移動オブジェクトを移動させる手段としてさらに機能させ、前記第1のアクションを行なう手段は、前記第1のアクションとして、前記ディスプレイの操作に基づき前記移動オブジェクトの移動を停止させ、前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記装着ディスプレイに出力する画像において前記移動オブジェクトの移動を停止させる〔a〕〜〔c〕のいずれか1項に記載のアプリケーション制御プログラム。
〔e〕前記第1のアクションを行なう手段は、前記ディスプレイの画面上での接触点の近傍の前記移動オブジェクトを特定し、当該移動オブジェクトに対してのみ移動を停止させる〔d〕に記載のアプリケーション制御プログラム。
〔f〕前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記決定した表示範囲と前記第1ユーザの姿勢に応じた注目範囲とが重複している場合には、その重複部分に含まれる所定のオブジェクトを表示状態とし、前記重複部分に含まれない前記所定のオブジェクトがある場合には、その所定のオブジェクトを非表示状態として前記装着ディスプレイに出力する〔a〕〜〔e〕のいずれか1項に記載のアプリケーション制御プログラム。
〔g〕前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記決定した表示範囲の明度、彩度及び色相の少なくとも一つを、それ以外の範囲の明度、彩度及び色相と異ならせた状態で前記装着ディスプレイに出力する〔f〕に記載のアプリケーション制御プログラム。
〔h〕前記第2のアクションを行なう手段は、前記決定した表示範囲と前記第1ユーザの姿勢に応じた注目範囲との重複部分に含まれる所定のオブジェクトに対してのみ第2のアクションを有効とする〔f〕又は〔g〕に記載のアプリケーション制御プログラム。
〔i〕前記ディスプレイに前記仮想空間の画像を出力する手段は、前記第2のアクションの対象となる所定のオブジェクトを表示状態で出力する〔f〕〜〔h〕のいずれか1項に記載のアプリケーション制御プログラム。
〔j〕前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記装着ディスプレイにおいて出力される前記仮想空間の画像の水平方向の視野角よりも、前記決定した表示範囲の水平方向の視野角を小さくする〔a〕〜〔i〕のいずれか1項に記載のアプリケーション制御プログラム。
〔k〕前記ディスプレイに前記仮想空間の画像を出力する手段は、前記仮想空間を俯瞰し、且つ前記第2のアクションの対象となる所定のオブジェクトを表示状態とした画像を出力する手段としてさらに機能させる請求項〔a〕〜〔j〕のいずれか1項に記載のアプリケーション制御プログラム。
〔l〕第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力する制御部を用いて仮想空間の画像を出力するアプリケーション制御方法において、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力し、前記第2ユーザの入力操作に基づき前記仮想空間の表示範囲を決定し、前記第2ユーザに用いるディスプレイに前記決定した表示範囲の仮想空間の画像を出力し、前記仮想空間に対する前記第2ユーザの操作を受け付けて、前記仮想空間内で第1のアクションを行ない、前記装着ディスプレイに、前記第1のアクションが反映された前記仮想空間の画像を出力し、前記第1ユーザによる操作部での操作に応じて、前記第1のアクションが反映された前記仮想空間内で第2のアクションを行なうことを特徴とするアプリケーション制御方法。
〔m〕第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力する制御部を備えた仮想空間の画像を出力するアプリケーション制御システムにおいて、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力し、前記第2ユーザの入力操作に基づき前記仮想空間の表示範囲を決定し、前記第2ユーザが用いるディスプレイに前記決定した表示範囲の仮想空間の画像を出力し、前記仮想空間に対する前記第2ユーザの操作を受け付けて、前記仮想空間内で第1のアクションを行ない、前記装着ディスプレイに、前記第1のアクションが反映された前記仮想空間の画像を出力し、前記第1ユーザによる操作部での操作に応じて、前記第1のアクションが反映された前記仮想空間内で第2のアクションを行なうことを特徴とするアプリケーション制御システム。
Next, technical ideas that can be grasped from the above-described embodiment and other examples will be described below together with their effects.
[A] In an application control program for outputting an image of a virtual space using a mounting display worn by a first user and a control unit for outputting an image to a display used by a second user, the control unit includes the first user The virtual space image is output to the wearing display according to the posture of the display, the display range of the virtual space is determined based on the input operation of the second user, and the determined display is displayed on the display used by the second user. An image of the virtual space in the range is output, the second user's operation on the virtual space is accepted, a first action is performed in the virtual space, and the first action is reflected on the wearing display An image of the virtual space is output, and the first action is reflected according to an operation on the operation unit by the first user. Application control program for causing to function as a means for performing a second action in serial virtual space.
[B] The application control program according to [a], wherein the means for performing the first action controls movement of an object based on an input operation of the second user as the first action.
[C] The application control program according to [a] or [b], wherein the means for performing the first action selects an object based on an input operation of the second user as the first action.
[D] means for causing the control unit to further function as means for moving a moving object to be subjected to the second action in the image of the virtual space output to the mounted display, and for performing the first action; The means for stopping the movement of the moving object based on the operation of the display as the first action and outputting an image of the virtual space reflecting the first action is an image to be output to the wearing display The application control program according to any one of [a] to [c], wherein the movement of the moving object is stopped.
[E] The application according to [d], wherein the means for performing the first action specifies the moving object in the vicinity of the contact point on the display screen, and stops the movement only with respect to the moving object. Control program.
[F] The means for outputting the image of the virtual space in which the first action is reflected, when the determined display range overlaps the attention range according to the posture of the first user, A predetermined object included in the overlapping portion is set to a display state, and when there is the predetermined object not included in the overlapping portion, the predetermined object is output to the wearing display as a non-display state [a] to The application control program according to any one of [e].
[G] The means for outputting the image of the virtual space in which the first action is reflected includes at least one of brightness, saturation, and hue of the determined display range, and brightness, saturation of the other ranges. And the application control program according to [f], which is output to the mounted display in a state different from the hue.
[H] The means for performing the second action activates the second action only for a predetermined object included in an overlapping portion of the determined display range and the attention range corresponding to the posture of the first user. The application control program according to [f] or [g].
[I] The unit according to any one of [f] to [h], wherein the unit that outputs the image of the virtual space to the display outputs the predetermined object that is the target of the second action in a display state. Application control program.
[J] The means for outputting the image of the virtual space in which the first action is reflected is based on the determined display range rather than the viewing angle in the horizontal direction of the image of the virtual space output on the wearing display. The application control program according to any one of [a] to [i], which reduces a viewing angle in the horizontal direction.
[K] The means for outputting the image of the virtual space to the display further functions as means for outputting an image in which the virtual space is looked down and a predetermined object to be subjected to the second action is displayed. The application control program according to any one of claims [a] to [j].
[L] In an application control method for outputting an image of a virtual space using a mounting display worn by a first user and a control unit for outputting an image to a display used by a second user, the control unit includes the first user The virtual space image is output to the wearing display according to the posture of the user, the display range of the virtual space is determined based on the input operation of the second user, and the determined display is displayed on the display used by the second user. An image of the virtual space in the range is output, the second user's operation on the virtual space is accepted, a first action is performed in the virtual space, and the first action is reflected on the wearing display An image of the virtual space is output, and the temporary action in which the first action is reflected in response to an operation on the operation unit by the first user. Application control method characterized by performing a second action in space.
[M] In an application control system that outputs an image of a virtual space provided with a wearing display worn by the first user and a control unit that outputs an image to the display used by the second user, the control unit includes the first user The virtual space image is output to the wearing display according to the posture of the display, the display range of the virtual space is determined based on the input operation of the second user, and the determined display is displayed on the display used by the second user. An image of the virtual space in the range is output, the second user's operation on the virtual space is accepted, a first action is performed in the virtual space, and the first action is reflected on the wearing display Before outputting the image of the virtual space and reflecting the first action according to the operation of the operation unit by the first user Application control system characterized by performing the second action in the virtual space.

11…装着ディスプレイとしてのヘッドマウントディスプレイ(HMD)、12…メインディスプレイ、13…タッチパネルディスプレイ、14…操作部、15…制御装置、16…制御部、17…記憶部、18…ゲーム管理情報、19…注目点情報、20…指定表示範囲情報、21…オブジェクト位置情報、22…接触位置情報、24…注視位置特定部、25…画像情報記憶部、30…HMD制御部、31…トラッキングセンサ、32…表示部、101…第1ユーザ、102…第2ユーザ、110…仮想空間、111…注目範囲、112…指定表示範囲、114…注目点、115…移動オブジェクト、116…キャラクタ、118…光線、120…第1仮想空間画像、121…第2仮想空間画像、122…俯瞰画像、125…重複部分。
DESCRIPTION OF SYMBOLS 11 ... Head mounted display (HMD) as a mounting | wearing display, 12 ... Main display, 13 ... Touch panel display, 14 ... Operation part, 15 ... Control apparatus, 16 ... Control part, 17 ... Memory | storage part, 18 ... Game management information, 19 Reference point information 20 Reference designation range information 21 Object position information 22 Contact position information 24 Gaze position specifying unit 25 Image information storage unit 30 HMD control unit 31 Tracking sensor 32 DESCRIPTION OF SYMBOLS ... Display part 101 ... 1st user, 102 ... 2nd user, 110 ... Virtual space, 111 ... Attention range, 112 ... Designated display range, 114 ... Attention point, 115 ... Moving object, 116 ... Character, 118 ... Ray, 120 ... 1st virtual space image, 121 ... 2nd virtual space image, 122 ... Overhead image, 125 ... Overlapping part.

Claims (7)

第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるアプリケーション制御プログラムであって、
1又は複数のコンピュータに、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、
前記第2ユーザの操作に基づき当該第2ユーザが視認する範囲を特定し、前記第2ユーザが用いるディスプレイに前記特定した範囲の仮想空間の画像を出力させるステップと、
前記装着ディスプレイに、前記特定した範囲を識別可能に表示させるステップと、を実行させるアプリケーション制御プログラム。
An application control program for outputting a virtual space image to a display worn by a first user and a display used by a second user,
On one or more computers,
Outputting the image of the virtual space to the wearing display according to the posture of the first user;
Identifying a range visually recognized by the second user based on the operation of the second user, and outputting a virtual space image of the identified range on a display used by the second user;
An application control program for causing the wearing display to display the specified range in an identifiable manner.
前記特定した範囲を識別可能に表示するステップは、前記特定した範囲に含まれる画像の明度、彩度及び色相のうち少なくとも一つを、前記特定した範囲以外の画像と異ならせて表示させる、請求項1に記載のアプリケーション制御プログラム。   The step of displaying the specified range in an identifiable manner displays at least one of brightness, saturation, and hue of an image included in the specified range different from an image outside the specified range. Item 2. The application control program according to Item 1. 前記仮想空間にはオブジェクトが含まれ、当該オブジェクトが前記特定した範囲と前記装着ディスプレイに表示された範囲との重複部分に含まれる場合には、当該オブジェクトの表示態様を変化させる、請求項1又は2に記載のアプリケーション制御プログラム。   The virtual space includes an object, and when the object is included in an overlapping portion between the specified range and the range displayed on the wearing display, the display mode of the object is changed. 2. The application control program according to 2. 前記仮想空間にはオブジェクトが含まれ、前記オブジェクトが前記特定した範囲と前記装着ディスプレイに表示された範囲との重複部分に含まれる場合には、当該オブジェクトについて前記第1ユーザによるアクションを有効とする、請求項1〜3のいずれか1項に記載のアプリケーション制御プログラム。   When the virtual space includes an object and the object is included in an overlapping portion between the specified range and the range displayed on the wearing display, the action by the first user is validated for the object. The application control program according to any one of claims 1 to 3. 前記装着ディスプレイにおいて出力される前記仮想空間の画像の水平方向の視野角よりも、前記特定した範囲の水平方向の視野角を小さくする、請求項1〜4のいずれか1項に記載のアプリケーション制御プログラム。   The application control according to any one of claims 1 to 4, wherein a horizontal viewing angle of the specified range is made smaller than a horizontal viewing angle of an image of the virtual space output from the mounted display. program. 第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるアプリケーション制御方法であって、
1又は複数のコンピュータが、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、
前記第2ユーザの操作に基づき当該第2ユーザが視認する範囲を特定し、前記第2ユーザが用いるディスプレイに前記特定した範囲の仮想空間の画像を出力させるステップと、
前記装着ディスプレイに、前記特定した範囲を識別可能に表示するステップと、を行うアプリケーション制御方法。
An application control method for outputting an image of a virtual space to a wearing display worn by a first user and a display used by a second user,
One or more computers
Outputting the image of the virtual space to the wearing display according to the posture of the first user;
Identifying a range visually recognized by the second user based on the operation of the second user, and outputting a virtual space image of the identified range on a display used by the second user;
And displaying the specified range in an identifiable manner on the wearing display.
第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力させる制御部とを備え、仮想空間の画像を出力させるアプリケーションシステムであって、
前記制御部が、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、
前記第2ユーザの操作に基づき当該第2ユーザが視認する範囲を特定し、前記第2ユーザが用いるディスプレイに前記特定した範囲の仮想空間の画像を出力させるステップと、
前記装着ディスプレイに、前記特定した範囲を識別可能に表示するステップと、を行うアプリケーション制御システム。
An application system that includes a wearing display worn by a first user and a control unit that outputs an image to a display used by a second user, and that outputs an image of a virtual space,
The control unit is
Outputting the image of the virtual space to the wearing display according to the posture of the first user;
Identifying a range visually recognized by the second user based on the operation of the second user, and outputting a virtual space image of the identified range on a display used by the second user;
An application control system that performs the step of displaying the specified range in an identifiable manner on the wearing display.
JP2018112846A 2018-06-13 2018-06-13 Application control program, application control method, and application control system Active JP6600051B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018112846A JP6600051B2 (en) 2018-06-13 2018-06-13 Application control program, application control method, and application control system
JP2019182013A JP6905022B2 (en) 2018-06-13 2019-10-02 Application control program, application control method and application control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018112846A JP6600051B2 (en) 2018-06-13 2018-06-13 Application control program, application control method, and application control system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017139711A Division JP6356878B2 (en) 2016-11-30 2017-07-19 Application control program, application control method, and application control system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019182013A Division JP6905022B2 (en) 2018-06-13 2019-10-02 Application control program, application control method and application control system

Publications (2)

Publication Number Publication Date
JP2018183600A JP2018183600A (en) 2018-11-22
JP6600051B2 true JP6600051B2 (en) 2019-10-30

Family

ID=64356657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112846A Active JP6600051B2 (en) 2018-06-13 2018-06-13 Application control program, application control method, and application control system

Country Status (1)

Country Link
JP (1) JP6600051B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102378377B1 (en) 2020-11-13 2022-03-24 고려대학교 산학협력단 Apparatus and method for obtaining vulnerable transaction sequence in smart contract

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5837325B2 (en) * 2010-11-01 2015-12-24 任天堂株式会社 Operating device and operating system
JP2016158795A (en) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント Display control program, display control apparatus, and display control method
JP5981591B1 (en) * 2015-03-17 2016-08-31 株式会社コロプラ Computer program and computer system for controlling object operations in an immersive virtual space

Also Published As

Publication number Publication date
JP2018183600A (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP6181842B1 (en) Application control program, application control method, and application control system
CN109966738B (en) Information processing method, processing device, electronic device, and storage medium
JP4768031B2 (en) Method and system enabling depth and direction detection when interfacing with a computer program
JP6343718B2 (en) Gesture interface
US11893697B2 (en) Application control program, application control method, and application control system
EP2394710B1 (en) Image generation system, image generation method, and information storage medium
JP2013246521A (en) Information processor, information processing method and game device
JP2014038403A (en) Display control device, control method of the same, display control system, control method of display control system and program
JP7017474B2 (en) Application control program, application control method and application control system
JP6600051B2 (en) Application control program, application control method, and application control system
JP6611383B2 (en) Application control program, application control method, and application control system
JP4808802B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
JP6356878B2 (en) Application control program, application control method, and application control system
JP7116220B2 (en) Application control program, application control method and application control system
JP6905022B2 (en) Application control program, application control method and application control system
JP2017086542A (en) Image change system, method, and program
US20240127558A1 (en) Application control program, application control method, and application control system
JP6480537B2 (en) Information processing apparatus, information processing method, and game apparatus
JP6546574B2 (en) Game device, game control device and program for game
JP2020062116A (en) System, method, and program for providing content using augmented reality technique
JP2019114271A (en) Information processing apparatus, information processing method, and game device
WO2022124135A1 (en) Game program, game processing method, and game device
JP2017004543A (en) Information processing apparatus, information processing method, and game device
JP2022090964A (en) Game program, game processing method, and game device
JP2022090965A (en) Game program, game processing method, and game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191003

R150 Certificate of patent or registration of utility model

Ref document number: 6600051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250