JP7017474B2 - Application control program, application control method and application control system - Google Patents
Application control program, application control method and application control system Download PDFInfo
- Publication number
- JP7017474B2 JP7017474B2 JP2018112847A JP2018112847A JP7017474B2 JP 7017474 B2 JP7017474 B2 JP 7017474B2 JP 2018112847 A JP2018112847 A JP 2018112847A JP 2018112847 A JP2018112847 A JP 2018112847A JP 7017474 B2 JP7017474 B2 JP 7017474B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- virtual space
- display
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、複数のユーザに仮想空間を共有させるためのアプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムに関する。 The present invention relates to an application control program, an application control method, and an application control system for allowing a plurality of users to share a virtual space.
ユーザの頭部に装着された装着ディスプレイ(以下、HMD:ヘッドマウントディスプレイ)に、仮想空間の画像を表示してプレイするバーチャルリアリティゲームが知られている。HMDは、例えばジャイロセンサ等のトラッキングセンサを備えており、ユーザの頭部の動きを検知できる。ユーザが頭部を動かすと、HMDは頭部の動きに追従してディスプレイに表示する画像を変化させる。このように、ゲーム画像が頭部の動きに追従することで、ユーザは一層ゲームに意識を集中させることができる。つまり、ゲームへの没入感を高めることができる。 A virtual reality game is known in which an image of a virtual space is displayed and played on a mounted display (hereinafter, HMD: head-mounted display) mounted on a user's head. The HMD is provided with a tracking sensor such as a gyro sensor, and can detect the movement of the user's head. When the user moves the head, the HMD follows the movement of the head to change the image displayed on the display. In this way, the game image follows the movement of the head, so that the user can further concentrate his / her consciousness on the game. In other words, it is possible to increase the immersive feeling in the game.
また、このようなバーチャルリアリティゲームの一つとして、複数のユーザでプレイするゲームも提案されている。特許文献1には、複数のユーザがそれぞれHMDを装着してプレイするゲームが記載されている。このゲームでは、HMDを装着した各ユーザの位置情報を仮想空間のアバターの位置情報に反映させて、仮想空間内に各ユーザのアバターを描画する。
Further, as one of such virtual reality games, a game played by a plurality of users has also been proposed.
一方、複数のユーザがバーチャルリアリティゲームをプレイしようとしたとき、プレイする人数と同数のHMDを常に準備できるとは限らない。また、ユーザの中には、HMDを装着することに抵抗のあるユーザが存在する可能性もある。このように多様な状況が想定されるが、HMDを装着しないユーザとHMDを装着したユーザとの両方が参加することができ、しかもHMDを装着しないユーザのアプリケーションへの寄与度を高めたゲームは見当たらない。 On the other hand, when a plurality of users try to play a virtual reality game, it is not always possible to prepare the same number of HMDs as the number of players to play. In addition, there may be some users who are reluctant to wear the HMD. Although various situations are expected in this way, a game in which both the user who does not wear the HMD and the user who wears the HMD can participate, and the user who does not wear the HMD contributes more to the application. I can't find it.
本発明は、上記実情を鑑みてなされたものであり、その目的は、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることのできるアプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an application control program, an application control method, and an application control system that can be played simultaneously by a user who wears a wearable display and a user who does not wear the wearable display. To do.
上記課題を解決するアプリケーション制御プログラムは、第1ユーザが装着する装着ディスプレイに画像を出力させる制御部を用いて仮想空間の画像を出力させるアプリケーション制御プログラムであって、前記制御部に、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、第2ユーザの操作に基づき前記仮想空間の指示位置を取得するステップと、前記装着ディスプレイに、前記指示位置が反映された前記仮想空間の画像を出力させるステップと、を実行させる。 The application control program that solves the above-mentioned problems is an application control program that outputs an image of a virtual space by using a control unit that outputs an image to a wearable display worn by the first user, and the first user causes the control unit to output an image of the virtual space. The step of outputting the image of the virtual space to the mounted display according to the posture of the user, the step of acquiring the designated position of the virtual space based on the operation of the second user, and the step of acquiring the designated position of the virtual space on the mounted display. The step of outputting the reflected image of the virtual space and the step of outputting the image are executed.
これにより、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。 As a result, a user who wears the wearing display and a user who does not wear the wearing display can play at the same time.
上記アプリケーション制御プログラムについて、前記制御部に、前記第1ユーザによる操作部での操作に応じて、前記指示位置が反映された前記仮想空間内でアクションを行うステップをさらに実行させることが好ましい。 With respect to the application control program, it is preferable to have the control unit further execute a step of performing an action in the virtual space reflecting the instruction position in response to an operation by the operation unit by the first user.
これにより、アクションを行う位置を、第2ユーザが指示位置によって指示することができる。 As a result, the second user can instruct the position where the action is to be performed by the instructed position.
上記アプリケーション制御プログラムについて、前記アクションを行うステップは、前記第1ユーザによる操作に応じて、前記仮想空間内のオブジェクトを移動させることが好ましい。 With respect to the application control program, it is preferable that the step of performing the action moves an object in the virtual space in response to an operation by the first user.
上記アプリケーション制御プログラムについて、前記指示位置が反映された前記仮想空間の画像を出力させるステップは、前記第2ユーザに指定されたオブジェクトの種類を合わせて表示することが好ましい。 For the application control program, it is preferable that the step of outputting the image of the virtual space reflecting the instruction position is displayed together with the type of the object designated by the second user.
上記アプリケーション制御プログラムについて、前記制御部に、前記第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させるステップをさらに実行させることが好ましい。 For the application control program, it is preferable to have the control unit further execute a step of outputting an image of the virtual space to the display used by the second user.
上記アプリケーション制御プログラムについて、前記第2ユーザが用いるディスプレイに仮想空間の画像を出力させるステップは、前記仮想空間を俯瞰する画像を表示することが好ましい。 Regarding the application control program, it is preferable to display an image overlooking the virtual space in the step of outputting the image of the virtual space to the display used by the second user.
上記課題を解決するアプリケーション制御方法は、第1ユーザが装着する装着ディスプレイに画像を出力させる制御部を用いて仮想空間の画像を出力させるアプリケーション制御方法であって、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、第2ユーザの操作に基づき前記仮想空間の指示位置を取得するステップと、前記装着ディスプレイに、前記指示位置が反映された前記仮想空間の画像を出力させるステップと、を行なう。 The application control method for solving the above problems is an application control method for outputting an image of a virtual space by using a control unit for outputting an image to a wearable display worn by the first user, and the control unit is the first. The step of outputting the image of the virtual space to the mounted display according to the posture of the user, the step of acquiring the designated position of the virtual space based on the operation of the second user, and the step of acquiring the designated position on the mounted display. A step of outputting the reflected image of the virtual space is performed.
これにより、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。 As a result, a user who wears the wearing display and a user who does not wear the wearing display can play at the same time.
上記課題を解決するアプリケーション制御システムにおいて、第1ユーザが装着する装着ディスプレイに画像を出力させる制御部を備えた仮想空間の画像を出力させるアプリケーション制御システムであって、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させるステップと、第2ユーザの操作に基づき前記仮想空間の指示位置を取得するステップと、前記装着ディスプレイに、前記指示位置が反映された前記仮想空間の画像を出力させるステップと、を行なう。 In an application control system that solves the above problems, an application control system that outputs an image of a virtual space including a control unit that outputs an image to a wearable display worn by a first user, wherein the control unit is the first. The step of outputting the image of the virtual space to the mounted display according to the posture of the user, the step of acquiring the designated position of the virtual space based on the operation of the second user, and the step of acquiring the designated position of the virtual space on the mounted display. A step of outputting the reflected image of the virtual space is performed.
これにより、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。 As a result, a user who wears the wearing display and a user who does not wear the wearing display can play at the same time.
本発明によれば、装着ディスプレイを装着したユーザと装着しないユーザとが同時にアプリケーションをプレイすることができる。 According to the present invention, a user who wears a wearable display and a user who does not wear the wearable display can play the application at the same time.
(第1実施形態)
以下、アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムの一実施形態を図1~図10に従って説明する。本実施形態では、複数のユーザの間で仮想空間を共有するアプリケーションとして、ゲームアプリケーションを提供する場合を想定する。
(First Embodiment)
Hereinafter, an embodiment of the application control program, the application control method, and the application control system will be described with reference to FIGS. 1 to 10. In this embodiment, it is assumed that a game application is provided as an application that shares a virtual space among a plurality of users.
図1に示すように、アプリケーション制御システムは、装着ディスプレイとしてのヘッドマウントディスプレイ(以下、HMD)11、操作部(コントローラ)14、メインディスプレイ12、タッチパネルディスプレイ13を有する。HMD11は、第1ユーザ101の頭部に装着される。HMD11には仮想空間の画像が表示される。第1ユーザ101は、仮想空間内を移動するオブジェクト(以下、移動オブジェクト)を探し、見つけた移動オブジェクトに対して、操作部14を操作することによってアクション(第2のアクション)を行なう。本実施形態では、第1ユーザ101は、「ゴースト」等の移動オブジェクトを探し、操作部14をオン操作することによって、この移動オブジェクトを狙撃する。
As shown in FIG. 1, the application control system includes a head-mounted display (hereinafter, HMD) 11 as a wearable display, an operation unit (controller) 14, a
メインディスプレイ12、及びタッチパネルディスプレイ13に出力された画像は、第2ユーザ102によって視認される。第2ユーザ102は、メインディスプレイ12及びタッチパネルディスプレイ13に出力された画像を視認しながら、タッチパネルディスプレイ13を操作して、第1ユーザ101を支援する。なお、第2ユーザ102は、肉声、又はマイクを通じて入力した音声によって、第1ユーザ101に移動オブジェクトの位置を教えることができるようにしてもよい。
The images output to the
図2を参照して、アプリケーション制御システム10の概略構成について説明する。アプリケーション制御システム10は、HMD11、操作部14、メインディスプレイ12、タッチパネルディスプレイ13の他、これらと接続された制御装置15を備える。
A schematic configuration of the
HMD11は、HMD制御部30、トラッキングセンサ31及び表示部32を有する。HMD制御部30は、トラッキングセンサ31の検出結果に応じた信号を制御装置15に出力するとともに、制御装置15から画像信号等の各種信号を入力する。トラッキングセンサ31は、第1ユーザ101の注目点を特定するためのセンサであって、第1ユーザ101の頭部の位置及び向き等を検出する。トラッキングセンサ31は、例えばジャイロセンサ、加速度センサ、地磁気センサ等のうち少なくとも1つのセンサを有する。なお、別の実施形態として、第1ユーザ101の眼球の動きを直接的に検出するもの、例えば、虹彩内に近赤外線を入射しその反射光を検出する視線検出センサ等がトラッキングセンサ31として用いられてもよい。HMD11の表示部32には、仮想空間のうち第1ユーザ101の注目点を中心とした所定範囲の画像が表示される。すなわち、所定範囲の画像が第1ユーザ101に視認可能に表示される。なお、HMD11の表示部32に出力される仮想空間の画像を、以下、「第1仮想空間画像」という。
The HMD 11 has an
操作部14は、例えば操作ボタンや操作レバーを備えるものであって、第1ユーザ101が目視せずに操作が可能な構成となっている。操作部14は、加速度センサ等を有しており、初期位置からの方向の変化及びその変化量等を検出することができる。操作部14は、第2ユーザ102による操作のオン/オフを示す信号、及び操作部14の方向の変化量等を制御装置15に出力する。
The
メインディスプレイ12は、第2ユーザ102が視認可能なディスプレイである。メインディスプレイ12には、HMD11の表示部32と同期させて、第1仮想空間画像が表示される。
The
タッチパネルディスプレイ13は、筐体に設けられたタッチパネルディスプレイでもよいし、タブレットやスマートフォン等の携帯情報端末であってもよい。タッチパネルディスプレイ13には、仮想空間内の一部を投影した画像(以下、第2仮想空間画像と呼ぶ)が出力される。本実施形態では、第2仮想空間画像として、第1ユーザ101の鉛直方向上方の位置に設定した視点から仮想空間内を見た画像を用いる。ゲームが開始されたときにタッチパネルディスプレイ13に表示される第2仮想空間画像の初期画面は、HMD11の表示部32に表示される第1仮想空間画像へ投影される仮想空間の位置と同じである。初期画面における第2仮想空間画像の視点位置は、初期画面における第1仮想空間画像の視点位置と同じでもよいし、異なっていてもよい。仮想空間を第2仮想空間画像へ投影する位置は、第2ユーザ102のスワイプ操作等の所定のタッチ操作に応じて変更及び指定される。例えば、第2ユーザ102のスワイプ操作により、仮想空間の投影範囲が変更されて第2仮想空間画像が変化し、スワイプ操作が停止されることによって、仮想空間の投影範囲の変更が停止されて、第2仮想空間画像の表示範囲が指定される。なお、「タッチ操作」は、例えば、タップ操作、スワイプ操作、フリック操作、ピンチイン操作、ピンチアウト操作、タッチアンドホールド操作等を含む。さらに、タッチパネルディスプレイ13は、第2ユーザ102のタッチ操作に応じた信号を制御装置15に出力する。例えば、タッチパネルディスプレイ13は、スワイプ操作の軌跡に応じた信号、接触位置に応じた信号等を出力する。
The
HMD11の表示部32に出力される第1仮想空間画像と、タッチパネルディスプレイ13に出力される第2仮想空間画像は、同じ仮想空間内の画像であるが、前者が第1ユーザ101の体勢に応じて仮想空間の表示範囲を変更しているのに対し、後者が第2ユーザ102のタッチ操作に応じて仮想空間の表示範囲を変更している点で異なる。また、タッチパネルディスプレイ13には、仮想空間を所定位置から俯瞰した俯瞰画像が表示される。
The first virtual space image output to the
制御装置15は、HMD11、操作部14及びタッチパネルディスプレイ13から出力された信号を取得して、第1ユーザ101と第2ユーザ102とによる仮想空間内のゲーム進行を管理する。
The
制御装置15は、制御部16、記憶部17及び画像情報記憶部25を備える。制御部16は、演算部、揮発性記憶部、及び不揮発性記憶部を有し、不揮発性記憶部に記録されたアプリケーション制御プログラムに従ってゲームを実行する。記憶部17は、画像処理用の記憶部であって、揮発性記憶部でもよく、不揮発性記憶部であってもよい。この記憶部17には、ゲーム管理情報18、注目点情報19、指定表示範囲情報20、オブジェクト位置情報21及び接触位置情報22が記録されている。
The
ゲーム管理情報18は、ユーザID、ゲームの進行状況等を含む情報であって、ゲームの進行に伴って更新される。注目点情報19は、トラッキングセンサ31によって検出された第1ユーザ101の頭部の位置及び向きの情報、又は頭部の位置及び向きから特定された注目点の位置を示す情報である。注目点情報19は、第1ユーザ101の頭部の位置及び向きに伴って更新される。指定表示範囲情報20は、第2ユーザ102がタッチ操作によってタッチパネルディスプレイ13に表示させた範囲を示す情報であって、第2ユーザ102のタッチ操作に伴って更新される。オブジェクト位置情報21は、仮想空間内を移動する移動オブジェクトの位置を示す情報である。制御部16は、アプリケーション制御プログラムに従って移動オブジェクトの各々をランダムに移動させる。オブジェクト位置情報21は、移動オブジェクトの位置の変化に伴って更新される。移動オブジェクトの位置は、HMD11及びメインディスプレイ12に出力される第1仮想空間画像と、タッチパネルディスプレイ13に出力される第2仮想空間画像との間で同期している。さらに、接触位置情報22には、タッチパネルディスプレイ13の画面上での接触位置を示し、第2ユーザ102のタッチ操作が行なわれる度に更新される。また、画像情報記憶部25には、仮想空間の画像を描画するための情報が記録されている。
The
制御部16は、HMD11から入力した信号に基づく注目点情報19を記憶部17に記録する。また、制御部16は、タッチパネルディスプレイ13から入力した指定表示範囲に応じた信号を、指定表示範囲情報20として記憶部17に記録する。
The
制御部16は、画像情報記憶部25に記録された画像情報のうち、注目点情報19に基づく注目点を中心とした所定範囲の画像情報を取得し、第1仮想空間画像としてHMD11及びメインディスプレイ12に出力する。また、制御部16は、第2ユーザ102のタッチ操作によって指定された指定表示範囲を指定表示範囲情報20として記憶部17に記録する。さらに、制御部16は、指定表示範囲情報20に基づき画像情報を画像情報記憶部25から取得して、第2仮想空間画像としてタッチパネルディスプレイ13に出力する。また、制御部16は、仮想空間の一部又は全体を俯瞰した俯瞰画像をタッチパネルディスプレイ13に出力する。
The
図3を参照して、仮想空間及びHMD11及びメインディスプレイ12に出力される第1仮想空間画像について説明する。HMD制御部30は、第1ユーザ101の頭部の位置及び向きを特定する。例えば、頭部の位置及び向きは、初期位置を基準として、水平方向に沿ったX軸及びX軸を中心とした回転方向を示すピッチθp、鉛直方向に沿ったY軸及びY軸を中心とした回転方向を示すヨーθy、奥行方向に沿ったZ軸及びZ軸を中心とした回転方向を示すロールθrの3軸方向の位置及び各軸回りの角度として算出される。HMD制御部30は、3軸方向の位置及び各軸回りの角度を注目点情報19として制御部16に出力する。
With reference to FIG. 3, the virtual space and the first virtual space image output to the
制御部16は、注目点情報19に基づき仮想空間110内での注目点114又は視線方向Dを特定する。注目点又は視線方向の特定の方法は、トラッキングセンサ31の種類等に応じた公知の方法を用いることができる。例えば、制御部16は、左目位置と右目位置とを結ぶ直線を仮想的に設定し、当該直線に直交する方向に延び、且つ左目位置と右目位置の中点を通る方向を視線方向Dとする。さらに、制御部16は、視線方向Dとオブジェクト(又は背景)との交点を注目点114として特定することが可能である。なお、トラッキングセンサとして、眼球の動きを検出するものや虹彩内からの反射光を検出するものを用いる場合には、眼球の動きや反射光に基づき視線方向を特定してもよい。
The
制御部16は、注目点114や視線方向Dに基づく範囲である注目範囲111の画像情報を画像情報記憶部25から取得し、HMD11の表示部32に第1仮想空間画像として出力する。例えば、注目範囲111は、第1ユーザ101の視点の位置から注目点114に向かう方向を視線方向Dとしたとき、視線方向Dを中心としとする水平方向の水平視野角α、及び垂直方向の角度である垂直視野角(図示略)等で特定される範囲である。水平視野角α及び垂直視野角は、第1ユーザ101の物理的な視野角ではなく、仮想空間110の画像を生成するレンダリングの角度である。また、制御部16は、取得した画像情報に応じた画像をメインディスプレイ12にも出力する。
The
HMD11に表示された第1仮想空間画像及びメインディスプレイに表示された第1仮想空間画像には、画像に対する所定のアクションがなされていない場合、仮想空間全体が初期状態で表示されている。例えば、初期状態は、「暗闇」の状態、すなわち画像の明度及び彩度の低い状態である。この初期状態の第1仮想空間画像では、仮想空間内を移動する移動オブジェクト115が非表示状態で表示されている。非表示状態とは、移動オブジェクトが全く表示されないか、又は視認しにくい不明瞭な状態である。不明瞭な表示状態の例としては、移動オブジェクト115の一部のみが表示され全体が表示されない状態、又は移動オブジェクト115の明度、彩度及び色相の少なくとも一つを背景に近付けて見えにくくした状態である。また、例えば、仮想空間内で、第2ユーザ102は、ドローン又はアバター等のキャラクタ116として表示される。本実施形態では、キャラクタ116の位置は、第1ユーザ101の鉛直方向上方の位置を維持する。
In the first virtual space image displayed on the
また、タッチパネルディスプレイ13で第2ユーザ102のタッチ操作によって表示範囲が指定されると、制御部16は、タッチパネルディスプレイ13から指定された表示範囲を取得して、指定表示範囲情報20として記憶部17に記録する。また、制御部16は、指定表示範囲情報20に応じた指定表示範囲112を、第1仮想空間画像の初期状態とは異なる表示態様で、第2仮想空間画像としてタッチパネルディスプレイ13に出力する。具体的には、このときの表示態様は、明度、彩度及び色相の少なくとも一つが初期状態とは異なる状態である変更状態であって、例えば、光が照射された状態、すなわち明度が初期状態よりも高く、彩度及び色相が初期状態とは異なる状態である。制御部16は、オブジェクト位置情報21に基づき、第2仮想空間画像に移動オブジェクトを視認可能に表示する。これにより、第2ユーザは、第2仮想空間画像上で移動オブジェクトを視認することができる。
Further, when the display range is designated by the touch operation of the
さらに、制御部16は、第1ユーザ101の注目範囲111、及び第2ユーザ102によって指定された指定表示範囲112の少なくとも一部が重複している場合には、第1仮想空間画像のうち、その重複部分を初期状態とは異なる変更状態で表示させる。具体的には、重複部分を、それ以外の部分よりも、明度、彩度及び色相の少なくとも一部が異なる状態で表示させる。なお、図3では、注目範囲111に、指定表示範囲112の全体が含まれた状態を示している。第1仮想空間画像では、光は、キャラクタ116自身又はキャラクタ116が有する光源から照射されたように表示される。
Further, when at least a part of the attention range 111 of the
制御部16は、第2ユーザ102によって指定された指定表示範囲112を仮想空間110内で指定して(第1のアクション)、第1仮想空間画像に第1のアクションを反映する。具体的には、制御部16は、第1仮想空間画像において、注目範囲と指定表示範囲112との重複部分(仮想空間における重複範囲)に含まれる移動オブジェクト115のみを表示状態(視認可能状態)とし、重複部分以外に存在する移動オブジェクト115を非表示状態(視認不可能状態)とする。このため、注目範囲111と指定表示範囲112とに重複があり、且つその重複部分に移動オブジェクト115が含まれる場合のみ、第1ユーザ101は、移動オブジェクト115を視認することができる。
The
また、本実施形態では、第2ユーザ102によって指定される指定表示範囲112、換言すると第2仮想空間画像を生成するための仮想空間内の投影範囲の水平視野角βは、第1仮想空間を生成するための仮想空間内の投影範囲の水平視野角αよりも小さくなっている。つまり、第2仮想空間画像の水平視野角βが第1仮想空間画像の水平視野角α以上である場合には、第1ユーザ101は第1仮想空間画像に反映された指定表示範囲112を容易に見つけることができる。これに対し、第2仮想空間画像の水平視野角βが第1仮想空間画像の水平視野角αよりも小さいと、第1ユーザ101は第1仮想空間画像に反映された指定表示範囲112を見つけにくくなる。第1仮想空間画像の水平視野角αに対する第2仮想空間画像の水平視野角βの比率は、目標とするゲームバランスに応じて決定すればよい。本実施形態では、第2仮想空間画像の水平視野角βを第1仮想空間画像の水平視野角αよりも小さくすることによって、第2ユーザ102のゲームへの寄与度を高め、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させるようになっている。
Further, in the present embodiment, the designated
また、第2ユーザ102は、タッチパネルディスプレイ13上での所定のタッチ操作によって、接触位置の近傍の移動オブジェクト115の移動を停止させることができる。このとき、第2ユーザ102は、指と画面の任意の位置との接触を継続させるタッチアンドホールド操作を行なう。制御部16は、タッチアンドホールド操作が行なわれた場合、第1のアクションとして、接触位置から所定距離内の移動オブジェクトを特定し、特定した移動オブジェクト115の移動(動き)を停止させる。つまり、1つの接触位置に対して、一つの最寄りの移動オブジェクト115の移動を停止させる。例えば、5つの移動オブジェクト115が仮想空間110内に存在し、これらの動きを停止させたい場合には、5本の指を使ってタッチアンドホールド操作を行なう。
Further, the
さらに、第1ユーザ101は、指定表示範囲112に含まれ視認可能となった移動オブジェクト115に対してのみ、第2のアクションを行なうことができる。本実施形態では、第2のアクションとして、移動オブジェクト115の狙撃を行なう。このとき、第2ユーザ102のタッチ操作によって移動オブジェクト115の移動が停止されていると、移動オブジェクト115に照準を合わせやすくなり、有効な第2のアクションを行なうことが容易となる。具体的には、制御部16は、操作部14のオン操作を検知した場合、操作部14の仮想位置117から、操作部14の方向に沿って光線118を第1仮想空間画像及び第2仮想空間画像に表示させる。そして、光線118の方向と移動オブジェクト115の位置とが合致している場合には、制御部16は、第2のアクションが有効に行なわれたと判定する。具体的には、移動オブジェクト115が狙撃されたと判定し、第1ユーザ101に得点等を付与する。一方、指定表示範囲112に含まれない移動オブジェクト115に対しては、制御部16は、アクション用の光線118を表示させない。又は、指定表示範囲112に含まれない移動オブジェクト115に向けてアクション用の光線118が出射されても無効と判定するようにしてもよい。制御部16は、アクション用の光線118を、HMD11の表示部32、メインディスプレイ12及びタッチパネルディスプレイ13に表示させる。
Further, the
次に、図4~図8を参照して、HMD11の表示部32、メインディスプレイ12、及びタッチパネルディスプレイ13に表示される画面について説明する。
図4に示すように、制御部16は、画像情報記憶部25に記録された仮想空間の画像情報を、指定表示範囲112に応じてレンダリングして第2仮想空間画像121を表示するための画像情報を生成し、生成した画像情報を第2仮想空間画像121用に明度、彩度及び色相を調整して、タッチパネルディスプレイ13に出力する。この第2仮想空間画像121は、第1仮想空間画像と同じ範囲を表示していたとしても、第1仮想空間画像の初期状態とは明度、彩度及び色相の少なくとも一部が異なっている。具体的には、制御部16は、第2仮想空間画像121の全体を、光が照射されたような明度が高い状態で表示させる。また、制御部16は、第2仮想空間画像121に、オブジェクト位置情報21に基づき移動する移動オブジェクト115を表示させる。但し、移動オブジェクト115はランダムに移動しているため、指定表示範囲112を変更しない場合には、最初に表示された移動オブジェクト115が画面外に移動する可能性がある。第2ユーザ102は、例えばスワイプ操作を行なって指定表示範囲112を変更して画面を遷移させ、第1ユーザ101に移動オブジェクト115の位置を知らせるために、移動オブジェクト115を探す。
Next, the screens displayed on the
As shown in FIG. 4, the
図5に示すように、制御部16は、画像情報記憶部25に記録された俯瞰画像用の画像情報の取得、又は仮想空間の画像情報のレンダリングによって、俯瞰画像122をタッチパネルディスプレイ13に出力する。俯瞰画像122は、仮想空間全体を俯瞰した画像であって、例えば、キャラクタ116の位置を表示している。制御部16は、俯瞰画像122のうち、第2ユーザ102の指定した指定表示範囲112を、光が照射されたような変更状態で表示させ、その他の部分は暗闇のような初期状態で表示させる。また、制御部16は、俯瞰画像122に移動オブジェクト115を表示させる。
As shown in FIG. 5, the
図6に示すように、タッチパネルディスプレイ13に表示される第2仮想空間画像121において、第2ユーザ102がタッチアンドホールド操作を行なうと、制御部16は、指の接触位置から所定距離以内の移動オブジェクト115を特定し、特定した移動オブジェクト115の移動を停止させる。図6では、制御部16は、接触位置P1,P3,P4の各々との相対距離が所定距離以内の移動オブジェクト115の移動を停止させる。一方、制御部16は、接触位置P2の近傍の移動オブジェクト115を特定できないため移動オブジェクト115の停止を行なわず、接触位置P5との相対距離が所定距離を超える図中右側の移動オブジェクト115については、その移動を停止しない。
As shown in FIG. 6, in the second
図7に示すように、制御部16は、第1仮想空間画像120をHMD11の表示部32に出力し、第1ユーザ101の体勢に応じてその表示範囲を変化させる。制御部16は、第1ユーザ101の注目範囲111と、第2ユーザ102により指定された指定表示範囲112とが重複していると判断すると、その重複部分125を、光が照射されたような変更状態で表示させる。また、制御部16は、第1仮想空間画像120のうち、重複部分125以外の部分を、暗闇のような初期状態で表示させる。さらに、制御部16は、重複部分125に移動オブジェクト115が含まれる場合には、重複部分125に含まれる移動オブジェクト115のみを表示させ、重複部分125に含まれない移動オブジェクト115は表示しない。
As shown in FIG. 7, the
図8に示すように、制御部16は、操作部14からオン操作に応じた信号を入力すると、第1仮想空間画像120に第2のアクションを反映した第1仮想空間画像120をHMD11の表示部32に出力する。例えば、制御部16は、操作部14から出力され操作部14の方向を検出した信号に基づき、仮想空間内での操作部14の仮想位置117から、操作部14の方向に沿って光線118を表示させる。制御部16は、光線118の方向に移動オブジェクト115が存在する場合には、第2のアクションである狙撃を有効とする。このとき、上述したように、移動オブジェクト115の移動が停止されていると移動オブジェクト115に照準を合わせやすくなるが、移動が停止されていない移動オブジェクト115に対しても狙撃が可能である。また、例えば制御部16は、例えば制限時間内で、有効なアクションが行なわれた回数に応じた得点を算出し、ゲーム管理情報18に含まれる得点情報に得点を加える。
As shown in FIG. 8, when the
次に、図9及び図10を参照して、第1ユーザ101及び第2ユーザ102にゲームを提供するための各処理の手順を説明する。
まず、図9を参照して、HMD11及びメインディスプレイ12に第1仮想空間画像120を出力する処理の手順について説明する。第1仮想空間画像120を出力する処理は、例えば、操作部14又は他の装置が操作されてゲームが開始されたとき等の開始条件が成立したときに開始される。なお、制御部16は、この処理と並行して、タッチパネルディスプレイ13の指定表示範囲112の座標を取得し、その座標を指定表示範囲情報20として記憶部17に記録する処理を行なう。
Next, with reference to FIGS. 9 and 10, the procedure of each process for providing the game to the
First, with reference to FIG. 9, a procedure for outputting the first
制御部16は、記憶部17に記録された注目点情報19を取得する(ステップS1)。そして、制御部16は、注目点情報19に基づいて注目範囲111を特定する。また、制御部16は、記憶部17に記録された指定表示範囲情報20を取得する(ステップS2)。そして、制御部16は、指定表示範囲情報20に基づいて指定表示範囲112を特定する。
The
注目範囲111と指定表示範囲112とを特定すると、制御部16は、注目範囲111と指定表示範囲112とが重複するか否かを判断する(ステップS3)。例えば、制御部16は、注目範囲111の仮想空間の座標系における範囲と、指定表示範囲112の仮想空間の座標系における範囲とに基づき、それらの範囲が重複するか否かを判断する。制御部16は、注目範囲111と指定表示範囲112とが重複しないと判断すると(ステップS3:NO)、画像情報記憶部25に記録された画像情報のうち、注目範囲111に対応する画像情報を読み出して、初期状態とした第1仮想空間画像をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。
When the attention range 111 and the designated
ステップS3において、制御部16は、注目範囲111と指定表示範囲112とが重複すると判断すると(ステップS3:YES)、オブジェクト位置情報21に基づき、その重複部分に移動オブジェクト115が含まれるか否かを判断する(ステップS4)。制御部16は、重複部分に移動オブジェクト115が含まれないと判断すると(ステップS4:NO)、重複部分を変更状態とし(ステップS7)、第1仮想空間画像をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。その結果、重複部分が変更状態とされ、移動オブジェクト115が非表示状態とされた第1仮想空間画像120がHMD11の表示部32及びメインディスプレイ12に表示される。
In step S3, when the
ステップS4において、制御部16は、注目範囲111と指定表示範囲112との重複部分に移動オブジェクト115が含まれると判断すると(ステップS4:YES)、重複部分を変更状態とし(ステップS5)、重複部分の中に含まれる移動オブジェクト115を表示状態とする(ステップS6)。そして、第1仮想空間画像120をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。その結果、重複部分が変更状態とされ、且つその重複部分の中に移動オブジェクト115が表示された第1仮想空間画像120がHMD11の表示部32及びメインディスプレイ12に表示される。
In step S4, when the
このように、制御部16は第1仮想空間画像120を出力すると、ステップS1に戻り、ゲームが終了するまでステップS1~S8を繰り返す。制御部16は、操作部14がオン操作されると第1仮想空間画像120に光線118を表示させる。また、制御部16は、表示状態の移動オブジェクト115の位置と操作部14の方向とが合致している場合には、第2のアクションが有効に行なわれたと判断する。
In this way, when the
次に、図10を参照して、第2ユーザ102のタッチ操作を受け付けて移動オブジェクト115の移動を停止する処理について説明する。移動オブジェクト115の移動を停止する処理は、制御部16が、タッチアンドホールド操作を検出したとき等の開始条件が成立したときに開始される。なお、制御部16は、この処理と並行して、タッチパネルディスプレイ13の指定表示範囲112の座標を取得し、その座標を指定表示範囲情報20として記憶部17に記録する処理を行なう。
Next, with reference to FIG. 10, a process of accepting a touch operation of the
制御部16は、記憶部17に記録された接触位置情報22を取得し、接触位置を特定する(ステップS10)。また、制御部16は、接触位置の近傍の移動オブジェクト115を少なくとも一つ特定したか否かを判断する(ステップS11)。具体的には、制御部16は、オブジェクト位置情報21に基づき移動オブジェクト115の位置を特定する。そして、特定した接触位置と移動オブジェクト115の位置との相対距離を算出し、相対距離が所定距離以内である移動オブジェクト115があるか否かを判断する。
The
制御部16は、接触位置からの相対距離が所定距離以内の移動オブジェクト115が存在しないと判断した場合には(ステップS11:NO)、移動オブジェクト115の移動を停止することなく処理を終了する。また、制御部16は、接触位置からの相対距離が所定距離以内の移動オブジェクト115が少なくとも一つ存在すると判断した場合には(ステップS11:YES)、その特定された移動オブジェクトの移動を停止する(ステップS12)。
When the
そして、特定された移動オブジェクト115の移動を停止すると、制御部16は、第2ユーザ102の指がタッチパネルディスプレイ13の画面からリリースされたか否かを判断する(ステップS13)。制御部16は、第2ユーザ102の指がリリースされていないと判断すると(ステップS13:NO)、特定された移動オブジェクト115の移動の停止を継続する(ステップS12)。制御部16は、第2ユーザ102の指がリリースされたと判断すると(ステップS13:YES)、移動オブジェクト115の移動を再開して(ステップS14)、タッチアンドホールド操作の処理を終了する。そして、開始条件が成立すると、制御部16は、ステップS1~ステップS13までの処理を繰り返す。
Then, when the movement of the specified moving
以上説明したように、第1実施形態によれば、以下の効果が得られるようになる。
(1)上記実施形態では、制御装置15の制御部16は、HMD11及びタッチパネルディスプレイ13の両方に仮想空間画像を出力する。第2ユーザ102はHMD11を装着することなく、タッチ操作で指定表示範囲112を指定し、制御部16は、第1のアクションとして、タッチ操作に応じた範囲を仮想空間内で特定する。さらに、第1ユーザ101は、注目範囲111と指定表示範囲112との重複部分に表示された移動オブジェクト115に対して操作部14を用いて操作を行ない、制御部16は、その操作に応じて、移動オブジェクト115に対して第2のアクションを行なう。従って、第1ユーザ101が第2のアクションを行なうためには第2ユーザ102による第1のアクションが行なわれていることが前提となるため、第1ユーザ101及び第2ユーザ102が仮想空間内で協力してゲームを進行させることができる。
As described above, according to the first embodiment, the following effects can be obtained.
(1) In the above embodiment, the
(2)上記実施形態では、制御部16は、第2ユーザ102によって指定された指定表示範囲112を特定する。そして、制御部16は、指定表示範囲112を第1仮想空間画像120に反映させる。従って、第2ユーザ102は、HMD11を装着することなく、任意の範囲を第1ユーザ101に指し示すことができる。
(2) In the above embodiment, the
(3)上記実施形態では、制御部16は、指定表示範囲112と注目範囲111が重複していない場合には、移動オブジェクト115を非表示状態でHMD11に出力し、指定表示範囲112と注目範囲111とが重複している場合には、その重複部分に含まれる移動オブジェクト115を表示状態としてHMD11に出力する。つまり、第2ユーザ102によって移動オブジェクト115を含む任意の範囲が指定され、第1ユーザ101が指定された範囲を注目範囲111に含めることによって、第1ユーザに移動オブジェクト115を視認させることができる。従って、第1ユーザ101及び第2ユーザ102は協力してゲームを進行させることができる。
(3) In the above embodiment, when the designated
(4)上記実施形態では、制御部16は、第1仮想空間画像のうち、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、それ以外の範囲の明度、彩度及び色相と異ならせた状態でHMD11に出力する。これによれば、HMD11を装着した第1ユーザ101は、タッチパネルディスプレイ13で指定された範囲と、それ以外の範囲とを見分けることができる。また、制御部16は、第2ユーザ102によってタッチパネルディスプレイ13で指定された範囲を光が照射されたように表示させるので、当該範囲を線で囲んで第1ユーザ101に指し示す場合等に比べ、第1ユーザ101の没入感の低下を抑制することができる。
(4) In the above embodiment, the
(5)上記実施形態では、制御部16は、注目範囲111と指定表示範囲112との重複部分に含まれる移動オブジェクト115のみに対する第2のアクションを有効とした。従って、第2のアクションを有効に行なうためには、第2ユーザ102によって指定される指定表示範囲112に移動オブジェクト115を含めることが前提となるため、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。
(5) In the above embodiment, the
(6)上記実施形態では、制御部16は、第1仮想空間画像120の水平視野角αよりも、第2仮想空間画像121の水平視野角βを小さくした。従って、第1ユーザ101は、仮想空間内の狭い範囲で第2のアクションのための操作を行なう必要があるため、第2のアクションの難度が高くなり、第2ユーザ102の支援が必要となる。従って、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。
(6) In the above embodiment, the
(7)上記実施形態では、制御部16は、タッチパネルディスプレイ13には、移動オブジェクト115を常時表示させる。これにより、第1ユーザ101が移動オブジェクト115を見つけるためには、第2ユーザ102が指定表示範囲112を指定することによって、移動オブジェクト115の位置情報を提供することが前提となる。従って、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。
(7) In the above embodiment, the
(8)上記実施形態では、制御部16は、HMD11に出力する第1仮想空間画像120において移動オブジェクト115を移動させる。また制御部16は、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき、第1仮想空間画像120及びタッチパネルディスプレイ13に出力される第2仮想空間画像121において移動オブジェクト115の移動を停止させる。これによれば、第1ユーザ101は、移動が停止された移動オブジェクト115に対して第2のアクションである狙撃を行ないやすくなる。これにより、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。
(8) In the above embodiment, the
(9)上記実施形態では、制御部16は、タッチパネルディスプレイ13の画面上での接触点の近傍の移動オブジェクト115を特定し、当該移動オブジェクト115に対してのみ移動を停止させる。つまり、1つの接触点で1つの移動オブジェクト115の移動を停止させることができる。第2ユーザ102は、移動を停止させたい移動オブジェクト115の近傍をタッチすればよく、移動を停止させるための動作を直感的に理解しやすい。また、複数の移動オブジェクト115の移動を停止する場合は、移動オブジェクト115の数と同じ数だけ接触点が必要となる。従って、停止させたい移動オブジェクト115の数に応じて移動オブジェクトを停止させる難度を上げることができる。
(9) In the above embodiment, the
(10)上記実施形態では、制御部16は、移動オブジェクト115を表示状態とし仮想空間を俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力する。従って、第2ユーザ102は、仮想空間内に含まれる移動オブジェクト115の位置や状態を把握することができる。このため、第2のアクションである狙撃のねらいとする移動オブジェクト115を指定表示範囲112に含めやすい。また、第2ユーザ102は、指定表示範囲112と移動オブジェクト115との位置関係を把握しやすい。
(10) In the above embodiment, the
(第2実施形態)
次に、本発明を具体化した第2実施形態を説明する。なお、第2実施形態は、第1実施形態における第1のアクションを変更した構成であるため、同様の部分については同一符号を付してその詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment embodying the present invention will be described. Since the second embodiment has a configuration in which the first action in the first embodiment is modified, the same parts are designated by the same reference numerals and detailed description thereof will be omitted.
第1実施形態では、第1のアクションを指定表示範囲112の特定としたが、本実施形態では、第1のアクションを第2ユーザ102の操作に基づく移動オブジェクト115の選択とする。なお、本実施形態では、HMD11に出力される第1仮想空間画像120の初期状態は、少なくとも移動オブジェクト115が非表示状態であればよい。つまり、本実施形態の第1仮想空間画像120は、「暗闇」のような明度が低い表示状態でなくてもよい。
In the first embodiment, the first action is specified as the designated
図11に示すように、タッチパネルディスプレイ13に表示されている第2仮想空間画像121には、移動オブジェクト115が表示されている。第2ユーザ102は、移動オブジェクト115をタッチ操作で指定する。なお、図11では、接触位置P10が一つである例を示しているが、接触位置は複数であってもよい。
As shown in FIG. 11, the moving
制御部16は、タッチパネルディスプレイ13から接触位置P10の座標を取得し、オブジェクト位置情報21に基づき、接触位置P10の座標との相対距離が所定距離以下である移動オブジェクト115があるか否かを判断する。
The
制御部16は、接触位置P10との相対距離が所定距離以下である移動オブジェクト115が存在すると判断すると、その移動オブジェクト115を第1仮想空間画像120上で表示状態として、HMD11の表示部32及びメインディスプレイ12に出力する。なお、本実施形態では、第1実施形態のように、接触位置P10の近傍の移動オブジェクト115の移動の停止の処理は行なわない。
When the
制御部16は、接触位置P10と移動オブジェクト115との相対距離が所定距離以下である状態が維持されている間は、その移動オブジェクト115を第1仮想空間画像上で表示し続ける。一方、第2ユーザ102がタッチ操作を続けても、移動オブジェクト115の移動に伴って接触位置P10と移動オブジェクト115との相対距離が所定距離を超えると、制御部16は、その移動オブジェクト115を非表示状態とする。
The
このように本実施形態では、第2ユーザ102によって選択された移動オブジェクト115を、第1仮想空間画像120に表示させるので、移動オブジェクト115を指定する作業がより細かい作業となる。その結果、第1ユーザ101及び第2ユーザ102の密な連携が必要となり、ゲームの難度を好適なものとして興趣を高めることができる。
As described above, in the present embodiment, since the moving
以上説明したように、第2実施形態によれば、第1実施形態に記載した(1)の効果に加えて、以下の効果が得られるようになる。
(11)上記実施形態では、制御装置15の制御部16は、第2ユーザ102によって選択された移動オブジェクト115を特定する。そして、制御部16は、第2ユーザ102によって選択された移動オブジェクト115を第1仮想空間画像120に表示させる。従って、第2ユーザ102は、HMD11を装着することなく、選択した移動オブジェクト115を第1ユーザ101に指し示すことができる。
As described above, according to the second embodiment, the following effects can be obtained in addition to the effect of (1) described in the first embodiment.
(11) In the above embodiment, the
(第3実施形態)
次に、本発明を具体化した第3実施形態を説明する。なお、第3実施形態は、第1実施形態における指定表示範囲を可変とする構成であるため、同様の部分については同一符号を付してその詳細な説明を省略する。
(Third Embodiment)
Next, a third embodiment embodying the present invention will be described. Since the third embodiment has a configuration in which the designated display range in the first embodiment is variable, the same reference numerals are given to the same parts and detailed description thereof will be omitted.
第1実施形態では、第2ユーザ102がタッチ操作によってタッチパネルディスプレイ13に表示させた範囲の全体を指定表示範囲112としたが、本実施形態では、第2ユーザ102のタッチ操作によって指定表示範囲112の大きさや位置を変更可能とする。
In the first embodiment, the entire range displayed on the
図12に示すように、第2ユーザ102は、指定表示範囲112を、2本の指を近づけるように画面をなぞるピンチイン操作、又は2本の指を遠ざけるように画面をなぞるピンチアウト操作等を行なうことによってその大きさや位置を変更する。指定表示範囲112は、初期状態では画面全体であり、制御部16は、ピンチイン操作が行なわれるとピンチイン操作の軌跡に基づき指定表示範囲112を縮小し、ピンチアウト操作が行なわれるとピンチアウト操作の軌跡に基づき縮小された指定表示範囲112を拡大する。また、ピンチイン操作又はピンチアウト操作をした後に、2本の指を画面に接触させたまま移動すると、制御部16は、その操作の入力軌跡に基づいて、指定表示範囲112の大きさを維持したまま、指定表示範囲112を画面内で移動させる。なお、指定表示範囲112の移動に伴い、光源位置(原点)を移動させてもよい。
As shown in FIG. 12, the
また、指定表示範囲112を縮小させることによって、移動オブジェクト115に対する特殊効果を発生させてもよい。例えば、指定表示範囲112の縮小が開始される時点で指定表示範囲112に含まれる移動オブジェクト115を、指定表示範囲112の外側に移動させないようにしてもよい。その結果、指定表示範囲112を縮小することで、指定表示範囲112に含まれる移動オブジェクト115を縮小された指定表示範囲112に集めることができる。このように狭い範囲に移動オブジェクト115が集められると、第1ユーザ101は、一度に多くの移動オブジェクト115に対して狙撃を行ないやすい。
Further, by reducing the designated
ピンチイン操作が行なわれたとき、制御部16は、タッチ操作の入力軌跡に基づき、その入力軌跡の長さや角度に応じて、指定表示範囲112を縮小する。また、制御部16は、縮小された指定表示範囲112の明度、彩度及び色相をそれ以外の範囲と異なる変更状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。このとき、第2仮想空間画像121には、初期状態の部分、例えば「暗闇」が表現された明度や彩度の低い部分も表示されることとなる。このとき、制御部16は、初期状態の部分に含まれる移動オブジェクト115を表示状態としてもよいし、非表示状態としてもよい。
When the pinch-in operation is performed, the
また、制御部16は、第1ユーザ101の注目範囲111と指定表示範囲112の重複部分があるか否かを判断し、重複部分がある場合には、その重複部分を変更状態とし、それ以外の部分を初期状態とした第1仮想空間画像120を、HMD11の表示部32及びメインディスプレイ12に出力する。
Further, the
第2ユーザ102は、第1ユーザ101による狙撃が有効に行なわれること等によって、指定表示範囲112に含まれる移動オブジェクト115がなくなるか又は減少すると、指定表示範囲112を拡大するピンチアウト操作をタッチパネルディスプレイ13の画面上で行なう。ピンチアウト操作が行なわれたとき、制御部16は、タッチ操作の入力軌跡を入力して、その入力軌跡の長さや角度に応じて、指定表示範囲112を拡大する。また、制御部16は、拡大された指定表示範囲112を変更状態とし、それ以外の部分を初期状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。これにより、指定表示範囲112には、新たな移動オブジェクト115が含まれるようになる。
The
以上説明したように、第3実施形態によれば、第1実施形態に記載した(1)~(10)の効果に加えて、以下の効果が得られるようになる。
(12)上記実施形態では、制御部16は、タッチパネルディスプレイ13の画面でのタッチ操作に基づき、指定表示範囲112の大きさや位置を変更するため、例えば画面の一部のみを指し示すことができる。
As described above, according to the third embodiment, the following effects can be obtained in addition to the effects (1) to (10) described in the first embodiment.
(12) In the above embodiment, the
(第4実施形態)
次に、本発明を具体化した第4実施形態を説明する。なお、第4実施形態は、タッチパネルディスプレイで移動オブジェクトを非表示状態とし、操作部の操作に応じて移動オブジェクトを第2仮想空間画像に表示する構成であるため、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
(Fourth Embodiment)
Next, a fourth embodiment embodying the present invention will be described. Since the fourth embodiment is configured to hide the moving object on the touch panel display and display the moving object on the second virtual space image according to the operation of the operation unit, the same portion as that of the first embodiment. The same reference numerals are given to the above, and detailed description thereof will be omitted.
第1実施形態では、第1のアクションを第2ユーザ102の操作に基づく指定表示範囲112の特定とし、第2のアクションを第1ユーザの操作に基づく移動オブジェクト115に対する狙撃とした。本実施形態では、第1のアクションを第1ユーザ101による移動オブジェクト115の選択とし、第2のアクションを、第2ユーザ102のタッチパネルディスプレイ13のタッチ操作に基づく移動オブジェクト115に対する攻撃とする。
In the first embodiment, the first action is to specify the designated
図13に示すように、制御部16は、移動オブジェクト115を常に表示状態とした第1仮想空間画像120をHMD11の表示部32及びメインディスプレイ12に出力する。第1ユーザ101によって操作される操作部14は、方向の変更、オン操作及びオフ操作のできるコントローラや、グローブ型のコントローラである。第1ユーザ101は、操作部14を操作して、仮想空間内の移動オブジェクト115を選択する。具体的には、制御部16は、第1仮想空間画像120に表示された懐中電灯等の光源130の向きを操作部14の操作によって変更して、移動オブジェクト115に光を照射することによって移動オブジェクト115を選択する。又は、仮想空間内の網や入れ物等の道具を使用して、移動オブジェクト115を捕獲する。
As shown in FIG. 13, the
制御部16は、操作部14から出力された信号を入力するとともに、オブジェクト位置情報21に基づき移動オブジェクト115が選択されたか否かを判断する。制御部16は、移動オブジェクト115が選択されたと判断すると、選択された移動オブジェクト115を表示状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。
The
タッチパネルディスプレイ13に出力された第2仮想空間画像121には、初期状態では、移動オブジェクト115が非表示状態とされている。第2仮想空間画像121上で、第1ユーザ101によって選択された移動オブジェクト115が表示状態とされると、第2ユーザは、表示状態とされた移動オブジェクト115をタッチ操作して攻撃を行なう。制御部16は、タッチパネルディスプレイ13から入力した信号に基づき、移動オブジェクト115に対する攻撃が行なわれたと判断すると、移動オブジェクト115に対する攻撃を、第1仮想空間画像120に反映して、HMD11及びメインディスプレイ12に出力する。
In the second
以上説明したように、第4実施形態によれば、以下の効果が得られるようになる。
(13)上記実施形態では、第1ユーザ101は、移動オブジェクト115を選択して、選択した移動オブジェクト115を第2仮想空間画像121上で表示状態とさせる。第2ユーザ102はHMD11を装着することなく、仮想空間で表示状態とされた移動オブジェクト115を攻撃することができる。従って、第1ユーザ101及び第2ユーザ102は協力してゲームを進めることができる。
As described above, according to the fourth embodiment, the following effects can be obtained.
(13) In the above embodiment, the
(他の実施形態)
なお、上記各実施形態は、以下のように適宜変更して実施することもできる。
・上記各実施形態では、制御部16は、第2ユーザ102に対応するキャラクタ116の位置を、第1ユーザ101の鉛直方向上方の位置とした。これに代えて、例えば第2ユーザ102によるタッチパネルディスプレイ13の画面上でのタッチ操作に基づき、キャラクタ116の位置を変更するようにしてもよい。
(Other embodiments)
It should be noted that each of the above embodiments can be appropriately modified and implemented as follows.
In each of the above embodiments, the
・上記各実施形態では、第2仮想空間画像の水平視野角βを、第1仮想空間画像の水平視野角αよりも小さくした。これに代えて、第2仮想空間画像の水平視野角βを、第1仮想空間画像120の水平視野角αと同じとするか、若しくは第1仮想空間画像の水平視野角αよりも大きくしてもよい。このようにすると、指定表示範囲112を見つけやすくすることができるため、例えばオブジェクトを探し当てる難度を低くしたい場合に有効である。同様に、第2仮想空間画像の垂直視野角を、第2仮想空間画像の垂直視野角よりも小さくしてもよい。若しくは、第2仮想空間画像の垂直視野角以上としてもよい。
-In each of the above embodiments, the horizontal viewing angle β of the second virtual space image is made smaller than the horizontal viewing angle α of the first virtual space image. Instead, the horizontal viewing angle β of the second virtual space image is set to be the same as the horizontal viewing angle α of the first
・上記各実施形態では、制御部16は、第1ユーザ101の注目範囲をメインディスプレイ12に第1仮想空間画像として表示させた。これに代えて若しくは加えて、制御部16は、例えば第1ユーザ101の注目範囲111を第2仮想空間画像121に表示させてもよい。注目範囲111は、線で囲むことで指し示してもよいし、第2仮想空間画像121の背景に対して明度、彩度及び色相の少なくとも一つを異ならせて表示させてもよい。この場合、第2ユーザ102が視認するメインディスプレイ12を省略することも可能である。
-In each of the above embodiments, the
・上記各実施形態では、制御部16は、仮想空間を俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力するようにした。但し、仮想空間内のオブジェクトの位置を把握し易い場合等には、俯瞰画像122の表示を省略してもよい。
-In each of the above embodiments, the
・上記各実施形態では、制御部16は、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、指定表示範囲112以外の部分の明度、彩度及び色相と異ならせて表示させた。これ以外に、第1のアクションとして、指定表示範囲112を、画像に表示される線で囲んで表示させたり、矢印等のマークを表示させたりしてもよい。
In each of the above embodiments, the
・上記各実施形態では、制御部16は、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、指定表示範囲112以外の部分の明度、彩度及び色相と異ならせて第1仮想空間画像及び第2仮想空間画像上に表示させた。これに加えて、制御部16は、時間の経過に伴い、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、時間の経過に伴い変化させて表示させるようにしてもよい。具体的には、制御部16が、指定表示範囲112を、光が照射されているような明度、彩度及び色相で表示させている場合、時間の経過に伴って指定表示範囲112を暗くしたり、初期状態の光とは異なる色の光が照射されるようにしたりするように、明度、彩度及び色相の少なくとも一つを変更させてもよい。
In each of the above embodiments, the
・上記各実施形態では、制御部16は、第2ユーザ102によるタッチパネルディスプレイ13上の接触位置に基づき、第1のアクションとして、移動オブジェクト115の移動を停止させた。これに代えて若しくは加えて、制御部16は、タッチパネルディスプレイ13の画面に表示されたアイテムの選択操作に基づいて、移動オブジェクト115の移動を停止させてもよい。例えば、タッチパネルディスプレイ13の画面に表示された特殊アイテムが選択された場合、タッチパネルディスプレイ13の画面に表示されている全ての移動オブジェクト115の動きを停止させてもよい。また、アイテムが、移動オブジェクト115の近傍までドラッグアンドドロップ操作された場合、その移動オブジェクト115の移動を停止させるようにしてもよい。
In each of the above embodiments, the
・上記各実施形態では、制御部16は、第2ユーザ102によるタッチパネルディスプレイ13上の接触位置に基づき、第1のアクションとして、移動オブジェクト115の移動を停止させた。これに代えて若しくは加えて、1つの接触位置に対応する所定範囲内に含まれる移動オブジェクトの移動を停止させてもよい。1つの接触位置に対応する所定範囲とは、例えば接触位置を中心とする円形状の範囲、又は接触位置を起点(隅部)とする矩形状、扇状等である。若しくは、スワイプ操作や、2本の指でタップする等して所定範囲を選択してもよい。
In each of the above embodiments, the
・上記各実施形態では、常に移動する移動オブジェクト115に対して第2のアクションが行なわれるようにした。これに代えて若しくは加えて、仮想空間内の所定の固定位置に配置されたオブジェクトに対して第2のアクションが行なわれるようにしてもよい。このようなオブジェクトとしては、例えば、仮想空間内に配置された箱、扉、楽器等である。この場合、第2のアクションを、例えば、箱の蓋を開ける、扉を開く、楽器を演奏する等のアクションとする。
-In each of the above embodiments, the second action is performed on the moving
・上記各実施形態では、注目範囲111及び指定表示範囲112の重複部分に含まれない移動オブジェクト115には、第2のアクションを不可能とするか、又は第2のアクションが行なわれても無効とした。これに代えて、重複部分に含まれないオブジェクトにも、第2のアクションが行なわれてもよい。この場合、例えば重複部分に含まれるオブジェクトを、照準を合わせやすいように明瞭に表示し、重複部分に含まれないオブジェクトは照準を合わせやすい不明瞭に表示するようにしてもよい。また、重複部分に含まれないオブジェクトに有効なアクションを行なった場合には、重複部分に含まれるオブジェクトに有効なアクションを行なった場合よりも得点を高くするようにしてもよい。
-In each of the above embodiments, the moving
・上記各実施形態では、HMD11の表示部32及びメインディスプレイ12に出力される第1仮想空間画像で所定オブジェクト(移動オブジェクト115)を非表示状態とした。これに代えて、第2のアクションの対象となるオブジェクトを第1仮想空間画像で表示状態としてもよい。この場合、例えば、注目範囲111及び指定表示範囲112の重複部分の表示態様をそれ以外の部分と異なる態様で表示し、その重複部分に含まれる移動オブジェクト115のみ第2のアクションを有効とするようにしてもよい。このようにしても、重複部分に含まれる所定のオブジェクトに対してのみ第2のアクションが有効とされるので、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。
In each of the above embodiments, the predetermined object (moving object 115) is hidden in the first virtual space image output to the
若しくは、第1仮想空間画像及び第2仮想空間画像の間で、オブジェクト又はオブジェクトを含む仮想空間画像の表示の態様を異ならせてもよい。例えば、第2仮想空間画像では、拡大及び縮尺が可能、又は任意の角度でオブジェクトを表示することが可能であるが、第1仮想空間画像では、拡大及び縮尺が不可能、又は一定の角度でしかオブジェクトを表示できない。若しくは、第2仮想空間画をオブジェクトを含む仮想空間を俯瞰した俯瞰画像とし、第1仮想空間画像では、俯瞰画像が表示されないようにしてもよい。若しくは、第2仮想空間画像では、透過、エッジ抽出等、所定の画像処理を行なうことができるが、第1仮想空間画像では、所定の画像処理を行なうことができないようにしてもよい。 Alternatively, the display mode of the object or the virtual space image including the object may be different between the first virtual space image and the second virtual space image. For example, in the second virtual space image, it is possible to enlarge and scale, or the object can be displayed at any angle, but in the first virtual space image, it is impossible to enlarge and scale, or at a certain angle. Only objects can be displayed. Alternatively, the second virtual space image may be a bird's-eye view image of the virtual space including the object, and the bird's-eye view image may not be displayed in the first virtual space image. Alternatively, the second virtual space image can perform predetermined image processing such as transparency and edge extraction, but the first virtual space image may not be able to perform predetermined image processing.
図14及び図15は、第2仮想空間画像を、オブジェクトを含む仮想空間を俯瞰した俯瞰画像とし、第1仮想空間画像を俯瞰画像以外の画像とした例である。例えば、第1ユーザ101及び第2ユーザ102によって行なわれるゲームは、立体図形を組み合わせるパズルゲームである。図14に示すように、制御部16は、第1ユーザ101の姿勢に応じて、オブジェクトである立体図形150を含む仮想空間の画像である第1仮想空間画像120をHMD11等に出力する。立体図形150は、立方体、直方体以外にも、三角柱、円錐、球状等、特に限定されない。第1ユーザ101は、操作部14を操作して、立体図形を組み合わせる。なお、所定数以上の立体図形150が組み合わされた場合には、立体図形150の組み合わせにより形成されたパターン全体を第1仮想空間画像120の視野角に含めることは難しい。このため、第1ユーザ101の目標とするパターンを形成する際に、立体図形150を配置すべき位置、及び配置すべき立体図形150の種類の少なくとも一方について判断しにくい。
14 and 15 are examples in which the second virtual space image is a bird's-eye view image of a virtual space including an object, and the first virtual space image is an image other than the bird's-eye view image. For example, the game played by the
図15に示すように、制御部16は、立体図形150が組み合わされて形成されたパターンを俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力する。第2ユーザ102は、俯瞰画像122でパターン全体を視認することができるので、どの位置にどの立体図形150を配置すればよいのかを容易に判断することができる。
As shown in FIG. 15, the
また、図15に示すように、例えば第2ユーザ102がタッチパネルディスプレイ13の画面の所定の位置をタッチすると、図14に示すように、制御部16は、第1仮想空間画像120に、立体図形150を配置すべき位置を、指示位置マーク151で表示させる(第1のアクション)。若しくは、指示位置マーク151以外にも、立体図形150を配置すべき位置を、それ以外の部分の表示態様とは異なる態様で表示させてもよい。制御部16は、第1ユーザ101の操作部14の操作に基づく位置に立体図形150を配置する(第2のアクション)。
Further, as shown in FIG. 15, for example, when the
また、立体図形150の種類の並びに基づきアクションを行なうパズルゲームでは、例えば、第2ユーザ102が、立体図形150の種類を選択するための表示領域153から、任意の立体図形150を選択し、その立体図形150を配置すべき位置をタッチする(図15参照)。図14に示すように、制御部16は、配置すべき立体図形150の種類を種類識別マーク152で表示させる(第1のアクション)。さらに、立体図形150を配置すべき位置を、指示位置マーク151等で表示させてもよい。第1ユーザ101は、操作部14を操作して、種類識別マーク152で指し示された立体図形150を、指示位置マーク151で指し示された位置に配置する。
Further, in a puzzle game in which an action is performed based on the arrangement of the types of the three-dimensional figure 150, for example, the
・上記各実施形態では、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき仮想空間内の範囲を指定表示範囲112として指定した。これに代えて、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき仮想空間内の方向や任意の位置を指し示すようにしてもよい。
-In each of the above embodiments, as the first action, the range in the virtual space is designated as the designated
図16は、迷路ゲームで出力される画面の例を示している。図16(a)に示すように、制御部16は、第1仮想空間画像120として、仮想空間内に設けられた立体迷路160の画像をHMD11の表示部32等に表示させる。制御部16は、ユーザの体勢に応じて第1仮想空間画像120を出力するとともに、操作部14の操作、又はセンサによって検出されたユーザ位置に基づき、立体迷路160内を進むように第1仮想空間画像120を変更する。図16(b)に示すように、制御部16は、第2仮想空間画像121として、立体迷路160の俯瞰画像をタッチパネルディスプレイ13に表示させる。制御部16は、第2仮想空間画像121に第1ユーザ101の位置161を表示させる。第2ユーザ102は、第2仮想空間画像121を視認しつつ、例えば第1ユーザ101が進むべき方向を第1ユーザ101の進行に合わせて指でなぞる。制御部16は、タッチパネルディスプレイ13から、タッチ操作に応じた入力軌跡を取得し、その入力軌跡に沿って、第1仮想空間画像120に指示された方向を表示する(第1のアクション)。例えば、第2ユーザ102が指示する方向は、第1仮想空間画像120上で、背景に対して明度、彩度及び色相を異ならせた光として表示させてもよいし、矢印等の指標として表示してもよい。第1ユーザ101は、第1仮想空間画像120上で指示された方向を参考にして、操作部14の操作等により立体迷路160内を進む。
FIG. 16 shows an example of a screen output in the maze game. As shown in FIG. 16A, the
・上記各実施形態では、第1ユーザ101の頭部の位置及び向きを検出するHMD11に加え、現実空間での第1ユーザ101の位置を検出する位置検出センサを設けるようにしてもよい。制御部16は、第1ユーザ101の頭部の位置及び向きだけでなく、位置検出センサにより第1ユーザ101が立つ位置を検出し、第1ユーザ101が立つ位置に応じて仮想空間の画像情報をレンダリングして第1仮想空間画像を表示する。このようにすると、第1ユーザ101の移動に伴って第1仮想空間画像が変更されるため、さらに没入感を高めることができる。
In each of the above embodiments, in addition to the
・上記各実施形態では、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するゲームを、所定のオブジェクトを狙撃するゲームに具体化した。これに代えて、探検ゲーム、カードゲーム、レーシングゲーム、格闘ゲーム、シュミレーションゲーム、ロールプレイングゲーム等の他のゲームに具体化してもよい。また、オブジェクトに対するアクションとしては、「狙撃」に限定されることなく、例えば、変形させる、投げる、打つ、飛散させる、分割する、回転させる、移動させる等のその他のアクションであってもよい。
-In each of the above embodiments, the game of outputting the image of the virtual space to the
・上記各実施形態では、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するアプリケーションを、ゲームに具体化した。これに代えて、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するアプリケーションを医療分野、教育分野等、ゲーム以外の分野で用いられるシミュレーションを行なうアプリケーション、トレーニングを行なうアプリケーション等、ゲーム以外のアプリケーションとしてもよい。
-In each of the above embodiments, an application that outputs an image of a virtual space to the
次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
〔a〕第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力する制御部を用いて仮想空間の画像を出力するアプリケーション制御プログラムにおいて、前記制御部を、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力し、前記第2ユーザの入力操作に基づき前記仮想空間の表示範囲を決定し、前記第2ユーザが用いるディスプレイに前記決定した表示範囲の仮想空間の画像を出力し、前記仮想空間に対する前記第2ユーザの操作を受け付けて、前記仮想空間内で第1のアクションを行ない、前記装着ディスプレイに、前記第1のアクションが反映された前記仮想空間の画像を出力し、前記第1ユーザによる操作部での操作に応じて、前記第1のアクションが反映された前記仮想空間内で第2のアクションを行なう手段として機能させることを特徴とするアプリケーション制御プログラム。
〔b〕前記第1のアクションを行なう手段は、前記第1のアクションとして、前記第2ユーザの入力操作に基づきオブジェクトの移動を制御する〔a〕に記載のアプリケーション制御プログラム。
〔c〕前記第1のアクションを行なう手段は、前記第1のアクションとして、前記第2ユーザの入力操作に基づきオブジェクトを選択する〔a〕又は〔b〕に記載のアプリケーション制御プログラム。
〔d〕前記制御部を、前記装着ディスプレイに出力する前記仮想空間の画像において、前記第2のアクションの対象となる移動オブジェクトを移動させる手段としてさらに機能させ、前記第1のアクションを行なう手段は、前記第1のアクションとして、前記ディスプレイの操作に基づき前記移動オブジェクトの移動を停止させ、前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記装着ディスプレイに出力する画像において前記移動オブジェクトの移動を停止させる〔a〕~〔c〕のいずれか1項に記載のアプリケーション制御プログラム。
〔e〕前記第1のアクションを行なう手段は、前記ディスプレイの画面上での接触点の近傍の前記移動オブジェクトを特定し、当該移動オブジェクトに対してのみ移動を停止させる〔d〕に記載のアプリケーション制御プログラム。
〔f〕前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記決定した表示範囲と前記第1ユーザの姿勢に応じた注目範囲とが重複している場合には、その重複部分に含まれる所定のオブジェクトを表示状態とし、前記重複部分に含まれない前記所定のオブジェクトがある場合には、その所定のオブジェクトを非表示状態として前記装着ディスプレイに出力する〔a〕~〔e〕のいずれか1項に記載のアプリケーション制御プログラム。
〔g〕前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記決定した表示範囲の明度、彩度及び色相の少なくとも一つを、それ以外の範囲の明度、彩度及び色相と異ならせた状態で前記装着ディスプレイに出力する〔f〕に記載のアプリケーション制御プログラム。
〔h〕前記第2のアクションを行なう手段は、前記決定した表示範囲と前記第1ユーザの姿勢に応じた注目範囲との重複部分に含まれる所定のオブジェクトに対してのみ第2のアクションを有効とする〔f〕又は〔g〕に記載のアプリケーション制御プログラム。
〔i〕前記ディスプレイに前記仮想空間の画像を出力する手段は、前記第2のアクションの対象となる所定のオブジェクトを表示状態で出力する〔f〕~〔h〕のいずれか1項に記載のアプリケーション制御プログラム。
〔j〕前記第1のアクションが反映された前記仮想空間の画像を出力する手段は、前記装着ディスプレイにおいて出力される前記仮想空間の画像の水平方向の視野角よりも、前記決定した表示範囲の水平方向の視野角を小さくする〔a〕~〔i〕のいずれか1項に記載のアプリケーション制御プログラム。
〔k〕前記ディスプレイに前記仮想空間の画像を出力する手段は、前記仮想空間を俯瞰し、且つ前記第2のアクションの対象となる所定のオブジェクトを表示状態とした画像を出力する手段としてさらに機能させる請求項〔a〕~〔j〕のいずれか1項に記載のアプリケーション制御プログラム。
〔l〕第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力する制御部を用いて仮想空間の画像を出力するアプリケーション制御方法において、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力し、前記第2ユーザの入力操作に基づき前記仮想空間の表示範囲を決定し、前記第2ユーザに用いるディスプレイに前記決定した表示範囲の仮想空間の画像を出力し、前記仮想空間に対する前記第2ユーザの操作を受け付けて、前記仮想空間内で第1のアクションを行ない、前記装着ディスプレイに、前記第1のアクションが反映された前記仮想空間の画像を出力し、前記第1ユーザによる操作部での操作に応じて、前記第1のアクションが反映された前記仮想空間内で第2のアクションを行なうことを特徴とするアプリケーション制御方法。
〔m〕第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力する制御部を備えた仮想空間の画像を出力するアプリケーション制御システムにおいて、前記制御部が、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力し、前記第2ユーザの入力操作に基づき前記仮想空間の表示範囲を決定し、前記第2ユーザが用いるディスプレイに前記決定した表示範囲の仮想空間の画像を出力し、前記仮想空間に対する前記第2ユーザの操作を受け付けて、前記仮想空間内で第1のアクションを行ない、前記装着ディスプレイに、前記第1のアクションが反映された前記仮想空間の画像を出力し、前記第1ユーザによる操作部での操作に応じて、前記第1のアクションが反映された前記仮想空間内で第2のアクションを行なうことを特徴とするアプリケーション制御システム。
Next, the technical ideas that can be grasped from the above-described embodiment and other examples will be added below together with their effects.
[A] In an application control program that outputs an image of a virtual space using a wearable display worn by a first user and a control unit that outputs an image to a display used by the second user, the control unit is used as the first user. The image of the virtual space is output to the mounted display, the display range of the virtual space is determined based on the input operation of the second user, and the determined display is displayed on the display used by the second user. An image of the virtual space in the range is output, the operation of the second user with respect to the virtual space is received, the first action is performed in the virtual space, and the first action is reflected on the mounted display. It is characterized in that it outputs an image of the virtual space and functions as a means for performing a second action in the virtual space in which the first action is reflected in response to an operation by the operation unit by the first user. The application control program to be.
[B] The application control program according to [a], wherein the means for performing the first action is, as the first action, controlling the movement of an object based on an input operation of the second user.
[C] The application control program according to [a] or [b], wherein the means for performing the first action selects an object based on an input operation of the second user as the first action.
[D] The means for further functioning the control unit as a means for moving a moving object that is the target of the second action in the image of the virtual space output to the mounted display, and performing the first action. As the first action, the means for stopping the movement of the moving object based on the operation of the display and outputting the image of the virtual space reflecting the first action is an image to be output to the mounted display. The application control program according to any one of [a] to [c], which stops the movement of the moving object in the above.
[E] The application according to [d], wherein the means for performing the first action identifies the moving object in the vicinity of the contact point on the screen of the display and stops the movement only for the moving object. Control program.
[F] When the means for outputting the image of the virtual space reflecting the first action overlaps the determined display range and the attention range according to the posture of the first user, the means may overlap. A predetermined object included in the overlapping portion is displayed, and if there is a predetermined object not included in the overlapping portion, the predetermined object is hidden and output to the mounted display [a] to The application control program according to any one of [e].
[G] The means for outputting the image of the virtual space reflecting the first action is to set at least one of the brightness, saturation and hue of the determined display range, and the brightness and saturation of the other range. The application control program according to [f], which outputs to the mounted display in a state different from the hue.
[H] The means for performing the second action is effective only for a predetermined object included in the overlapping portion between the determined display range and the attention range according to the posture of the first user. The application control program according to [f] or [g].
[I] The means for outputting an image of the virtual space to the display is described in any one of [f] to [h], which outputs a predetermined object to be the target of the second action in a display state. Application control program.
[J] The means for outputting the image of the virtual space reflecting the first action has the determined display range rather than the horizontal viewing angle of the image of the virtual space output on the mounted display. The application control program according to any one of [a] to [i], which reduces the viewing angle in the horizontal direction.
[K] The means for outputting the image of the virtual space to the display further functions as a means for outputting an image in which the predetermined object to be the target of the second action is displayed in a bird's-eye view of the virtual space. The application control program according to any one of claims [a] to [j].
[L] In an application control method for outputting an image of a virtual space using a wearable display worn by a first user and a control unit that outputs an image to a display used by the second user, the control unit is the first user. The image of the virtual space is output to the mounted display, the display range of the virtual space is determined based on the input operation of the second user, and the determined display is displayed on the display used for the second user. An image of the virtual space in the range is output, the operation of the second user with respect to the virtual space is received, the first action is performed in the virtual space, and the first action is reflected on the mounted display. An application control characterized in that an image of the virtual space is output and a second action is performed in the virtual space in which the first action is reflected in response to an operation in the operation unit by the first user. Method.
[M] In an application control system that outputs an image of a virtual space including a wearable display worn by a first user and a control unit that outputs an image to a display used by the second user, the control unit is the first user. The image of the virtual space is output to the mounted display, the display range of the virtual space is determined based on the input operation of the second user, and the determined display is displayed on the display used by the second user. An image of the virtual space in the range is output, the operation of the second user with respect to the virtual space is received, the first action is performed in the virtual space, and the first action is reflected on the mounted display. An application control characterized in that an image of the virtual space is output and a second action is performed in the virtual space in which the first action is reflected in response to an operation in the operation unit by the first user. system.
11…装着ディスプレイとしてのヘッドマウントディスプレイ(HMD)、12…メインディスプレイ、13…タッチパネルディスプレイ、14…操作部、15…制御装置、16…制御部、17…記憶部、18…ゲーム管理情報、19…注目点情報、20…指定表示範囲情報、21…オブジェクト位置情報、22…接触位置情報、24…注視位置特定部、25…画像情報記憶部、30…HMD制御部、31…トラッキングセンサ、32…表示部、101…第1ユーザ、102…第2ユーザ、110…仮想空間、111…注目範囲、112…指定表示範囲、114…注目点、115…移動オブジェクト、116…キャラクタ、118…光線、120…第1仮想空間画像、121…第2仮想空間画像、122…俯瞰画像、125…重複部分。
11 ... Head-mounted display (HMD) as a mounted display, 12 ... Main display, 13 ... Touch panel display, 14 ... Operation unit, 15 ... Control device, 16 ... Control unit, 17 ... Storage unit, 18 ... Game management information, 19 ... Attention point information, 20 ... Designated display range information, 21 ... Object position information, 22 ... Contact position information, 24 ... Gaze position specifying unit, 25 ... Image information storage unit, 30 ... HMD control unit, 31 ... Tracking sensor, 32 ... display unit, 101 ... first user, 102 ... second user, 110 ... virtual space, 111 ... attention range, 112 ... designated display range, 114 ... attention point, 115 ... moving object, 116 ... character, 118 ... ray, 120 ... 1st virtual space image, 121 ... 2nd virtual space image, 122 ... bird's-eye view image, 125 ... overlapping part.
Claims (4)
1又は複数のコンピュータに、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに、複数の種類に分類され且つ前記第1ユーザが配置すべき位置に配置するオブジェクトを含み、複数の前記オブジェクトを組み合わせたパターンを形成可能な前記仮想空間の第1画像を出力させるステップと、
第2ユーザが用いるディスプレイに、前記オブジェクトを含む仮想空間を前記第1画像の視野角よりも広い視野角で俯瞰した第2画像を出力させるとともに、前記オブジェクトの種類を選択するための表示領域を出力させるステップと、
前記表示領域に表示された前記オブジェクトの種類の中から所定の種類のオブジェクトを選択する前記第2ユーザの操作を受け付けるステップと、
選択された前記所定の種類のオブジェクトの配置位置を指定する前記第2ユーザの操作を受け付けるステップと、
前記装着ディスプレイに、前記第2ユーザが指定した前記配置位置及び選択された前記所定の種類のオブジェクトを識別可能に表示した前記仮想空間の画像を出力させるステップと、を実行させ、
前記第1画像を出力させるステップでは、前記第2画像を前記装着ディスプレイに出力させず、
前記第2画像を出力させるステップでは、前記第1画像を前記ディスプレイに出力させないアプリケーション制御プログラム。 It is an application control program that outputs an image of virtual space to the wearable display worn by the first user.
For one or more computers
Depending on the posture of the first user, the mounted display may include objects classified into a plurality of types and arranged at positions to be arranged by the first user, and a pattern in which a plurality of the objects are combined can be formed. The step of outputting the first image of the virtual space and
The display used by the second user is made to output a second image in which the virtual space including the object is overlooked with a viewing angle wider than the viewing angle of the first image, and a display area for selecting the type of the object is provided. Steps to output and
A step of accepting an operation of the second user to select an object of a predetermined type from the types of the objects displayed in the display area, and
A step of accepting the operation of the second user to specify the placement position of the selected object of the predetermined type, and
A step of causing the wearing display to output an image of the virtual space in which the arrangement position designated by the second user and the selected object of the predetermined type are identifiablely displayed is executed .
In the step of outputting the first image, the second image is not output to the mounted display.
An application control program that does not output the first image to the display in the step of outputting the second image .
1又は複数のコンピュータが、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに、複数の種類に分類され且つ前記第1ユーザが配置すべき位置に配置するオブジェクトを含み、複数の前記オブジェクトを組み合わせたパターンを形成可能な前記仮想空間の第1画像を出力させるステップと、
第2ユーザが用いるディスプレイに、前記オブジェクトを含む仮想空間を前記第1画像の視野角よりも広い視野角で俯瞰した第2画像を出力させるとともに、前記オブジェクトの種類を選択するための表示領域を出力させるステップと、
前記表示領域に表示された前記オブジェクトの種類の中から所定の種類のオブジェクトを選択する前記第2ユーザの操作を受け付けるステップと、
選択された前記所定の種類のオブジェクトの配置位置を指定する前記第2ユーザの操作を受け付けるステップと、
前記装着ディスプレイに、前記第2ユーザが指定した前記配置位置及び選択された前記所定の種類のオブジェクトを識別可能に表示した前記仮想空間の画像を出力させるステップと、を行い、
前記第1画像を出力させるステップでは、前記第2画像を前記装着ディスプレイに出力させず、
前記第2画像を出力させるステップでは、前記第1画像を前記ディスプレイに出力させないアプリケーション制御方法。 It is an application control method that outputs an image of virtual space to a wearable display worn by a first user.
One or more computers
Depending on the posture of the first user, the mounted display may include objects classified into a plurality of types and arranged at positions to be arranged by the first user, and a pattern in which a plurality of the objects are combined can be formed. The step of outputting the first image of the virtual space and
The display used by the second user is made to output a second image in which the virtual space including the object is overlooked with a viewing angle wider than the viewing angle of the first image, and a display area for selecting the type of the object is provided. Steps to output and
A step of accepting an operation of the second user to select an object of a predetermined type from the types of the objects displayed in the display area, and
A step of accepting the operation of the second user to specify the placement position of the selected object of the predetermined type, and
A step of outputting the image of the virtual space in which the arrangement position designated by the second user and the selected object of the predetermined type are identifiablely displayed on the mounted display is performed.
In the step of outputting the first image, the second image is not output to the mounted display.
An application control method in which the first image is not output to the display in the step of outputting the second image .
前記制御部が、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに、複数の種類に分類され且つ前記第1ユーザが配置すべき位置に配置するオブジェクトを含み、複数の前記オブジェクトを組み合わせたパターンを形成可能な前記仮想空間の第1画像を出力させるステップと、
第2ユーザが用いるディスプレイに、前記オブジェクトを含む仮想空間を前記第1画像の視野角よりも広い視野角で俯瞰した第2画像を出力させるとともに、前記オブジェクトの種類を選択するための表示領域を出力させるステップと、
前記表示領域に表示された前記オブジェクトの種類の中から所定の種類のオブジェクトを選択する前記第2ユーザの操作を受け付けるステップと、
選択された前記所定の種類のオブジェクトの配置位置を指定する前記第2ユーザの操作を受け付けるステップと、
前記装着ディスプレイに、前記第2ユーザが指定した前記配置位置及び選択された前記所定の種類のオブジェクトを識別可能に表示した前記仮想空間の画像を出力させるステップと、を行い、
前記第1画像を出力させるステップでは、前記第2画像を前記装着ディスプレイに出力させず、
前記第2画像を出力させるステップでは、前記第1画像を前記ディスプレイに出力させないアプリケーション制御システム。 It is an application control system that has a control unit that outputs an image to a wearable display worn by a first user and outputs an image of a virtual space.
The control unit
Depending on the posture of the first user, the mounted display may include objects classified into a plurality of types and arranged at positions to be arranged by the first user, and a pattern in which a plurality of the objects are combined can be formed. The step of outputting the first image of the virtual space and
The display used by the second user is made to output a second image in which the virtual space including the object is overlooked with a viewing angle wider than the viewing angle of the first image, and a display area for selecting the type of the object is provided. Steps to output and
A step of accepting an operation of the second user to select an object of a predetermined type from the types of the objects displayed in the display area, and
A step of accepting the operation of the second user to specify the placement position of the selected object of the predetermined type, and
A step of outputting the image of the virtual space in which the arrangement position designated by the second user and the selected object of the predetermined type are identifiablely displayed on the mounted display is performed.
In the step of outputting the first image, the second image is not output to the mounted display.
An application control system that does not output the first image to the display in the step of outputting the second image .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112847A JP7017474B2 (en) | 2018-06-13 | 2018-06-13 | Application control program, application control method and application control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112847A JP7017474B2 (en) | 2018-06-13 | 2018-06-13 | Application control program, application control method and application control system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017139711A Division JP6356878B2 (en) | 2016-11-30 | 2017-07-19 | Application control program, application control method, and application control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018185824A JP2018185824A (en) | 2018-11-22 |
JP7017474B2 true JP7017474B2 (en) | 2022-02-08 |
Family
ID=64356119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112847A Active JP7017474B2 (en) | 2018-06-13 | 2018-06-13 | Application control program, application control method and application control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7017474B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102218088B1 (en) * | 2019-01-22 | 2021-02-19 | (주)스코넥엔터테인먼트 | Virtual Reality Control System |
CN114111718B (en) * | 2021-11-23 | 2023-09-19 | 中国航空工业集团公司洛阳电光设备研究所 | Head display visual axis level detection method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016158795A (en) | 2015-02-27 | 2016-09-05 | 株式会社ソニー・インタラクティブエンタテインメント | Display control program, display control apparatus, and display control method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120086630A1 (en) * | 2010-10-12 | 2012-04-12 | Sony Computer Entertainment Inc. | Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system |
JP6214027B2 (en) * | 2013-03-28 | 2017-10-18 | 株式会社コナミデジタルエンタテインメント | GAME SYSTEM, GAME DEVICE, AND PROGRAM |
JP2015095147A (en) * | 2013-11-13 | 2015-05-18 | ソニー株式会社 | Display control device, display control method, and program |
JP6368965B2 (en) * | 2014-07-11 | 2018-08-08 | 株式会社コナミデジタルエンタテインメント | GAME SYSTEM, GAME CONTROL DEVICE, AND PROGRAM |
KR101828286B1 (en) * | 2014-10-27 | 2018-02-13 | 허철구 | Advising system for contesting games and method thereof |
JP2016127981A (en) * | 2016-02-25 | 2016-07-14 | 株式会社コロプラ | System, program, and method for performing screen operation by interlocking display and plural controllers connected through network |
-
2018
- 2018-06-13 JP JP2018112847A patent/JP7017474B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016158795A (en) | 2015-02-27 | 2016-09-05 | 株式会社ソニー・インタラクティブエンタテインメント | Display control program, display control apparatus, and display control method |
Also Published As
Publication number | Publication date |
---|---|
JP2018185824A (en) | 2018-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6181842B1 (en) | Application control program, application control method, and application control system | |
US11893697B2 (en) | Application control program, application control method, and application control system | |
EP2394710A2 (en) | Image generation system, image generation method, and information storage medium | |
KR20190001348A (en) | Virtual reality·argumented reality complex arcade game system | |
JP7017474B2 (en) | Application control program, application control method and application control system | |
JP7462192B2 (en) | Application control program, application control method and application control system | |
JP6479933B1 (en) | Program, information processing apparatus, and method | |
WO2020255991A1 (en) | Game program, game method, and information terminal device | |
JP6611383B2 (en) | Application control program, application control method, and application control system | |
JP6600051B2 (en) | Application control program, application control method, and application control system | |
JP6832320B2 (en) | Systems, methods, and programs for providing content using augmented reality technology | |
JP6905022B2 (en) | Application control program, application control method and application control system | |
JP6389305B1 (en) | Information processing method, computer, and program | |
JP6356878B2 (en) | Application control program, application control method, and application control system | |
JP6826626B2 (en) | Viewing program, viewing method, and viewing terminal | |
JP2022090964A (en) | Game program, game processing method, and game device | |
JP7073228B2 (en) | Information processing methods, computers, and programs | |
WO2024166715A1 (en) | Information processing system, and program | |
JP7282731B2 (en) | Program, method and terminal | |
WO2022124135A1 (en) | Game program, game processing method, and game device | |
JP7299197B2 (en) | DELIVERY PROGRAM, DELIVERY METHOD, AND COMPUTER | |
JP7440401B2 (en) | Game program, game method, and information terminal device | |
JP7377790B2 (en) | Game program, game method, and information terminal device | |
EP4400943A1 (en) | Touchless control method, system, computer program and computer-readable medium for controlling an avatar | |
JP2024110135A (en) | Information processing system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180613 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191218 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200902 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20200902 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200911 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20200915 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20201120 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20201201 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210511 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210629 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20210720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210917 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20211005 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20211201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211203 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20211214 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20220125 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20220125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7017474 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |