JP6643783B2 - Simulation control device and simulation control program - Google Patents

Simulation control device and simulation control program Download PDF

Info

Publication number
JP6643783B2
JP6643783B2 JP2017134597A JP2017134597A JP6643783B2 JP 6643783 B2 JP6643783 B2 JP 6643783B2 JP 2017134597 A JP2017134597 A JP 2017134597A JP 2017134597 A JP2017134597 A JP 2017134597A JP 6643783 B2 JP6643783 B2 JP 6643783B2
Authority
JP
Japan
Prior art keywords
player
unit
charge amount
game
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017134597A
Other languages
Japanese (ja)
Other versions
JP2017182845A (en
JP2017182845A5 (en
Inventor
絢 玉置
絢 玉置
恩田 明生
明生 恩田
治由 山本
治由 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2017134597A priority Critical patent/JP6643783B2/en
Publication of JP2017182845A publication Critical patent/JP2017182845A/en
Publication of JP2017182845A5 publication Critical patent/JP2017182845A5/ja
Application granted granted Critical
Publication of JP6643783B2 publication Critical patent/JP6643783B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ヘッドマウントディスプレイなどの装着型画像表示装置を用いたシミュレーションシステムなどに関する。   The present invention, such as simulation systems for using mounted image display apparatus such as a head-mounted display.

ヘッドマウントディスプレイ(以下、「HMD」という。)は、ユーザの眼前に画像を表示する頭部装着型画像表示装置として知られている。例えば、特許文献1に開示されたゲームシステムは、HMDに設けられたモーションセンサ(加速度センサ、ジャイロセンサ)と、HMDを外部から撮影するカメラとを用いて、プレーヤの頭部の動きに画像をリンクさせ、ゲーム空間に入り込んだかのような仮想現実感をプレーヤに与える。このシステムは、プレーヤの頭部の動きから検出されるプレーヤの視線に応じて、ゲームキャラクタのプレーヤに対する高感度パラメータを変化させることにより、ゲームキャラクタとアイコンタクトしているような体験をプレーヤにさせることもできる。 Head-mounted display (hereinafter, referred to as "HMD".) Is known as a head-mounted image display apparatus for displaying an image in front of the eyes of the user. For example, the game system disclosed in Patent Literature 1 uses a motion sensor (acceleration sensor, gyro sensor) provided in the HMD and a camera that captures the HMD from the outside, and uses the camera to move the image of the head of the player. link to, give a virtual reality as if entered the game space to the player. The system in accordance with the line of sight of the player is detected from the movement of the player's head, by changing the sensitivity parameter for the player of the game character, to the experience as a game character and eye contact to the player You can also.

特開2015−231443号公報JP-A-2015-231443

近年、特許文献1のシステムのように、実空間内に存在するコントローラの操作だけでなく頭部の動作によって展開するゲームが増えつつあり、実空間内でプレーヤが移動するゲームを想定した場合は、転倒時の安全のためにもなるべくプレーヤがハンズフリーの状態を維持することが望まれる。   In recent years, as in the system of Patent Document 1, games that are developed not only by the operation of the controller existing in the real space but also by the movement of the head are increasing, and a game in which a player moves in the real space is assumed. , possible player also for the time of fall safety is desired to maintain the state of the hands-free.

そこで本発明は、装着型画像表示装置を利用することにより操作性の高いユーザインタフェースとして動作可能なミュレーションシ制御装置及びシミュレーション制御プログラムを提供することを目的とする。   Accordingly, an object of the present invention is to provide a simulation control device and a simulation control program that can operate as a user interface with high operability by using a wearable image display device.

(1)上記課題を解決するため、本発明のシミュレーション制御装置は、
装着型画像表示装置へ仮想空間を表示する表示処理部と、
前記仮想空間に配置されたオブジェクトに対するユーザの目視時間を計測する計測部と、
前記計測による計測値が第1閾値に達した場合に前記オブジェクトの選択を受付け、前記計測値が第1閾値より大きい第2閾値に達した場合に前記選択の確定を受付ける受付け部と、
前記計測値の大きさの程度を前記ユーザへ通知する通知部と、
を備える。
(1) In order to solve the above problems, a simulation control device of the present invention
A display processing unit that displays a virtual space on the wearable image display device,
A measuring unit for measuring a visual time of the user for the arranged in the virtual space object,
A receiving unit that receives selection of the object when the measurement value obtained by the measurement reaches a first threshold, and receives confirmation of the selection when the measurement value reaches a second threshold larger than the first threshold;
A notification unit for notifying the order of magnitude of the measurement value to said user,
Is provided.

従って、ユーザは、計測値が第1閾値を越えるまで目視することで、当該オブジェクトを選択することができる。また、その反対に、第1閾値を越えない範囲でユーザがオブジェクトを目視した場合(一瞥した場合)には、当該オブジェクトの非選択状態を維持することも可能である。また、オブジェクトの選択後は、計測値が第2閾値に達するまでユーザがオブジェクトを目視するだけで、確定の指示をシミュレーション制御装置へ入力することができる。つまり、ユーザは、オブジェクトを目視するという動作によって、オブジェクトの状態を「非選択」、「選択」、「確定」の3状態の間で遷移させることができる
Therefore, the user, the measurement value by visually to over the first threshold value, it is possible to select the object. Further, on the contrary, if the user visually objects without exceeding the first threshold value (when glance), it is possible to maintain the non-selected state of the object. Further, after selecting the object, only the user to the measurement value reaches the second threshold value is visually an object, it is possible to input an instruction of confirmation to the simulation control unit. That is, the user by operation of viewing the object, "non-selected" the state of the object, "select" can transition between three states of "definite".

また、通知部は、計測値をユーザへ通知するので、ユーザは、自分が目視しているオブジェクトを特定したり、自分がオブジェクトを目視しているのか否かを区別したりすることができる。更には、ユーザは、通知されるチャージ量に基づき、オブジェクトが選択されるまでの残り時間や、選択が確定されるまでに必要な目視時間などを把握することも可能である。従って、シミュレーション制御装置によれば、目視という動作による入力をユーザが快適に行うことができる。   The notification unit, so notifies the measured value to the user, the user can or identify objects that they are visually he or distinguish whether that visually objects. Further, the user can grasp the remaining time until the object is selected, the viewing time required until the selection is determined, and the like, based on the notified charge amount. Therefore, according to the simulation control unit, an input by operation of visual user can perform comfortably.

(2)また、本発明のシミュレーション制御装置において、
前記計測部は、
前記オブジェクトから前記ユーザの視線が外れた場合には、前記視線が外れている時間に応じて前記計測値を減少させ、
前記受付け部は、
前記確定の前に前記計測値が第3閾値まで低下した場合には、前記選択の解除を受付けてもよい。
(2) In the simulation control device of the present invention,
The measurement unit,
If the line of sight of the user from the object goes out reduces the measured values according to the time the line of sight is out,
The receiving unit is,
If the measured value has decreased to a third threshold value before the determination, cancellation of the selection may be accepted.

従って、ユーザは、選択したオブジェクトから一定以上に亘って視線を外すことで、当該オブジェクトの選択を解除することができ、しかも、当該オブジェクトを目視した時間が短いときほど解除のタイミングを早期にすることができる。また、その反対に、ユーザは、選択したオブジェクトを長く目視しておくことで、視線を外した後に選択が維持されるまでの時間を長く確保することができる。   Therefore, the user can remove the line of sight over a certain level or more from the selected object, it is possible to deselect the object, moreover, the time of visual the object early timing of the release smaller the shorter be able to. Further, on the contrary, the user can keep visually longer the selected object, it is possible to ensure a long time until the selection after removing the line of sight is maintained.

(3)また、本発明のシミュレーション制御装置において、
前記計測部は、
選択後に前記計測値が前記第3閾値に近づく速度を、前記計測値が前記第2閾値に近づく速度よりも緩やかにしてもよい。
(3) In the simulation control device of the present invention,
The measurement unit is
After the selection, the speed at which the measured value approaches the third threshold may be slower than the speed at which the measured value approaches the second threshold.

従って、ユーザは、オブジェクトの選択後は、自分の目視先を完全に固定した状態を継続せずとも(多少ふらついたとしても)、オブジェクトの選択を維持することが容易である。   Therefore, after selecting the object, the user can easily maintain the selection of the object without continuing to fix his / her eyes completely (even if it fluctuates somewhat).

(4)また、本発明のシミュレーション制御装置において、
前記通知部は、
前記計測値に応じた視覚効果を前記オブジェクトへ付与してもよい。
(4) Further, in the simulation control system of the present invention,
The notifying unit,
A visual effect according to the measurement value may be provided to the object.

このように、計測値が可視化されれば、ユーザは、自分が目視しているオブジェクトを特定したり、自分がオブジェクトを目視しているのか否かを区別したりすることができる。また、ユーザは、自分が目視中のオブジェクトについて、選択されるまでの残り時間や、選択が確定されるまでに必要な目視時間などを視覚によって把握することも可能である。   When the measurement values are visualized in this way, the user can specify the object that he or she is looking at, and can distinguish whether or not he or she is looking at the object. In addition, the user can visually grasp the remaining time until the object being viewed by the user is selected, the viewing time required until the selection is confirmed, and the like.

(5)また、本発明のシミュレーション制御装置において、
前記通知部は、
選択中の前記オブジェクトと非選択中の前記オブジェクトとを区別してもよい。
(5) In the simulation control device of the present invention,
The notifying unit,
It may distinguish between the objects of the object and the non-selected in the selection.

従って、ユーザは、1又は複数のオブジェクトの各々が選択されているか否かを区別することができる。   Therefore, the user can distinguish whether or not each of the one or more objects is selected.

(6)また、本発明のシミュレーション制御装置において、
前記視覚効果は、
アニメーションであってもよい。
(6) In the simulation control device of the present invention,
The visual effects,
It may be an animation.

アニメーションによれば、計測値の時間変化をリアルタイムに(又は逐次に)ユーザへ通知することが可能である。   According to the animation, it is possible to notify the time variation of the measured values in real-time to (or sequentially) user.

(7)また、本発明のシミュレーション制御装置において、
前記アニメーションは、
前記オブジェクトの外縁部に環状又は部分環状のゲージを配置し、かつ、前記計測値に応じて前記ゲージの長さを変化させるアニメーションであってもよい。
(7) Further, in the simulation control system of the present invention,
The animation,
The animation may be such that an annular or partial annular gauge is arranged at the outer edge of the object, and the length of the gauge is changed according to the measured value.

このように、計測値をゲージの長さに反映させれば、例えば、計測値の大きさ、計測値の増減の別、計測値の増加速度、計測値の減少速度などを、ユーザが直感的に把握することが可能である。   Thus, if the reflected measurement to the length of the gauge, for example, the magnitude of the measured values, different increase and decrease of the measured values, the rate of increase in the measured value, and the rate of decrease in the measured value, the user intuitively It is possible to grasp.

(8)また、本発明のシミュレーション制御装置において、
前記アニメーションは、
前記オブジェクトの外縁部にマーク列を配置し、かつ、前記計測値に応じて前記マーク列の配列数を変化させるアニメーションであってもよい。
(8) Further, in the simulation control system of the present invention,
The animation is
Place a mark row to an outer edge portion of the object, and may be an animation of changing the sequence number of the mark array in response to the measured value.

このように、計測値をマーク列の配列数に反映させれば、例えば、計測値の大きさ、計測値の増減の別、計測値の増加速度、計測値の減少速度などを、ユーザが直感的に把握することが可能である。   In this way, if the measured value is reflected in the number of arrangements of the mark row, the user can intuitively understand, for example, the magnitude of the measured value, whether the measured value is increasing or decreasing, the increasing speed of the measured value, or the decreasing speed of the measured value. It is possible to grasp it.

(9)また、本発明のシミュレーション制御装置において、
前記アニメーションは、
前記計測値に応じて前記オブジェクトの強調度を変化させるアニメーションであってもよい。
(9) Further, in the simulation control system of the present invention,
The animation,
Or it may be animated to change the degree of emphasis of said object in response to the measured value.

このように、オブジェクト自体の強調度の変化により計測値をユーザへ通知すれば、オブジェクトの周辺のスペースを広く確保できるので、オブジェクトのレイアウト自由度が高まる。よって、例えば、多数のオブジェクトを密に配列した場合などに有効である。なお、オブジェクトの強調度は、例えば、以下のパラメータのうち少なくとも1つによって調節することができる。   Thus, if the notification to the user of the measured value by a change in emphasis of the object itself, since the space around the object can be widely secured, enhances the degree of freedom in the layout of the object. Therefore, for example, it is effective when many objects are densely arranged. The degree of emphasis of the object can be adjusted by, for example, at least one of the following parameters.

・オブジェクトの濃度、
・オブジェクトの輝度、
・オブジェクトの色、
・オブジェクトの不透明度、
・オブジェクトの彩度、
・オブジェクトの形状、
・オブジェクトの濃度、輝度、色、不透明度、彩度、形状のうち少なくとも1つの変化パターン。
And density of objects,
Object brightness,
Of object color,
Object opacity,
Object saturation,
・ Object shape,
A change pattern of at least one of the density, brightness, color, opacity, saturation, and shape of the object;

(10)また、本発明のシミュレーション制御装置において、
前記オブジェクトの前記選択が確定した場合に前記オブジェクトに対応付けられた所定の処理を実行する実行部を更に備えてもよい。
(10) In the simulation control device of the present invention,
The information processing apparatus may further include an execution unit configured to execute a predetermined process associated with the object when the selection of the object is determined.

従って、選択が確定すると、所定の処理が自動的に実行される(但し、実行されるタイミングは、確定の直後であっても確定から所定時間の経過後であってもよい。)。また、
所定の処理は、例えば、シミュレーションパラメータの設定処理、オブジェクトへの攻撃処理、オブジェクトの移動処理、他のオブジェクトに対する処理、所定プログラムを実行する処理などである。
Therefore, when the selection is determined, the predetermined process is automatically executed (however, the timing of execution may be immediately after the determination or after a lapse of a predetermined time from the determination). Also,
Predetermined processing, for example, setting processing of the simulation parameters, attack process to an object, the moving process of the object, processing for other objects, and the like processing for executing a predetermined program.

(11)また、本発明のシミュレーション制御プログラムは、
装着型画像表示装置へ仮想空間を表示する表示処理部と、
前記仮想空間に配置されたオブジェクトに対するユーザの目視時間を計測する計測部と、
前記計測による計測値が第1閾値に達した場合に前記オブジェクトの選択を受付け、前記計測値が第1閾値より大きい第2閾値に達した場合に前記選択の確定を受付ける受付け部と、
前記計測による前記計測値の大きさの程度を前記ユーザへ通知する通知部と、
してコンピュータを機能させる。
(11) Further, the simulation control program of the present invention provides:
A display processing unit that displays a virtual space on the wearable image display device,
A measurement unit that measures the user's viewing time for the object placed in the virtual space,
The measuring accepts the selection of the object when the measurement value reaches the first threshold value by the receiving unit receives a confirmation of the selection when the measured value reaches a larger first threshold second threshold value,
A notification unit that notifies the user of the magnitude of the measurement value by the measurement,
And let the computer function.

なお、本発明のシミュレーション制御装置の機能の一部又は全部をサーバ装置、端末装置で実現することが可能である。また、本発明のプログラムの一部又は全部を情報記憶媒体に記録することも可能である。   Note that some or all of the functions of the simulation control device of the present invention can be realized by a server device or a terminal device. Further, a part or all of the program of the present invention can be recorded on an information storage medium.

本発明に係るゲームシステムの一実施形態における概要構成を示す構成図である。Is a block diagram showing an outline configuration of an embodiment of a game system according to the present invention. 一実施形態のゲームシステムによって体験可能な仮想3次元空間(シミュレーション空間)を説明するための図である。It is a figure for explaining a virtual three-dimensional space (simulation space) which can be experienced by the game system of one embodiment. 一実施形態における構造体の構造を示す平面図である。Is a plan view showing a structure of a structure in an embodiment. 一実施形態における構造体の構造を示す断面図である。It is sectional drawing which shows the structure of the structure in one Embodiment. 一実施形態のゲームシステムに用いるHMDの構成を示す斜視図及び側面図である。FIG. 2 is a perspective view and a side view illustrating a configuration of an HMD used in the game system according to the embodiment. 一実施形態におけるシミュレーション制御装置のブロック構成を示す構成図である。1 is a configuration diagram illustrating a block configuration of a simulation control device according to one embodiment. 一実施形態の演出用オブジェクト及び演出装置である移動経路部材の一例を示す図である。It is a figure showing an example of an object for production of one embodiment, and a movement course member which is a production device. 一実施形態のおけるゲームシステムの動作を示すフローチャート(その1)である。It is a flowchart (the 1) which shows operation | movement of the game system in one Embodiment. 一実施形態のおけるゲームシステムの動作を示すフローチャート(その2)である。It is a flowchart (the 2) which shows operation | movement of the game system in one Embodiment. 仮想3次元空間、プレーヤPの視認エリア、プレーヤPから見える空間の関係を説明する図(視認エリアが仮想3次元空間の中央に位置する例)。Diagram for explaining a virtual three-dimensional space, visible area of the player P, and the relationship of the space seen from the player P (example visible area is located at the center of the virtual three-dimensional space). 仮想3次元空間、プレーヤPの視認エリア、プレーヤPから見える空間の関係を説明する図(視認エリアが仮想3次元空間の左上に位置する例)。The figure explaining the relationship of the virtual three-dimensional space, the visual recognition area of the player P, and the space seen from the player P (an example in which the visual recognition area is located at the upper left of the virtual three-dimensional space). ヒットエリアと視認エリアとの関係を説明する図。The figure explaining the relationship between a hit area and a visual recognition area. 目視開始からの経過時間と目視時間のチャージ量との関係を説明する図。The figure explaining the relationship between the elapsed time from the start of visual observation, and the charge amount of visual time. オブジェクトの視覚効果の例を説明する図。FIG. 4 is a diagram illustrating an example of a visual effect of an object. コンボ処理の発動前後における視覚効果の変化を説明する図。The figure explaining the change of the visual effect before and after the activation of the combo process. チャージ量の統合を説明する図。Diagram illustrating the integration of the charge amount. 部分解除処理を説明する図。Diagram for explaining the partial release processing. チャージ量の分離を説明する図。FIG. 4 is a diagram illustrating separation of charge amounts. オブジェクトの視覚効果の別の例を説明する図。Diagram illustrating another example of a visual effect of an object. ロック強度の制御処理を説明する図。The figure explaining the control processing of lock strength. アイ入力の受付け処理のフローチャート。Flowchart of reception processing of eye input. コンボ処理に係る処理のフローチャート。Flowchart of processing according to the combo treatment. ロック強度の制御処理のフローチャート。Flowchart of a control process for locking strength. アイ入力の適用例を説明する図(その1)。Diagram describing an application example of the eye input (Part 1). アイ入力の適用例を説明する図(その2)。FIG. 9 is a diagram (part 2) illustrating an application example of eye input. オブジェクトの視覚効果の別の例を説明する図。The figure explaining another example of the visual effect of an object.

以下、実施形態について説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。さらに、以下の実施形態は、装着型画像表示装置としてHMD(ヘッドマウントディスプレイ)を用いて予め定められた構造体内の空間(すなわち、実空間)におけるユーザの移動に対応付けて仮想3次元空間をシミュレートさせてゲームを提供するゲームシステムに対し、本発明に係るシミュレーション制御装置を適用した場合の実施形態である。   Hereinafter, embodiments will be described. The embodiments described below do not unreasonably limit the content of the present invention described in the appended claims. In addition, all of the configurations described in the present embodiment are not necessarily essential components of the invention. In addition, the following embodiments are mounted image display apparatus as HMD (head mounted display) predetermined structure space with (i.e., real space) of the virtual three-dimensional space in association with the movement of the user in the This is an embodiment in which the simulation control device according to the present invention is applied to a game system that provides a game by performing simulation.

1.ゲームシステムの概要
まず、図1及び図2を用いて本実施形態のゲームシステム1の概要について説明する、なお、図1は、本実施形態のゲームシステム1の概要構成を示す構成図であり、図2は、本実施形態のゲームシステム1によって体験可能な仮想3次元空間(以下、「シミュレーション空間」ともいう。)を説明するための図である。
1. Summary of Game System First, an outline of a game system 1 of the present embodiment with reference to FIGS. 1 and 2, FIG. 1 is a block diagram showing a general configuration of a game system 1 of this embodiment, 2, experience available virtual three-dimensional space by the game system 1 of the present embodiment (hereinafter, also referred to as "simulation space".) is a diagram for explaining the.

本実施形態のゲームシステム1は、主な構成として、プレーヤP(ユーザの一例)が移動可能な実空間(以下、単に「実空間」という。)が形成された構造体10と、当該プレーヤPに装着され、実空間に対応付けられた仮想3次元空間(すなわち、シミュレーション空間)のシミュレーション画像を表示するHMD20と、を備えている。   The game system 1 of the present embodiment includes, as main configuration, the player P (an example of the user) the real movable space (hereinafter, simply referred to as "real space".) And the structure 10 is formed, the player P And an HMD 20 that displays a simulation image in a virtual three-dimensional space (that is, a simulation space) associated with the real space.

具体的には、本実施形態のゲームシステム1は、実空間内における実空間に対応するシミュレーション空間のプレーヤPから見えるシミュレーション画像を生成し、擬似的な空間内における各種の環境や状況をプレーヤPに体験させるシミュレータである。   Specifically, the game system 1 of the present embodiment generates a simulation image viewed from the player P in the simulation space corresponding to the real space in the real space, and displays various environments and situations in the pseudo space by the player P. is a simulator to experience.

特に、本実施形態のゲームシステム1は、
(1)実空間内におけるプレーヤPの状態を示すプレーヤ状態(具体的には、実空間に
おけるプレーヤの位置及びその姿勢)を検出し、
(2)当該検出したプレーヤ状態に応じて、例えば、図2に示すような、移動経路Rに
対応付けた仮想移動経路を有し、かつ、実空間に対応するシミュレーション空間のプレーヤPから見えるシミュレーション画像を生成する画像生成処理を実行し、
(3)当該生成したシミュレーション画像をHMD20に表示させ、
(4)移動経路R上にてプレーヤ状態が所与の条件を具備した場合に、プレーヤPがシ
ミュレーション空間上における特定の状態である特定状態と判定し、
(5)当該特定状態と判定した場合に、当該特定状態に基づく演出を実行するためのシ
ミュレーション画像を生成する、
構成を有している。
そして、本実施形態のゲームシステム1は、当該HMD20を構造体10から吊時する吊持ユニット30を備え、HMD20をプレーヤPとは独立的に吊持することによって、プレーヤPが実空間内を移動する際に、又は、当該プレーヤPの所定の部位(例えば頭部)が動く際に、HMD20を当該プレーヤPの動きに追随させつつ、当該プレーヤPの
意図に反して転倒した場合であっても、HMD20のプレーヤPへの装着を維持し、又は、着脱による落下を防止することが可能な構成を有している。
In particular, the game system 1 of this embodiment,
(1) (specifically, the position and orientation of the player in the real space) player status indicating the status of the player P in the real space is detected and
(2) According to the detected player state, for example, a simulation having a virtual moving path associated with the moving path R as shown in FIG. 2 and visible from the player P in the simulation space corresponding to the real space Perform image generation processing to generate an image,
(3) Display the generated simulation image on the HMD 20;
(4) When the player state satisfies given conditions on the movement route R, the player P determines that the player P is a specific state in the simulation space,
(5) when it is determined that the specific state, to generate a simulation image for performing an effect based on the specific state,
It has a configuration.
The game system 1 of this embodiment includes a lifting unit 30 which Tsutoki the HMD 20 from the structure 10, by independently be suspended from the player P to HMD 20, the player P is within the real space when moving, or, when a predetermined portion of the player P (e.g. head) moves, while following the HMD20 the movement of the player P, a case of a fall against the intention of the player P This also has a configuration in which the HMD 20 can be kept attached to the player P or can be prevented from falling due to attachment and detachment.

また、本実施形態のゲームシステムは、図1に示すように、構造体10、HMD20及び吊持ユニット30の他に、
(1)実空間内で移動するプレーヤPの転倒を防止する転倒防止ユニット40、
(2)プレーヤPの実空間内における移動に応じて、吊持ユニット30におけるHMD
20の吊持位置を変更し、かつ、プレーヤPの実空間内における移動に応じて、当該プレーヤPの吊持位置を変更する吊持制御ユニット50
(3)プレーヤPの所定の部位(例えば、頭部、両手及び両足)に取り付けたマーカユ
ニット60、及び、当該マーカユニット60を検出することによって各部位の向き及び位置を検出しつつ、実空間内におけるプレーヤPの状態をプレーヤ状態として検出する撮像カメラ70と、
(4)実空間内に配設されるとともに、シミュレーション画像と連動することによって
プレーヤPに所与の演出を体感させる各種の演出装置90〜93及び演出用オブジェクト80と、
(5)プレーヤPから見える、実空間に対応付けられた仮想3次元空間であるシミュレ
ーション空間のシミュレーション画像を生成するとともに、検出したプレーヤ状態に応じて、シミュレーション画像に連動させつつ、該当する演出装置90〜93を制御するシミュレーション制御装置100と、
を備えている。
The game system of this embodiment, as shown in FIG. 1, the other structures 10, HMD 20 and the lifting unit 30,
(1) A fall prevention unit 40 for preventing the player P moving in the real space from falling,
(2) in response to movement in the real space of the player P, HMD in hanging unit 30
Change the suspended position of 20, and, according to the movement in the real space of the player P, the lifting control unit 50 for changing the suspended position of the player P
(3) a predetermined portion of the player P (e.g., head, hands and feet) marker unit 60 mounted on, and, while detecting the orientation and position of each part by detecting the marker unit 60, the real space An imaging camera 70 that detects the state of the player P within the player as a player state;
(4) together are arranged in the real space, the various effects device 90-93 and effect for objects 80 to experience a given effect to the player P by interlocking with the simulation images,
(5) Generates a simulation image of a simulation space, which is a virtual three-dimensional space associated with a real space, which can be seen from the player P, and, in accordance with the detected player state, associates the simulation device with the simulation image and produces a corresponding effect device. a simulation control unit 100 for controlling the 90 to 93,
It has.

このような構成により、本実施形態のゲームシステム1は、プレーヤPの状態と連動させつつ、当該プレーヤPが特定状態の場合に、当該特定状態をシミュレーションとしてプレーヤPに体験させることができるので、プレーヤPに体験させるべき環境や状況を、特に、移動経路Rから外れた場合に落下する状況を含めて高所を移動する環境や移動状況などの実際に体験することが難しい環境や状況を的確に再現することができるようになっている。   With such a configuration, the game system 1 of the present embodiment can cause the player P to experience the specific state as a simulation when the player P is in the specific state while being linked to the state of the player P. The environment and the situation that should be experienced by the player P, especially the environment and the situation where it is difficult to actually experience the environment such as the environment where the player P moves, including the situation where the player P falls when the vehicle deviates from the movement route R, and the moving situation, are accurately determined. thereby making it possible to reproduce in.

例えば、高所だけでなく、閉所、特殊空間、暑い場所又は寒い場所などの危険な場所や現実では経験することが難しい空間における環境や状況を、プレーヤPの状態に応じて特定状態や当該特定状態を創出する環境として再現することができるようになっている。   For example, depending on the state of the player P, an environment or a situation in a dangerous place such as a closed place, a special space, a hot place or a cold place, or a space that is difficult to be experienced in reality, as well as a high place, is determined in a specific state or the specific state. so that the it can be reproduced as the environment to create a state.

したがって、本実施形態のゲームシステム1は、危険な場所や現実では経験することが難しい空間を含むあらゆる場所や空間の再現性を高めることができるので、擬似的な空間であっても、より現実的な感覚をプレーヤPに体験させることができるようになっている。   Therefore, since the game system 1 of this embodiment, in hazardous locations and reality can be enhanced reproducibility of any place and space including the space it is difficult to experience, even pseudo space, more realistic This allows the player P to experience a realistic feeling.

また、本実施形態のゲームシステム1は、HMD20をプレーヤPとは独立的に吊持することができるので、プレーヤPが実空間内を移動することによって、又は、当該プレーヤPの所定の部位(例えば頭部)が動くことによって、HMD20が前後方向、左右方向及び上下方向に動いた場合において、プレーヤPがバランスを崩して当該プレーヤPの意図に反して転倒した場合であっても、HMD20のプレーヤPへの装着を維持し、又は、着脱による落下を防止することができるようになっている。   The game system 1 of this embodiment, it is possible to independently be suspended from the player P to HMD 20, by the player P moves in the real space, or a predetermined portion of the player P ( for example by the head) moves, HMD 20 is the front-rear direction, when moved in the horizontal direction and the vertical direction, even when a fall against the intention of the player P player P is unbalanced, the HMD 20 maintaining the attachment to the player P, or, so that it is possible to prevent the falling by detachable.

したがって、本実施形態のゲームシステム1は、プレーヤPにおけるHMD20が装着された状態で転倒することによって生ずる負傷、又は、当該プレーヤPの意図に反して当該HMD20が着脱されることによって床面や壁面への衝突及びそれに伴う当該HMD20の一部の破損や故障の発生などの不測の事態を防止することができるようになっている。   Therefore, the game system 1 of this embodiment, injuries caused by falls in a state where HMD20 in the player P is attached, or, floor or wall by the HMD20 is detachably against the intention of the player P and it is capable of preventing contingencies such as occurrence of a collision and some breakage or malfunction of the HMD20 associated therewith to.

この結果、本実施形態のゲームシステム1は、レールやアーム等によってHMD20の吊持位置をプレーヤPの移動に伴って変更させることができれば、例えば、常に上方から吊持するなど適した位置でHMD20を吊持し、あらゆる方向への移動や動きに対応させることができるので、HMD20を装着させて実空間内を移動するプレーヤPの安全性を
確保しつつ、プレーヤPのシミュレーション中の負傷の他に、当該HMD20の破損や故障を含めて不測の事態を防止することができるようになっている。
As a result, if the hanging position of the HMD 20 can be changed along with the movement of the player P by the rail, the arm, or the like, the game system 1 of the present embodiment can, for example, always hold the HMD 20 at a suitable position such as by hanging from above. the hanging hanged, since it is possible to correspond to the movement and movement in all directions, while ensuring the safety of the player P to move the real space by mounting the HMD 20, other injuries during simulation of the player P to, and is capable of preventing the eventuality, including damage or failure of the HMD 20.

例えば、高解像度によって提供される場合など、HMD20への画像供給やその制御が有線で実行される場合には、吊持ユニット30を介してHMD20を制御する制御装置と接続するための配線を配設することもできるので、当該配線がプレーヤPの横や足下に存在することに伴う当該プレーヤPの移動の制限や不快感を解消することができるようになっている。   For example, when provided by a high resolution, when the image supply and its control to HMD20 is performed via wired communication, distribution wiring for connecting the control device for controlling the HMD20 through the lifting unit 30 Since the wiring can be provided next to or below the player P, restrictions on movement of the player P and uncomfortable feeling can be eliminated.

すなわち、上記の構成を有することにより、本実施形態のゲームシステム1は、HMD20が装着されたプレーヤPの実空間内におけるスムーズな移動や安全性を確保し、当該プレーヤPの負傷などの不測の事態を回避させることができるようになっている。   That is, by having the above-described configuration, the game system 1 of the present embodiment ensures smooth movement and safety of the player P to which the HMD 20 is mounted in the real space, and prevents an unexpected accident such as injury to the player P. The situation can be avoided.

なお、本実施形態においては、高所における恐怖体験をシミュレートするゲーム(以下、「高所恐怖体験ゲーム」という。)を用いて以下の説明を行う。   In the present embodiment, a game that simulates a fear experience in high altitude (hereinafter referred to. "Altitude fear experience game") the following description with reference to.

2.ゲームシステムの構成
2−1.構造体
次に、上記の図1とともに図3及び図4を用いて本実施形態のゲームシステム1における構造体10について説明する。なお、図3は、本実施形態における構造体10の構造を示す平面図であり、図4は、本実施形態における構造体10の構造を示す断面図である。
2. Configuration of game system 2-1. Structure Next, the structure 10 of the game system 1 of the present embodiment will be described with reference to FIGS. 3 and 4 in conjunction with Figure 1 above. FIG. 3 is a plan view illustrating the structure of the structure 10 according to the present embodiment, and FIG. 4 is a cross-sectional view illustrating the structure of the structure 10 according to the present embodiment.

構造体10は、プレーヤPが移動可能であってゲームを実行する実空間が形成された筐体であって、例えば、上記の図1、並びに、図3及び図4に示すように、天井15及び床16と、その四方を覆う壁17とによって形成された直方体の箱形構造を有している。   Structure 10, a casing real space is formed by the player P is executing a game be moveable, for example, above 1, and, as shown in FIG. 3 and FIG. 4, the ceiling 15 And a floor 16 and a wall 17 covering the four sides thereof, and has a rectangular parallelepiped box-shaped structure.

そして、構造体10には、プレーヤPであるプレーヤPが体験型のゲーム開始を待機する待機エリア11と、当該体験型のゲームを実行するプレーエリア12と、を有している。特に、プレーエリア12には、ゲームスタート時にプレーヤPが存在するスタートゾーン13と、プレーヤPが実際に移動して所定の環境及び状況を体験するゾーンであってプレーヤP毎にゲーム中にプレーヤPの存在が許可された移動経路Rが形成された移動体験ゾーン14と、が含まれる。   The structure 10 has a standby area 11 in which the player P, which is the player P, waits for the start of an experiential game, and a play area 12 in which the experiential game is executed. In particular, the play area 12 includes a start zone 13 where the player P is present at the start of the game and a zone where the player P actually moves and experiences a predetermined environment and situation. a moving experience zone 14 moving path R presence of is permitted are formed include.

天井15には、待機エリア11からプレーエリア12に渡って、かつ、移動体験ゾーン14においては移動経路Rに沿って、HMD20を吊持する吊持ユニット30及びプレーヤPの転倒を防止する転倒防止ユニット40が摺動可能に取り付けられた複数の吊持制御ユニット50が形成されている。   The ceiling 15, across from the waiting area 11 to the playing area 12, and, in the mobile experience zone 14 along the travel path R, fall prevention for preventing tipping of the lifting unit 30 and the player P to suspended the HMD20 A plurality of suspension control units 50 to which the unit 40 is slidably attached are formed.

そして、各吊持制御ユニット50には、該当する移動経路におけるシミュレーション制御装置100が設けられている。   Each of the suspension control units 50 is provided with the simulation control device 100 on the corresponding movement route.

また、天井15には、プレーヤPのプレーヤ状態及び演出用オブジェクト80の状態を検出するために用いる複数の撮像カメラ70が所定の位置に配設されている。プレーヤPのプレーヤ状態には、例えば、プレーヤPの頭部の位置及び向き(姿勢)が含まれる。   Further, on the ceiling 15, a plurality of imaging cameras 70 used for detecting the player state of the player P and the state of the effect object 80 are arranged at predetermined positions. The player state of the player P includes, for example, the position and orientation (posture) of the head of the player P.

床16は、待機エリア11及びプレーエリア12のエリア毎、並びに、スタートゾーン13及びに移動体験ゾーン14のゾーン毎に、異なる構成を有している。   The floor 16 has a different configuration for each of the standby area 11 and the play area 12, and for each of the start zone 13 and the movement experience zone 14.

具体的には、プレーエリア12のスタートゾーン13においては、演出手段の1つとしてエレベータによって上下する環境を作り出すバネが組み込まれたパネル(すなわち、バ
ネ床パネル)92によって構成されている。
Specifically, the start zone 13 of the play area 12 is configured as a panel (in other words, a spring floor panel) 92 in which a spring for creating an environment that is raised and lowered by an elevator is incorporated as one of the effect means.

また、プレーエリア12の移動体験ゾーン14は、プレーヤPが歩行するための金属その他の所定の部材(後述の移動経路部材93)によって構成された移動経路Rと、プレーヤPの移動が禁止され、当該プレーヤPが転倒した際に当該プレーヤPを保護するマットなどによって構成された非移動経路NRと、によって構成されている。   In addition, the movement experience zone 14 of the play area 12 includes a movement path R formed of metal or other predetermined members (a movement path member 93 described later) for the player P to walk, and movement of the player P is prohibited. And a non-moving route NR configured by a mat or the like that protects the player P when the player P falls.

さらに、本実施形態のスタートゾーン13は、エレベータの室内空間の仮想3次元空間として提供するための構造を有しており、スタートゾーン13と移動体験ゾーン14の境界には、演出装置として、シミュレーション制御装置100の制御によって開閉が制御されるエレベータの扉として機能する自動扉91が設けられている。   Furthermore, the start zone 13 of the present embodiment has a structure for providing as a virtual three-dimensional space of the interior space of the elevator, and the boundary between the start zone 13 and the movement experience zone 14 is a simulation device as an effect device. An automatic door 91 that functions as an elevator door whose opening and closing are controlled by the control of the control device 100 is provided.

特に、移動経路R上(具体的には移動経路部材93の端点)には、演出用オブジェクト80が配設されている。また、非移動経路NR上には、送風機90などの演出装置が必要に応じて形成されているとともに、必要に応じて接触センサなどのセンサユニットが形成されていてもよい。   In particular, on the movement route R (specifically, at the end point of the movement route member 93), the effect object 80 is arranged. Further, on the non-moving route NR, an effect device such as the blower 90 may be formed as necessary, and a sensor unit such as a contact sensor may be formed as necessary.

壁17は、所定の壁面パネル又はプレーヤPによる衝突に基づく負傷などから保護するマットから構成されている。   Wall 17 is composed of a mat protected from injury based on collision with a predetermined wall panel or the player P.

2−2.HMD及び吊持ユニット
次に、上記の図4ともに図5を用いて本実施形態のゲームシステムに用いるHMD20及び当該HMD20を吊持する吊持ユニット30について説明する。
2-2. HMD and Suspended Unit Next, the HMD 20 used in the game system of the present embodiment and the suspended unit 30 that suspends the HMD 20 will be described with reference to FIGS.

なお、図5は、本実施形態のゲームシステムに用いるHMD20の構成を示す斜視図及び側面図の一例である。また、例えば、本実施形態のHMD20は、本発明の装着型画像表示装置を構成する。   FIG. 5 is an example of a perspective view and a side view showing a configuration of the HMD 20 used in the game system of the present embodiment. Further, for example, HMD 20 of the present embodiment constitutes a mounted image display apparatus of the present invention.

HMD20は、シミュレーション制御装置100の制御の下、プレーヤPの頭部に装着された非透過型の仮想3次元空間の画像を表示するウェアラブルの表示装置あって、当該表示装置外の外界の様子を認識不能にしてプレーヤPに表示させた画像のみを視認させ、拡張現実を視覚によってプレーヤPに体験させるための表示装置である。   The HMD 20 is a wearable display device that displays an image of a non-transparent virtual three-dimensional space mounted on the head of the player P under the control of the simulation control device 100, and displays an external environment outside the display device. Unknown to to visually recognize only the image displayed on the player P and a display device for experienced player P augmented reality visually.

例えば、HMD20は、上記の図4及び図5に示すように、プレーヤPの両眼を完全に覆う(すなわち、マスクする)構造を有し、かつ、検出されたプレーヤ状態に連動させつつ、プレーヤPから見える、構造体10内の実空間に対応付けられたシミュレーション空間のシミュレーション画像を視認させるための構成を有している。   For example, as shown in FIGS. 4 and 5, the HMD 20 has a structure that completely covers (that is, masks) both eyes of the player P, and, while being linked to the detected player state, It has a configuration for visually recognizing a simulation image in the simulation space associated with the real space in the structure 10 that is visible from P.

また、HMD20の上部には、プレーヤPの頭部の向き及び位置を検出するためのマーカユニット(以下、「頭部検出用マーカユニット」という。)60aが形成されている。そして、HMD20は、例えば、200×1080のピクセルの表示サイズ、及び、90fPSのリフレッシュレートを有している。   Also, the top of the HMD 20, a marker unit for detecting the orientation and position of the head of the player P (hereinafter, referred to as "head detection mark unit".) 60a is formed. Then, HMD 20 is, for example, the display size of 200 × 1080 pixels, and has a refresh rate of 90 fps.

なお、HMD20は、図示しないヘッドフォンジャックを有し、当該ヘッドフォンジャックにヘッドフォン61が接続される。そして、ヘッドフォン61は、HMD20とともにプレーヤPに装着される。また、ヘッドフォン61には、シミュレーション制御装置100によって生成されたシミュレーション空間における立体音響を構成する環境音が出力される。   Incidentally, HMD 20 has a headphone jack (not shown), a headphone 61 to the headphone jack is connected. Then, the headphones 61 are attached to the player P together with the HMD 20. Further, the headphone 61, the environmental sound constituting the stereophonic in the simulation space generated by the simulation control unit 100 is output.

吊持ユニット30は、HMD20及びプレーヤPの上方、例えば、構造体10の天井1
5に配設された吊持制御ユニット50と連結することによって、構造体10に吊持されつつ、かつ、HMD20を吊持する構成を有している。
Hanging unit 30, the upper HMD20 and the player P, for example, the ceiling of the structure 10 1
By connecting the suspended control unit 50 disposed 5, while being suspended in the structure 10, and has a configuration that suspended the HMD 20.

特に、本実施形態の吊持ユニット30は、プレーエリア12のプレーヤPにおけるあらゆる方向への移動や動きに対応させて吊持するために、HMD20を構造体10の上方(すなわち、天井15)であってプレーヤPの頭上に形成されている。   In particular, lifting unit 30 of the present embodiment, in order to hanging in correspondence to the movement and movement in all directions in the player P of the playing area 12, above the structure 10 the HMD 20 (i.e., the ceiling 15) It is formed above the player P.

そして、吊持ユニット30は、HMD20とシミュレーション制御装置100とを有線によって接続するための配線(以下、「ケーブル」という。)を有している。   The hanging unit 30 has wiring (hereinafter, referred to as “cable”) for connecting the HMD 20 and the simulation control device 100 by wire.

具体的には、吊持ユニット30は、例えば、図4及び図5に示すように、吊持制御ユニット50と連結するために用いられる連結部材31と、当該連結部材31に取り付けるための形状が形成された端部(以下、「第1端部」という。)を有する紐状部材(すなわち、ケーブル)32と、紐状部材32の第1端部とは異なる第2端部とHMD20と接続する接続部材33と、から構成される。   Specifically, hanging unit 30 is, for example, as shown in FIGS. 4 and 5, the connecting member 31 used to couple the suspended control unit 50, the shape for attachment to the connecting member 31 A string-shaped member (that is, a cable) 32 having a formed end (hereinafter, referred to as a “first end”), and a second end different from the first end of the string-shaped member 32 connected to the HMD 20. And a connecting member 33 to be connected.

特に、紐状部材32は、プレーヤPが転倒しそうになるなどプレーヤPが大きく動くことによってHMD20がプレーヤPから着脱された場合に、構造体10の床面に接地することを未然に防止することが可能な構造を備えている。   In particular, the cord-like member 32 prevents the player P from coming into contact with the floor surface of the structure 10 when the HMD 20 is detached from the player P due to a large movement of the player P such as the player P being likely to fall. It has a structure that can be used.

具体的には、紐状部材32は、伸縮自在であって、ミュレーション制御装置から送信された所定の信号やデータをHMD20に転送するケーブルによって構成される。   Specifically, the string member 32 is a flexible, constituted by a cable for transferring a predetermined signal and data transmitted from the simulation controller to HMD 20.

例えば、紐状部材32は、HMD20がプレーヤPから着脱された際に、当該HMD20が構造体10の床面に接地することを未然に防止する構造としては、HMD20がプレーヤPから着脱しても構造体10の床面に接地しない長さを有していること、当該紐状部材が伸縮可能なスパイラル状になっていること、又は、紐状部材の長さを調整するために当該ケーブルを巻き取る構造を備えている。   For example, when the HMD 20 is attached to and detached from the player P, the string-shaped member 32 has a structure that prevents the HMD 20 from being grounded to the floor of the structure 10 even when the HMD 20 is attached to and detached from the player P. that has a length that does not contact with the floor surface of the structure 10, that the string-like member is in retractable spiral, or the cable to adjust the length of the string-shaped member It has a structure that takes up.

なお、本実施形態のHMD20は、これらに限らず、プレーヤPに装着されて当該プレーヤPに視認可能に画像が表示されるものであればよく、シミュレーションを的確に行うことができれば透過型のHMD20であってもよい。   Note that the HMD 20 of the present embodiment is not limited to these, and any HMD that is mounted on the player P and displays an image so that the player P can visually recognize the HMD 20 may be used. It may be.

また、HMD20とシミュレーション制御装置100とが無線通信によって信号又はデータの転送を行う場合には、紐状部材32は、ケーブルである必要はなく、所定の材質の紐そのものであってもよいし、バンドなどの幅のある帯状の部材であってもよい。   Further, when the HMD20 and simulation controller 100 performs the transfer of signals or data by wireless communication, the string member 32 need not be a cable, it may be a string itself predetermined material, A wide band-like member such as a band may be used.

さらに、吊持ユニット30の一部は、具体的には、連結部材31及び紐状部材32は、後述のように、転倒防止ユニット40と共通する部材となっている。   Furthermore, some of the lifting unit 30, specifically, the connecting member 31 and the string-shaped member 32, as described below, has a member common to the fall prevention unit 40.

2−3.転倒防止ユニット
次に、上記の図4を用いて本実施形態のゲームシステムにおける転倒防止ユニット40について説明する。
2-3. Fall prevention unit Next, the fall prevention unit 40 will be described in the game system of this embodiment with reference to FIG. 4 above.

転倒防止ユニット40は、HMD20を装着していること、歩行可能な移動経路Rが狭いこと、又は、その双方によって、プレーヤPがバランスを崩した場合、又は、当該バランスを崩しプレーヤPの意図に反して転倒した場合に、プレーヤPを支持するため、及び、プレーヤPの転倒を防止するために用いられる。   When the player P loses his or her balance due to the fact that the HMD 20 is worn, the walking path R that can walk is narrow, or both, It is used to support the player P when falling down, and to prevent the player P from falling down.

すなわち、転倒防止ユニット40は、プレーヤPがバランスを崩した場合に、HMD2
0の破損やそれに基づくプレーヤPの負傷を防止するだけなく、ゲームのプレー中にHMD20が装着されていることによって生ずるプレーヤPの転倒(移動中にバランスを崩すことによる転倒など)をも防止することが可能な構成を有している。
That is, when the player P loses balance, the fall prevention unit 40
In addition to preventing the player P from being damaged and the player P from being injured, the player P can also be prevented from falling (eg, falling due to loss of balance during movement) caused by the HMD 20 being mounted during game play. it has a configuration capable.

具体的には、転倒防止ユニット40は、例えば、上記の図4に示すように、プレーヤPを保持するホルダ部材41と、構造体10からプレーヤPを吊持する吊持部材と、を有し、吊持部材は、吊持ユニット30の部材、すなわち、上記の連結部材31及び紐状部材32によって構成される。   Specifically, the fall prevention unit 40 includes, for example, as shown in FIG. 4 described above, a holder member 41 that holds the player P, and a suspending member that suspends the player P from the structure 10. , hanging member, member of hanging unit 30, i.e., constituted by the connecting member 31 and the string-shaped member 32 described above.

ホルダ部材は、例えば、袖部分を有していないベストタイプの上着によって構成されており、プレー中に、プレーヤPに着用させることによってプレーヤPの状態を保持する。そして、ホルダ部材41は、紐状部材32の一端と連結されており、構造体10の天井15に形成される連結部材31を介してプレーヤPの身体を支持する構成を有している。   The holder member, for example, is constituted by a jacket best type having no sleeves, during play, to hold the state of the player P by wearing the player P. The holder member 41 is connected to one end of the string-shaped member 32, and has a configuration in which the body of the player P is supported via the connection member 31 formed on the ceiling 15 of the structure 10.

2−4.吊持制御ユニット
次に、上記の図1、図3及び図4を用いて本実施形態のゲームシステムにおける吊持制御ユニット50について説明する。
2-4. Hanging Control Unit Next, the hanging control unit 50 in the game system of the present embodiment will be described with reference to FIGS. 1, 3, and 4 described above.

本実施形態の吊持制御ユニット50は、構造体10内の実空間内におけるプレーヤPの移動に応じてプレーヤP自体及びHMD20の吊持位置を変更させるためのユニットであり、常に上方(すなわち、構造体10の天井方向)からHMD20及びプレーヤPを吊持する構成を有している。   The suspension control unit 50 of the present embodiment is a unit for changing the suspension position of the player P itself and the HMD 20 in accordance with the movement of the player P in the real space in the structure 10, and is always upward (ie, It has a configuration which suspended the HMD20 and the player P from the ceiling direction) of the structure 10.

そして、吊持制御ユニット50は、HMD20及びプレーヤPを実空間内において適した位置で吊持し、プレーヤPの移動方向への移動や動きに対応させることが可能な構成を有するとともに、プレーヤPの安全性を確保しつつ、プレーヤPのシミュレーション中の負傷やHMD20の破損や故障を含めて不測の事態を防止することができるようになっている。   The hanging control unit 50, hanged in a position suitable in HMD20 and within the player P real space, and having a movement or motion that can be made to correspond structure of the moving direction of the player P, the player P The safety of the player P can be ensured, and unexpected situations including injury during the simulation of the player P and damage or failure of the HMD 20 can be prevented.

したがって、吊持制御ユニット50は、プレーヤPが実空間内を自在に移動した場合であっても、HMD20に信号やデータを供給するケーブルやプレーヤPを保持する部材がプレーヤPの横や足下に存在することに基づく当該プレーヤPの移動の制限や不快感を的確に解消することができるとともに、プレーヤPの移動や動きに対しても常に的確にHMD20及びプレーヤPを吊持することができるようになっている。   Therefore, even when the player P freely moves in the real space, the suspension control unit 50 can move the cable that supplies signals and data to the HMD 20 and the member that holds the player P to the side or below the player P. The restriction and the discomfort of the movement of the player P based on the existence can be properly solved, and the HMD 20 and the player P can always be properly hung with respect to the movement and movement of the player P. It has become.

具体的には、吊持制御ユニット50は、待機エリア11からプレーエリア12にかけて一体的に構成されており、実空間内を移動するプレーヤP又は姿勢が変化するプレーヤPに対してHMD20及び転倒防止ユニット40を追随させる構成を有している。   Specifically, suspending control unit 50 is constructed integrally toward playing area 12 from the standby area 11, HMD 20 and fall prevention to the player P player P or the posture is changed to move the real space It has a structure to follow the unit 40.

例えば、本実施形態の吊持制御ユニット50は、図1、図3及び図4に示すように、実空間を移動するプレーヤP毎に設けられ、待機エリア11(より詳細には、HMD20及び転倒防止ユニット40を装着した地点)からからプレーエリア12にかけてプレーヤPの移動の移動方向に沿って形成されレール51と、吊持ユニット30の連結部材31と連結し、当該レール51上を摺動する摺動部材52と、によって形成される。   For example, hanging the control unit 50 of the present embodiment, as shown in FIGS. 1, 3 and 4, provided for each player P to move the real space, the waiting area 11 (more specifically, HMD 20 and fall a rail 51 is formed along the moving direction of the movement of the player P toward prevention unit 40 points equipped with) Karakara playing area 12, and connected to the connection member 31 of the lifting unit 30, slides on the rails 51 And the sliding member 52.

特に、各レール51は、プレーヤPが移動経路Rに沿って移動する移動体験ゾーン14(すなわち、プレーヤPが直線的に前後に移動する直線移動が行われるゾーン)においては、移動経路R上の天井部分に形成されている。   In particular, each of the rails 51 is located on the movement route R in the movement experience zone 14 where the player P moves along the movement route R (that is, the zone where the player P moves linearly back and forth linearly). It is formed on the ceiling.

また、各レール51は、それ以外の実空間内のエリアにおいては、プレーヤPがHMD
20及び転倒防止ユニット40の装着準備後やスタート位置への誘導などシミュレーションを実行する上で誘導される経路(以下、「誘導経路」という。)Sに沿って形成されたレール51によって構成される。
Further, in each area in the real space other than the rails 51, the player P
The rails 51 are formed along a route (hereinafter, referred to as a “guide route”) S that is guided in performing a simulation, such as after the preparation of the mounting of the fall protection unit 20 and the fall prevention unit 40 and the guidance to the start position. .

なお、レール51においては、プレーヤPの移動に応じて吊持ユニット30の位置を変更させることができれば、その形状や材質などは限定されない。   Note that, in the rail 51, as long as it can change the position of the lifting unit 30 in accordance with movement of the player P, such as its shape and material are not limited.

摺動部材52は、プレーヤPの移動や姿勢の変更などのプレーヤPの状態に応じて発生した張力に従ってレール51上を摺動し、吊持ユニット30を介してHMD20及びプレーヤPの吊持位置を変更させる。   The sliding member 52 slides on the rail 51 according to the tension generated according to the state of the player P, such as the movement of the player P or a change in the posture, and the suspension position of the HMD 20 and the player P via the suspension unit 30. To change.

また、摺動部材52は、図1、図3及び図4に示すように、HMD20とシミュレーション制御装置100とを電気的に接続するケーブルの長さを短くして信号やデータの転送を的確に実施するため、シミュレーション制御装置100が固定される構造を有し、当該シミュレーション制御装置100を一体的に摺動させる構成を有している。   Also, as shown in FIGS. 1, 3 and 4, the sliding member 52 shortens the length of a cable for electrically connecting the HMD 20 and the simulation control device 100 to accurately transfer signals and data. In order to implement, the simulation control device 100 has a structure to be fixed, and has a configuration in which the simulation control device 100 slides integrally.

なお、摺動部材52は、レール51上を摺動し、プレーヤPの移動や姿勢の変更などのプレーヤPの状態に応じて吊持ユニット30を介してHMD20及びの位置を変更させるための部材であれば、特に限定されない。   Incidentally, the sliding member 52, the upper rail 51 slides, member for changing the HMD20 and position through the lifting unit 30 according to the state of the player P, such as changing the movement and posture of the player P If so, there is no particular limitation.

2−5.シミュレーション制御装置
次に、図6を用いて本実施形態のゲームシステムにおけるシミュレーション制御装置100について説明する。
2-5. Simulation Control Apparatus Next, the simulation control apparatus 100 in the game system according to the present embodiment will be described with reference to FIG.

なお、図6は、本実施形態におけるシミュレーション制御装置100のブロック構成を示す構成図である。さらに、本実施形態のシミュレーション制御装置100は、図8の構成に限定されず、その一部の構成要素を省略すること、他の構成要素を追加するなどの種々の変形実施が可能である。   Incidentally, FIG. 6 is a block diagram showing a block configuration of the simulation control unit 100 in this embodiment. Furthermore, the simulation control device 100 of the present embodiment is not limited to the configuration of FIG. 8, and various modifications can be made such as omitting some components and adding other components.

シミュレーション制御装置100は、例えば、パーソナルコンピュータなどのコンピュータ制御を行うことが可能な装置によって構成され、管理者が操作を行うキーボードなどの操作部(図示せず)が着脱可能に構成されている。   The simulation control device 100 is configured by, for example, a device capable of performing computer control such as a personal computer, and is configured such that an operation unit (not shown) such as a keyboard operated by an administrator is detachable.

また、シミュレーション制御装置100は、シミュレーション空間をプレーヤPに提供するため、ゲームが開始されると、プレーヤ状態及び経過時間に応じて、当該ゲームを進行させつつ、当該ゲームの進行状態に応じた画像を生成し、かつ、演出制御装置と連動して演出装置90〜93を制御する構成を有している。   Further, in order to provide the simulation space to the player P, the simulation control device 100, when the game is started, advances the game according to the player state and the elapsed time, while displaying an image corresponding to the progress state of the game. It generates, and has a configuration of controlling the effect device 90 to 93 in conjunction with the effect control device.

特に、シミュレーション制御装置100は、撮像カメラ70から出力された画像を取得し、当該取得した画像からマーカユニット60におけるマーカを検出し、当該マーカが属するエリア及び他のマーカとの位置関係と、マーカが属するエリアにおける滞在時間と、に基づいてプレーヤ状態を検出する。   In particular, the simulation control device 100 acquires an image output from the imaging camera 70, detects a marker in the marker unit 60 from the acquired image, and determines the area to which the marker belongs and the positional relationship between the marker and the other markers. And the stay time in the area to which the player belongs.

具体的には、シミュレーション制御装置100は、各種のデータが記憶される記憶部170と、シミュレーションを実行するためのアプリケーションなどのデータが記憶される情報記憶媒体180と、ゲームの実行及びそれによってシミュレートする環境を作り出すための各種の処理を実行する処理部101と、通信部196と、を有している。   Specifically, the simulation control device 100 includes a storage unit 170 in which various data is stored, an information storage medium 180 in which data such as an application for executing a simulation is stored, a game execution and a simulation The communication unit 196 includes a processing unit 101 that executes various types of processing for creating an environment for communication.

記憶部170は、処理部101及び通信のワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。特に、本実施形態の記憶部170は、主
に、ゲームプログラムが記録される主記憶部172、画像バッファ174及びデータバッファ176を有している。
The storage unit 170 serves as a work area for the processing unit 101 and communication, and its function can be realized by a RAM (DRAM, VRAM) or the like. In particular, the storage unit 170 of the present embodiment mainly includes a main storage unit 172 in which a game program is recorded, an image buffer 174, and a data buffer 176.

主記憶部172は、主に、ゲームプログラムが記録される。また、データバッファ176は、自機のゲームデータが記憶される記憶領域であり、例えば主記憶の一部に設けられてソフトウェア的によって読み書きの制御が行われる構成でもよい。   The main storage unit 172, mainly, the game program is recorded. The data buffer 176 is a storage area in which game data of the game device is stored. For example, the data buffer 176 may be provided in a part of the main storage and control reading and writing by software.

なお、ゲームプログラムは、ゲーム処理を実行するための命令コードが記述されたソフトウェアである。また、ゲームデータは、プレーヤの特定状態を判定するためのデータ、ゲームプログラムの実行の際に必要なデータであり、演出用オブジェクト80のデータ、または、各種の演出装置90〜93の制御プログラムなどである。   The game program is a software instruction code for executing the game processing is described. The game data is data for determining a specific state of a player, data necessary for executing a game program, such as data of an effect object 80 or a control program of various effect devices 90 to 93. it is.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、HDD(ハードディスクドライブ)、または、メモリ(ROM等)などにより実現できる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), HDD (hard disk drive), or memory (ROM, etc.). It can be realized by.

なお、処理部101は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。すなわち、情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The processing unit 101 performs various processes according to this embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 has a program for causing a computer (a device including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit). ) it is stored.

通信部196は、ケーブルを介してHMD20との間で通信を行うとともに、有線又は無線のネットワークを介して撮像カメラ70及び演出装置90〜93との間で通信を行うものであり、その機能は、通信用ASICまたは通信用プロセッサなどのハードウェア、及び、通信用ファームウェアにより実現できる。   The communication unit 196 performs communication with the HMD20 through the cable, which communicates with the image pickup camera 70 and the effect producing device 90 to 93 via a wired or wireless network, its function , hardware such as a communication ASIC or communication processor, and may be implemented by communication firmware.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、図示しないホスト装置(サーバシステム)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(または、記憶部170)に配信されてもよい。このようなホスト装置による情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program for causing a computer to function as each section according to this embodiment (the data), the information from the information storage medium a host device (not shown) which (server system) has over a network and the communication unit 196 storage medium 180 (or the storage it may be delivered to the section 170). Use of the information storage medium by the host device is also included within the scope of the present invention.

処理部101(プロセッサ)は、ゲーム開始からのタイミング及び撮像カメラ70から出力された画像のデータ(以下、「画像データ」という。)及びプログラムなどに基づいて、ゲーム演算処理、画像生成処理、音生成処理及び演出制御処理などを行う。   Processing unit 101 (processor), the data of the image output from the timing and the imaging camera 70 from the start of the game (hereinafter, referred to as. "Image data") based, and the like on the program, a game calculation process, an image generation process, a sound It performs generation processing and effect control processing.

処理部101は、記憶部170をワーク領域として各種処理を行う。この処理部101の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェア及びプログラムにより実現できる。   The processing unit 101 performs various processes using the storage unit 170 as a work area. The function of the processing unit 101 can be realized by hardware and programs such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.).

処理部101は、ゲーム演算部110、オブジェクト空間設定部111、状態検出処理部112、移動・動作処理部113、演出制御処理部114、通信制御部120、画像生成部130及び音生成部140を含む。なおこれらの一部を省略する構成としてもよい。   Processing unit 101, a game calculation section 110, an object space setting section 111, the state detection processing unit 112, the moving-operation processing section 113, the effect control process unit 114, the communication control unit 120, the image generation unit 130 and a sound generation section 140 Including. Note that a configuration in which some of these are omitted may be adopted.

ゲーム演算部110は、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、シミュレーション空間を形成する上で必要なオブジェクト(演出用オブジェクト80も含む。)を配置する処理、オブジェクトを表示する処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、及び、プレーヤ状態が特定状態(具体的には、ゲームの進行上予め該当する状態)であるか否かを判定する判定処理などがある
The game calculation section 110 performs a process of starting the game when game start conditions have been satisfied, proceeding with a game, disposing an object necessary for forming a simulation space (effect for the object 80 including.) , A process of displaying an object, a process of ending the game when a game ending condition is satisfied, and a determination whether the player state is a specific state (specifically, a state corresponding to the progress of the game in advance). There is a determination process to determine.

特に、本実施形態のゲーム演算部110は、検出されたプレーヤ状態(具体的には、プレーヤPの実空間内おける位置及び当該プレーヤPの姿勢)に応じてプレーヤPの視認方向及び視認するエリア(以下、「視認エリア」という。)を検出するとともに、当該検出した視認方向、視認エリア、現在のゲーム環境及び当該ゲームの進行状況に応じて3次元空間におけるプレーヤPから見える空間を設定する。   In particular, the game calculation section 110 of the present embodiment (specifically, the actual attitude of the space definitive position and the player P of the player P) detected player status area of the viewing direction and the viewing of the player P in accordance with the (hereinafter. referred to as "viewing area") detects a, the detected viewing direction, viewing area, to set the space viewed from the player P in the three-dimensional space in accordance with the progress of the current game environment and the game.

また、ゲーム演算部110は、検出されたプレーヤ状態に応じて、又は、ゲーム開始からの所定の経過時間に基づいて、ゲームの終了条件が満たされたか否かを判定し、当該ゲームの終了条件が満たされたと判定した場合にゲームを終了させる。   Further, the game calculation unit 110 determines whether or not the game termination condition is satisfied, based on the detected player state or based on a predetermined elapsed time from the start of the game, and When it is determined that is satisfied, the game is ended.

一方、ゲーム演算部110は、データバッファ176に予め記憶されたデータに基づいて、検出されたプレーヤ状態に応じてプレーヤPがゲームの進行上予め該当する特定状態になったか否かを判定し、その結果に応じてゲームの進行を行うとともに、演出制御処理部114、画像生成部130、及び、音生成部140に該当する演出を行うための指示を行う。   On the other hand, based on the data stored in the data buffer 176 in advance, the game calculation unit 110 determines whether or not the player P has entered a specific state corresponding to the progress of the game in advance according to the detected player state, performs progression of the game in accordance with the result, the performance control unit 114, the image generation unit 130, and an instruction for performing an effect corresponding to the sound generation section 140 performs.

オブジェクト空間設定部111は、演出用オブジェクト80、建物、移動経路R、柱、壁、マップ(地形)などの所定のシミュレーション空間を構築するための各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間(すなわち、仮想3次元空間)に配置設定する処理を行う。   The object space setting section 111, an effect for the object 80, the building, the movement path R, pillar, wall, map various objects to build a given simulation space, such as (terrain) (polygons, such as free-form surface, or subdivision surface A process of arranging and setting a primitive (object composed of primitives) in an object space (that is, a virtual three-dimensional space) is performed.

すなわち、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   That is, the position and rotation angle of the object in the world coordinate system (synonymous with orientation or direction) is determined and its position (X, Y, Z) to the rotational angle (X, Y, the rotation angle of the Z axis) in placing the object.

特に、本実施形態においては、演出用オブジェクト80としては、動物などのシミュレーション空間内に登場する移動可能なオブジェクト(以下、「演出用移動オブジェクト」という。)及びシミュレーション空間内に固定されたオブジェクトをプレーヤPに認識させるための実空間内に実際に存在させるためのオブジェクト(以下、「演出用固定オブジェクト」という。)を含み、オブジェクト空間設定部111は、これらの演出用オブジェクト80をシミュレーション空間に配置する。   In particular, in the present embodiment, as the effect object 80, a movable object (hereinafter, referred to as “effect moving object”) appearing in the simulation space such as an animal and an object fixed in the simulation space are used. The object space setting unit 111 includes objects for causing the player P to actually exist in a real space for recognition (hereinafter, referred to as “effect fixed objects”). Deploy.

なお、本実施形態においては、演出用移動オブジェクトには、実空間内において実際に移動するとともに、シミュレーション空間内においても移動するオブジェクトとして画像化されるオブジェクト(以下、「真性移動オブジェクト」という。)の他に、当該実空間内においては移動せず、画像化された際にシミュレーション空間内おいてのみ移動するオブジェクト(以下、「擬似的移動オブジェクト」という。)も含まれる。   In the present embodiment, the effect for the moving object, actually with moving in the real space, the object to be imaged as an object also move in the simulation space (hereinafter, referred to as "intrinsic moving object".) In addition, an object that does not move in the real space but moves only in the simulation space when being imaged (hereinafter, referred to as a “pseudo moving object”) is also included.

状態検出処理部112は、プレーヤPを画像化した複数の撮像カメラ70からそれぞれ出力されたプレーヤPの画像(以下、「プレーヤ画像」という。)内における同タイミングのプレーヤPの両手及び両足と、HMD20の上部と、に配設されたマーカユニット60の位置を特定する。   The state detection processing unit 112 includes both hands and both feet of the player P at the same timing in images of the player P (hereinafter, referred to as “player images”) output from the plurality of imaging cameras 70 that image the player P, and an upper HMD 20, the position of the marker unit 60 which is arranged to identify.

そして、状態検出処理部112は、特定した各画像内における各マーカユニット60の位置、各マーカユニット60における他のマーカユニット60との位置関係性、及び、各マーカユニット60の各位置での滞在時間の各情報に基づいて、プレーヤPの実空間内における位置及び姿勢を示すプレーヤ状態を検出する。   Then, the state detection processing unit 112, the position of each marker units 60 in each image identified, positional relationship with other markers units 60 at each marker unit 60, and stay at each location of each marker units 60 based on the information of the time to detect the player status indicating the position and orientation in the real space of the player P.

特に、撮像カメラ70毎に出力された画像に対して予め定められた実空間内の複数のエリアが設定されており、状態検出処理部112は、各マーカユニット60がいずれのエリアに属しているかを同タイミングにおける各プレーヤP画像に含まれるマーカユニット60の位置を検出することによって、各マーカユニット60の実空間内における位置を画像フレーム毎に検出する。   In particular, a plurality of areas in a predetermined real space are set for an image output for each imaging camera 70, and the state detection processing unit 112 determines which area each marker unit 60 belongs to. the by detecting the position of the marker unit 60 included in each player P picture in the same time, to detect the position in the real space of each marker unit 60 for each image frame.

また、状態検出処理部112は、フレーム毎に当該各マーカユニット60の実空間内における位置を検出しつつ、以前のフレームの各マーカユニット60の位置と比較し,複数のフレームにおいて同一の位置に存在するとして検出した各マーカユニット60におけるフレーム数に基づいて、各マーカユニット60の同一位置における滞在時間を検出する。   The state detection processing unit 112, while detecting the position in the real space of the each marker unit 60 for each frame is compared with the position of each marker unit 60 of the previous frame, the same position in a plurality of frames Based on the number of frames in each marker unit 60 detected as being present, the stay time of each marker unit 60 at the same position is detected.

そして、状態検出処理部112は、同タイミングにおける各マーカユニット60における実空間における位置、及び、当該各マーカユニット60のそれまでの滞在時間に基づいて、プレーヤPの実空間内における姿勢を検出する。   Then, the state detection processing unit 112, the position in the real space in each marker unit 60 in the same timing, and, based on the residence time up to that of each of the markers unit 60 detects the posture of the real space of the player P .

例えば、本実施形態の状態検出処理部112は、
(1)頭部、両手又は両足などのプレーヤPの所与の部位の位置、高さ及び時間の少な
くとも1の部位の情報(以下、「部位情報」という。)に基づいて、プレーヤPの実空間内における位置(すなわち、実空間内におけるプレーヤPの中心位置(重心位置)の座標)を特定し、
(2)プレーヤPの部位情報に基づいて、プレーヤPの頭、胴体及び手足などの各部位
の位置関係から構築されるプレーヤPの姿勢を特定し、又は、
(3)(1)及び(2)の双方を特定し、
プレーヤPの位置、姿勢又は双方に基づいてプレーヤ状態を検出する。
For example, the state detection processing unit 112 of the present embodiment
(1) a head, the position of a given site of the player P, such as hands or feet, at least one part of information of height and time (hereinafter, referred to as. "Site information") based on the real player P to locate in the space (i.e., the coordinates of the center position of the player P in the real space (the centroid position)),
(2) Based on the part information of the player P, the posture of the player P constructed from the positional relationship of each part such as the head, the torso, and the limbs of the player P is specified, or
(3) Specify both (1) and (2),
The player state is detected based on the position, posture, or both of the player P.

そして、状態検出処理部112は、
(A)プレーヤPの頭の位置に基づいて、実空間におけるプレーヤPの視点位置やその
方向を検出すること、
(B)プレーヤPの手の位置又は足の位置に基づいて、実空間におけるプレーヤPの立
ち位置や姿勢を検出すること、及び、
(C)検出したプレーヤPの立ち位置や姿勢に基づいて、プレーヤPをモデリングする
こと(ボーンの形成)
実行する。
Then, the state detection processing unit 112
(A) detecting the viewpoint position and the direction of the player P in the real space based on the position of the head of the player P;
(B) detecting the standing position and posture of the player P in the real space based on the position of the hand or the position of the foot of the player P;
(C) Modeling the player P based on the detected standing position and posture of the player P (formation of a bone)
Execute.

なお、例えば、ユーザの部位には、当該ユーザの頭部、手又は足を含み、部位情報には、各部位の位置(ユーザ移動空間上の位置座標)、向き、形状(平面形状や立体形状)又は色(グレースケールを含む。)などの各種情報を含む。   Incidentally, for example, at the site of the user comprises the head, the hands or feet of the user, the site information, (positional coordinates on the user moving space) position of each part, orientation, shape (planar shape or three-dimensional shape ) or color (. including grayscale) including various kinds of information such as.

他方、状態検出処理部112は、演出用移動オブジェクトにおいても、プレーヤPと同様に、当該演出用移動オブジェクトに配設されたマーカユニット60の実空間における位置を特定し、当該したマーカユニット60の実空間内における位置に基づいて、当該演出用移動オブジェクトの実空間内における位置(中心又は重心の位置)、及び、必要に応じてその状態を検出する。   On the other hand, the state detection processing unit 112, in effect for the moving object, similar to the player P, identifies the location in the real space of the marker unit 60 disposed in the effect for the moving object, the marker unit 60 and the Based on the position in the real space, the position (the position of the center or the center of gravity) of the performance moving object in the real space and, if necessary, its state are detected.

移動・動作処理部113は、検出されたプレーヤ状態、現在のゲーム環境、ゲームの進行状況又はこれらの2以上の情報に基づいて、プレーヤPと演出用オブジェクト80との位置関係を算出し、当該算出したプレーヤPと演出用オブジェクト80との位置関係に基づいて演出用オブジェクト80の移動・動作演算(移動・動作シミュレーション)を行う。   The movement / motion processing unit 113 calculates the positional relationship between the player P and the rendering object 80 based on the detected player state, the current game environment, the progress of the game, or two or more pieces of these information. calculated as the player P based on the positional relationship between the effect for the object 80 to move-operation calculation of the effect for the object 80 (moving-motion simulation).

すなわち、移動・動作処理部113は、検出したプレーヤ状態等に基づいて、各種のオブジェクトをオブジェクト空間内で移動させること、及び、オブジェクトを動作(モーション、アニメーション)させることの各処理を行う。   That is, the movement / motion processing unit 113 performs various processes of moving various objects in the object space and moving (motion, animation) the objects based on the detected player state or the like.

具体的には、移動・動作処理部113は、各種のオブジェクトの移動情報(位置、回転角度、速度、または、加速度)及び動作情報(オブジェクトを構成する各パーツの位置、または、回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。   More specifically, the movement / motion processing unit 113 stores movement information (position, rotation angle, speed, or acceleration) of various objects and motion information (position or rotation angle of each part constituting the object). performs found sequentially simulation processing for each frame (1/60 seconds).

なお、フレームは、オブジェクトの移動・動作処理(シミュレーション処理)及び画像生成処理を行う時間の単位である。   Note that the frame is a unit of time for performing the object movement / motion processing (simulation processing) and the image generation processing.

また、移動・動作処理部113は、演出用移動オブジェクトに対しては、実空間内における位置、プレーヤPとの実空間内における位置関係、演出用移動オブジェクトの状態(演出用移動オブジェクトの移動方向やその姿勢)、現在のゲーム環境やゲームの進行状況に基づいて、シミュレーション空間における移動情報及び動作情報を算出する。   The moving-operation processing unit 113, for presentation for a mobile object, the position in the real space, the positional relation in the real space of the player P, the moving direction of the effect for the moving object state (for effect moving object or its orientation), based on the progress of the current game environment or game, calculates the movement information and the operation information in the simulation space.

特に、移動・動作処理部113は、演出用移動オブジェクトの擬似的移動オブジェクトについては、ユーザ状態に応じて、実空間の位置や状態と連動させつつ、又は、当該実空間の位置や状態とシームレスに画像化可能に、擬似的移動オブジェクトの実空間内における位置、状態又はその双方に基づいて、シミュレーション空間における移動情報及び動作情報を算出する。   In particular, the movement / motion processing unit 113 determines whether the pseudo-moving object of the rendering moving object is linked to the position or state of the real space or seamless with the position or state of the real space according to the user state. The movement information and the movement information in the simulation space are calculated based on the position, the state, or both of the pseudo moving object in the real space so that the image can be imaged.

例えば、擬似的移動オブジェクトが猫などの動物のオブジェクトの場合には、移動・動作処理部113は、当該擬似的移動オブジェクトが実空間に配置されている位置とは異なる位置で動作をし、又は、異なるエリアを動き回り、所定のタイミングで当該擬似的移動オブジェクトが実空間に配置されている位置に戻り、実空間に配置されている状態と同様な状態となるための移動情報及び動作情報の演算を行う。   For example, if the pseudo moving object is an animal of an object, such as cats, movement and operation processing unit 113, and an operation at a position different from the position where the pseudo moving object is located in the real space, or Move around different areas, return to a position where the pseudo moving object is arranged in the real space at a predetermined timing, and calculate movement information and motion information to be in a state similar to a state arranged in the real space. I do.

また、このような場合に、移動・動作処理部113は、当該擬似的移動オブジェクトが実空間に配置されている位置で画像化するものの、その姿勢や仕草などの動作を画像化するための移動情報及び動作情報の演算を行う。   In such a case, the movement / motion processing unit 113 images the motion at the position where the pseudo moving object is arranged in the real space, but performs the movement for imaging the motion of the posture, the gesture, and the like. performing the calculation of the information and operation information.

より詳細には、移動・動作処理部113は、
(1)ゲーム開始時に、実空間上の移動経路Rの終点に擬似的移動オブジェクトとして
の猫オブジェクトが配置されている場合であっても、当該猫オブジェクトがプレーヤPのそばを動き回る擬似的な動作、
(2)プレーヤPが移動経路Rの終点に向かって一定の距離進んだ際に、実空間上に配
置されている位置に向かって猫オブジェクトが移動し、当該配置位置で実空間上の状態と同一の状態となる疑似的な動作から実際の状態への移行動作
(3)プレーヤPが猫オブジェクトを抱えた際の種々の仕草など実空間上において変化
しない疑似的な動作、
(4)プレーヤPが猫オブジェクトを抱えた状態から手放した際に、当該猫オブジェク
トが落下する場合に実空間上の移動と連動する動作、
を画像化するための移動情報及び動作情報の演算を行う。
More specifically, the movement / motion processing unit 113
(1) At the start of the game, even if a cat object as a pseudo moving object is arranged at the end point of the moving path R in the real space, the pseudo operation in which the cat object moves around the player P ,
(2) the player P is when advanced a certain distance towards the end of the travel path R, cats object moves toward the position that is located in the real space, the state of the real space in the position (3) A pseudo operation that does not change in the real space, such as various gestures when the player P holds a cat object,
(4) When the player P is let go from the state holding a cat object, operation in which the cat object to work with the movement of the real space in them to fall,
The calculation of the movement information and the operation information for imaging the image is performed.

演出制御処理部114は、プレーヤ状態(特定状態含む。)、演出用移動オブジェクトの状態、現在のゲーム環境及びゲームの進行状況に応じて各種の演出装置90〜93を制御するための処理を実行する。具体的には、演出制御処理部114は、各演出装置90〜
93における電源のON及びOFF、能力の変更、又は、予め設定されたプログラムに基づく制御を実行する。
Effect control process unit 114, the player status (including specific state.), The state of the effect for the moving object, the processing for controlling various effect device 90 to 93 in accordance with the progress of the current game environment and game execution I do. Specifically, the performance control unit 114, the rendering device 90
In step 93, the power supply is turned on and off, the capability is changed, or control based on a preset program is executed.

例えば、演出制御処理部114は、演出装置90〜93が送風機90の場合には、送風の強弱含む駆動制御及び停止制御、演出装置90〜93が温度調整装置の場合には、温度の調整、演出装置90〜93が移動経路Rの場合には、当該移動経路R内に仕込まれた揺動ユニット、又は、振動ユニットの制御などプレーヤPの状態に応じて変化させる必要のある演出装置90〜93を制御する。   For example, effect control process unit 114, if the performance apparatus 90 to 93 of the blower 90, strength comprises driving control and stop control of the blower, when the performance apparatus 90 to 93 are the temperature regulating device adjusts the temperature, If effect device 90 to 93 is moving path R is the moving path R rocking units charged in, or effect device 90 that needs to be changed in accordance with the state of the control, such as the player P of the vibrating unit to control the 93.

通信制御部120は、HMD20に送信するデータ(主にシミュレーション空間をプレーヤPに見せるための画像データ)を生成する処理等を行う。また、通信制御部120は、各演出装置90〜93を制御するための制御信号を送受信する。   The communication control unit 120 performs processing for generating the (image data to show the main simulation space player P) data to be transmitted to the HMD 20. In addition, the communication control unit 120 transmits and receives a control signal for controlling each of the effect devices 90 to 93.

画像生成部130は、処理部101で行われる種々の処理(ゲーム処理)の結果やプレーヤ状態(特定状態を含む。)などの各種の情報に基づいて描画処理を行い、これにより画像(特にシミュレーション空間をプレーヤPに見せるための画像)を生成し、通信制御部120を介してHMD20に出力する。   Image generating unit 130 (including the specific condition.) Results and player status of various processes performed by the processing section 101 (game process) performs a drawing process based on various information such as, thereby image (especially Simulation It generates an image) to show a space player P, and outputs the HMD20 via the communication control unit 120.

特に、画像生成部130は、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトルまたはα値等)を含むオブジェクトデータ(モデルデータ)を取得し、当該取得したオブジェクトデータ(モデルデータ)に含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)を実行する。   In particular, the image generation unit 130 first acquires object data (model data) including vertex data (position coordinates of the vertices, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model). , based on the vertex data included in the object data the acquired (model data), it executes the vertex process (shading using a vertex shader).

なお、画像生成部130は、頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The image generation unit 130, in performing the vertex process, optionally subdivided vertex generation process for the polygons (tessellation, curved surface division, polygon division) may be performed.

また、画像生成部130は、頂点処理としては、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、または、透視変換等のジオメトリ処理を実行し、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。   In addition, the image generation unit 130 performs vertex movement processing, coordinate conversion (world coordinate conversion, camera coordinate conversion), clipping processing, and the like in accordance with a vertex processing program (vertex shader program, first shader program). Alternatively, geometry processing such as perspective transformation is performed, and vertex data given for a vertex group forming the object is changed (updated or adjusted) based on the processing result.

そして、画像生成部130は、頂点処理後の頂点データに基づいてラスタライズ(走査変換)を実行し、ポリゴン(プリミティブ)の面とピクセルとを対応付ける。   Then, the image generating unit 130 performs rasterization (scan conversion) based on the vertex data after the vertex process, associating the plane and the pixel of the polygon (primitive).

一方、画像生成部130は、ラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)を実行する。   On the other hand, the image generating unit 130, following the rasterization performs pixel processing for drawing the pixels that form the image (fragments that form the display screen) the (shading using a pixel shader or a fragment process).

特に、ピクセル処理では、画像生成部130は、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を記憶部170(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。   In particular, in the pixel processing, the image generating unit 130 performs reading of a texture (texture mapping), setting / changing of color data, translucent composition, anti-aliasing, and the like according to a pixel processing program (pixel shader program, second shader program). Various processes are performed to determine the final drawing color of the pixels constituting the image, and the drawing color of the perspective-transformed object is stored in the storage unit 170 (buffer capable of storing image information in pixel units; VRAM, rendering target). output (drawing) to.

また、ピクセル処理では、画像生成部130は、画像情報(色、法線、輝度、α値等)をピクセル単位で設定または変更するパーピクセル処理を行う。これにより、オブジェク
ト空間内においてプレーヤPから見える画像を生成する。
In the pixel processing, the image generating unit 130 performs a per-pixel processing of setting or changing image information (color, normal, luminance, α value, and the like) in pixel units. Thus, an image that can be seen from the player P in the object space is generated.

さらに、画像生成部130は、頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現する。   Further, the image generating unit 130, the vertex process and the pixel process, the shader program written in shading language, polygons hardware that allows programs drawing process (primitives), a so-called programmable shader (vertex shader and pixel shader) It is realized by.

なお、プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The programmable shader allows for a high degree of freedom in rendering processing by allowing the processing of vertices and processing of pixels to be programmable, greatly improving the expressive power compared to fixed rendering processing using conventional hardware. it can be.

他方、画像生成部130は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   On the other hand, when drawing an object, the image generation unit 130 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like.

特に、画像生成部130は、ジオメトリ処理としては、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理を実行する。   In particular, the image generator 130, as geometry processing, subjects the object to coordinate transformation, clipping, execute perspective transformation, or light source calculation and the like.

そして、画像生成部130は、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)を、記憶部170に記憶する。   Then, the image generation unit 130 stores the object data (position coordinates of the vertices of the object, texture coordinates, color data (luminance data), normal vector, α value, etc.) after the geometry processing (after the perspective projection transformation). stored in the section 170.

また、画像生成部130は、記憶部170に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理であるテクスチャマッピングを実行する。具体的には、画像生成部130は、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。   Further, the image generation unit 130 executes texture mapping, which is a process for mapping a texture (texel value) stored in the storage unit 170 to an object. Specifically, the image generation unit 130 reads a texture (color (RGB), surface properties such as α value) from the storage unit 170 using the texture coordinates set to the vertices of the object (grant).

そして、画像生成部130は、2次元の画像であるテクスチャをオブジェクトにマッピングする。画像生成部130は、この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Then, the image generation unit 130 maps the texture (two-dimensional image) onto the object. In this case, the image generation unit 130 performs a process of associating pixels with texels, and performs bilinear interpolation or the like as texel interpolation.

さらに、画像生成部130は、隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が入力されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。   Further, the image generating unit 130, the hidden surface removal, hidden by Z buffer Z value of the drawing (depth) is input Z buffer method was used (depth buffer) value (depth, Z test) Perform a surface erasing process.

すなわち、画像生成部130は、オブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに入力されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、プレーヤPから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   That is, the image generating unit 130 refers to the Z value input to the Z buffer when drawing the drawing pixel corresponding to the primitive of the object. Then, the Z value of the referenced Z buffer is compared with the Z value of the primitive drawing pixel, and the Z value of the drawing pixel is a Z value (for example, a small Z value) on the near side as viewed from the player P. In some cases, the drawing process of the drawing pixel is performed, and the Z value of the Z buffer is updated to a new Z value.

そして、画像生成部130は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のαブレンディング(α合成)を実行する。   Then, the image generation unit 130 performs α blending (α synthesis) of the translucent composition processing (normal α blending, addition α blending, subtraction α blending, etc.) based on the α value (A value).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして出力できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. α value, mask information, translucency (transparency, opacity equivalent), can be output as bump information, or the like.

音生成部140は、プレーヤ状態(特定状態を含む。)など処理部101で行われる種
々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音(シミュレーション空間における立体音響としての環境音)を生成し、HMD20を介してヘッドフォン61に出力する。
The sound generation section 140 (including the specific condition.) Player state performs a sound process based on the results of various processes performed by the processing unit 101 such as, BGM, sound effects, or the game sound such as voice in (simulation space An environmental sound as three-dimensional sound is generated and output to the headphones 61 via the HMD 20.

2−6.プレーヤ用のマーカユニット及び撮像カメラ
次に、上記の図1及び図4を用いて本実施形態のゲームシステムにおけるプレーヤ用のマーカユニット60及び撮像カメラ70について説明する。
2-6. Then the marker unit and an imaging camera for players, the marker unit 60 and the imaging camera 70 of the player is described in the game system of this embodiment with reference to FIGS. 1 and 4 above.

本実施形態においては、上述のように、プレーヤ状態を検出するために、各プレーヤPには、複数の部位にマーカユニット60を配設する。具体的には、本実施形態のマーカユニット60は、上記の図1及び図4に示すように、頭部、両手及び両足の複数の部位に配設される。   In the present embodiment, as described above, in order to detect the player state, each player P, and disposed the marker unit 60 at multiple sites. Specifically, the marker units 60 of the present embodiment are provided at a plurality of parts of the head, both hands, and both feet, as shown in FIGS.

特に、各マーカユニット60は、反射シートなどの表面が反射する材料によって形成され、かつ、球場のマーカによって形成されている。例えば、各マーカユニット60は、光が照射された場合に、当該光を反射して白く光る又は特定の色によって光る構成を有している。   In particular, each marker unit 60 is formed of a material whose surface reflects such as a reflection sheet, and is formed of a stadium marker. For example, each marker unit 60, when light is irradiated, and a glowing by white shining or specific color configuration to reflect the light.

具体的には、各マーカユニット60は、頭部検出用マーカユニット60a、右手又は左手検出用マーカユニット60b、及び、右足又は左足検出用マーカユニット60cから構成される。   Specifically, each marker unit 60 includes a head detection marker unit 60a, a right hand or left hand detection marker unit 60b, and a right foot or left foot detection marker unit 60c.

なお、本実施形態の構造体10内の移動体験エリアには、各マーカユニット60に光を照射させる図示しない光源ユニットが設けられている。   Incidentally, the mobile experience area within the structure 10 of the present embodiment, the light source unit is provided (not shown) for irradiating light to each marker unit 60.

また、マーカユニット60の光る色は、特に限定されないが、複数のプレーヤPが移動体験エリアに同時に存在する場合には、プレーヤP毎に色を変えてもよいし、マーカユニット60が装着された部位毎にマーカユニット60の光る色を変えてもよい。   The color of the marker unit 60 that emits light is not particularly limited. However, when a plurality of players P are simultaneously present in the movement experience area, the color may be changed for each player P, or the marker unit 60 may be mounted. The shining color of the marker unit 60 may be changed for each part.

各撮像カメラ70は、例えば、図1に示すように、それぞれ、構造体10内の予め設定された位置に固定配設され、画角内に撮像されたエリアを画像化してその画像データをシミュレーション制御装置100に順次出力する。   For example, as shown in FIG. 1, each imaging camera 70 is fixedly disposed at a preset position in the structure 10, and images an area imaged within an angle of view to simulate the image data. and sequentially outputs to the controller 100.

特に、本実施形態の各撮像カメラ70は、実空間内のプレーヤPが移動する移動範囲(具体的には、移動経路R)の外側に形成されている。   In particular, each imaging camera 70 of the present embodiment is formed outside the moving range (specifically, moving path R) in which the player P moves in the real space.

そして、各撮像カメラ70は、プレーエリア12を画像化し、当該プレーエリア12内に移動し、姿勢を変更し、又は、その双方を実施するプレーヤPを全て画像化することが可能に配置されている。   Each imaging camera 70 is arranged so as to be able to image the play area 12, move into the play area 12, change the posture, or image all the players P performing both of them. I have.

また、本実施形態の各撮像カメラ70は、CCDなどの所定の撮像素子と、所定の焦点距離を有するレンズと、を備え、予め定められた画角及び焦点距離によって当該画角内のエリアを画像化し、当該画像化した画像データを順次シミュレーション制御装置100に出力する。   Further, each imaging camera 70 of the present embodiment includes a predetermined imaging element such as a CCD and a lens having a predetermined focal length, and an area within the angle of view is determined by a predetermined angle of view and focal length. imaged, and outputs the image data obtained by the imaging sequential simulation controller 100.

なお、プレーヤPがプレーエリア12内を自由に移動する事ができる場合には、プレーエリア12を全て画像化する必要があり、当該プレーエリア12の撮像漏れがないように各撮像カメラ70が配設される。   If the player P can move freely within the play area 12, it is necessary to image the entire play area 12, and the imaging cameras 70 are arranged so that the play area 12 is not missed. It is set.

また、各撮像カメラ70は、有色のマーカユニット60を検出するためには、カラー形
式のカメラを用いることが要求される。
Further, the imaging camera 70, in order to detect the marker unit 60 a colored, is required to use a color format of the camera.

また、マーカユニット60の数及び配設位置は、上記に限らない。撮像カメラ70によって撮像可能な位置であれば、基本的にはその数配置位置は限定されない。   The number and arrangement positions of the marker units 60 are not limited to the above. As long as the position can be imaged by the imaging camera 70, basically, the number of arrangement positions is not limited.

2−7.演出用オブジェクト及び演出装置
次に、上記の図1、図3及び図4並びに図7を用いて本実施形態のゲームシステムにおける演出用オブジェクト80及び演出装置90〜93について説明する。なお、図7は、本実施形態の演出装置である移動経路部材93の一例を示す図である。
2-7. Production Object and Production Device Next, the production object 80 and the production devices 90 to 93 in the game system of the present embodiment will be described with reference to FIGS. 1, 3, 4 and 7 described above. FIG. 7 is a diagram illustrating an example of the movement route member 93 that is the rendering device of the present embodiment.

本実施形態の演出用オブジェクト80及び演出装置90〜93は、構造体10内に形成された実空間内に配設されるとともに、シミュレーション制御装置100の制御の下、シミュレーション画像と連動することによってプレーヤPに所与の演出を体感させる構成を有している。   The rendering object 80 and the rendering devices 90 to 93 according to the present embodiment are arranged in a real space formed in the structure 10 and are linked with a simulation image under the control of the simulation control device 100. It has a structure to experience a given effect to the player P.

特に、演出用オブジェクト80及び演出装置90〜93は、屋外空間や屋内空間のみならず、高所、閉所、危険な場所、特殊空間、暑い場所又は寒い場所などのシミュレーション空間を体感させるための演出用オブジェクト又は演出装置であって、シミュレーション画像と連動させてプレーヤPがシミュレーションによって見えている状況を体感的にも作り出し、臨場感のあるシミュレーションを提供するために用いられる。   In particular, the effect object 80 and the effect devices 90 to 93 are effects for experiencing not only an outdoor space and an indoor space but also a simulation space such as a high place, a closed place, a dangerous place, a special space, a hot place or a cold place. a use object or effect device, a situation in which in conjunction with the simulation image player P is seen by the simulation creates even perceived, used to provide a simulation realistic.

具体的には、本実施形態の演出用オブジェクト80は、上述のように、演出用移動オブジェクト及び演出用固定オブジェクトを含み、演出用移動オブジェクトには、真性移動オブジェクト及び擬似的移動オブジェクトが含まれる。   Specifically, the effect object 80 of the present embodiment includes the effect moving object and the effect stationary object as described above, and the effect moving object includes the intrinsic moving object and the pseudo moving object. .

そして、疑似的移動オブジェクトについては、実空間内における演出用オブジェクト80の状態とは異なる状態で画像化される。   And, for the pseudo moving object, the state of the effect for the object 80 in the real space is imaged in different states.

演出用移動オブジェクトは、実空間内における位置、プレーヤPとの実空間内における位置関係、及び、演出用移動オブジェクトの状態(演出用移動オブジェクトの移動方向やその姿勢)を検出するためのマーカユニット60dを有している。   Effect for the moving object, the position in the real space, the positional relation in the real space of the player P, and the marker unit for detecting the state of the effect for the moving object (moving direction and the posture of the effect for the moving object) 60d.

そして、演出用移動オブジェクトは、マーカユニット60dを撮像カメラ70によって撮像させることによって、プレーヤPの各部位と同様に、シミュレーション制御装置100に実空間の位置、状態及びその双方を認識させる。   Then, by causing the marker unit 60d to be imaged by the imaging camera 70, the effect moving object causes the simulation control device 100 to recognize the position, state, and both of the real space, similarly to each part of the player P.

例えば、演出用オブジェクト80のマーカユニット60dとしては、プレーヤPの各部位に配設されるマーカユニット60a、b、cと同じものが用いられる。ただし、プレーヤPのマーカユニット60a、b、cの色又は記憶されている各種の情報を区別することによって複数のプレーヤP又はそのゲームに登場する演出用オブジェクト80毎に異なることが好ましい。   For example, as the marker unit 60d of the rendering object 80, the same one as the marker units 60a, 60b, 60c arranged in each part of the player P is used. However, it is preferable that the color is different for each of the plurality of players P or the staging objects 80 appearing in the game by discriminating the colors of the marker units 60a, 60b, 60c of the player P or various kinds of stored information.

なお、演出用オブジェクト80の内部に振動ユニットを配設し、シミュレーション制御装置100において当該振動ユニットの振動制御を行うことによって、シミュレ−ション画像と連動して又は単独でプレーヤPを驚かす演出を実行してもよい。   Incidentally, the vibrating unit is disposed in the interior of the effect for the object 80, by performing the vibration control of the vibration unit in the simulation control unit 100, simulator - execute an effect of surprise player P in conjunction with Deployment image or alone it may be.

演出装置90〜93は、シミュレーション空間を、より現実的な空間として確実に擬似的に創り出すための装置であって、プレーヤPに対して所与の演出効果を直接提供する装置である。   The rendering devices 90 to 93 are devices for surely creating a simulation space as a more realistic space in a pseudo manner, and are devices that directly provide a given rendering effect to the player P.

特に、演出装置90〜93は、シミュレーション画像に連動させつつ、実空間に単に配置され、当該配置とその構造によってプレーヤPに所与の演出効果を提供する構造型演出装置と、検出されたプレーヤ状態、ゲーム環境及びゲームの進行状況に応じて所与の演出効果を提供する連動型演出装置を含む。   In particular, effect device 90 to 93, while in conjunction with the simulation image, simply arranged in the real space, and structure type effect device that provides a given production effect to the player P the arrangement and by its structure, was detected player state, in accordance with the progress status of the game environment and game including linked effect device that provides a given production effect.

そして、連動型演出装置には、例えば、図1に示す送風機90、及び、図示しない温度調整装置、照明装置、又は、振動装置などのシミュレーション空間の環境を形成するための演出装置を含む。   The interlocking effect device includes, for example, a fan 90 shown in FIG. 1 and an effect device for forming an environment of a simulation space such as a temperature adjusting device, a lighting device, or a vibration device (not shown).

また、構造型演出装置には、移動経路Rを構成する移動経路部材93、スタート位置を認識されるスタートブロック(図示しない)、又は、エレベータ内を認識させるためのバネ床パネル92など壁面や床面の凹凸又は素材などのプレーヤPに接触感を体感させるための部材を含む。   Further, the structure-type effect device includes a moving path member 93 constituting the moving path R, a start block (not shown) for recognizing the start position, or a wall or floor such as a spring floor panel 92 for recognizing the inside of the elevator. Includes a member such as surface irregularities or a material for causing the player P to feel a touch.

例えば、送風機90は、上記の図1及び図4に示すように、プレーヤPがスタートゾーン13から移動体験ゾーン14にゾーンが切り替わったとき、当該プレーヤPの前面に向けて送風を出力し、また、移動経路Rに移動した場合にプレーヤPの下から当該プレーヤPの正面に向けて送風を出力する構成を有している。   For example, as shown in FIGS. 1 and 4 described above, when the player P switches the zone from the start zone 13 to the movement experience zone 14, the blower 90 outputs a blower toward the front of the player P, has a structure of outputting the blowing toward the bottom of the player P in front of the player P when moving the moving path R.

移動経路部材93は、上記の図3及び図7に示すように、予め定められたプレーヤPが移動する移動経路R下に設けられ、シミュレーション画像に応じて振動可能又は揺動可能に形成された演出可能領域93aが構成される。   As shown in FIGS. 3 and 7, the moving path member 93 is provided below a predetermined moving path R in which the player P moves, and is formed so as to be able to vibrate or swing according to a simulation image. production area 93a is configured.

すなわち、演出可能領域93aにおける移動経路部材93は、図7(A)に示すように、構造体10の床面(具体的には、非移動経路NR)から異なる高さ(天井方向の高さ)によって形成されている。   That is, the moving path member 93 in effect region 93a, as shown in FIG. 7 (A), the floor surface of the structure 10 (specifically, the non-moving path NR) from different heights (the height of the ceiling direction ).

そして、演出可能領域93aにおける移動経路部材93は、プレーヤPが移動経路部材93上に歩行開始するなど所与の条件に基づき演出可能領域を振動駆動又は揺動駆動をする複数の駆動ユニット95によって構成されている。   The moving path member 93 in the effectable area 93a is driven by a plurality of drive units 95 that vibrate or swing the effectable area based on given conditions such as the player P starting walking on the moving path member 93. It is configured.

特に、各駆動ユニット95は、それぞれ、移動経路部材93が床面と水平方向であって移動経路方向(プレーヤPの進行方向)に対して直角となる方向に回転する車輪96と、車輪96が接地する面から所定の高さ(例えば、5mm程度)の隙間Dを有する移動経路部材93を支持する支持板97と、から構成されている。   In particular, each drive unit 95 includes a wheel 96 that rotates in a direction in which the movement path member 93 is horizontal to the floor surface and is perpendicular to the movement path direction (the traveling direction of the player P). And a support plate 97 that supports a movement path member 93 having a gap D at a predetermined height (for example, about 5 mm) from the grounding surface.

そして、駆動ユニット95は、演出可能領域93aにおいて移動経路Rに沿って他の駆動ユニット95と隣接されて配設される。   Then, the drive unit 95 is arranged being adjacent to other drive units 95 along the moving path R in effect region 93a.

なお、演出可能領域93aにおける移動経路部材93において、全部の移動経路Rが駆動ユニット95によって構成されていてもよいし、当該全部の移動経路Rが駆動しない移動経路部材93との組み合わせによって構成されていてもよい。そして、図7(B)には、駆動ユニット95が連続的に移動経路Rを構成する例を示す。   In the movement path member 93 in the effectable area 93a, the entire movement path R may be configured by the drive unit 95, or the entire movement path R may be configured by a combination with the non-driven movement path member 93. May be. FIG. 7B shows an example in which the drive unit 95 continuously forms the movement route R.

さらに、駆動ユニットは、図7(A)及び(B)に示すように、自立的に振動駆動又は揺動駆動するように構成されていてもよいし、演出制御処理部114によって機械的に振動駆動及び揺動駆動が制御されてもよい。   Further, as shown in FIGS. 7A and 7B, the drive unit may be configured to independently perform vibration drive or swing drive, or may be mechanically vibrated by the effect control processing unit 114. The drive and the swing drive may be controlled.

一方、演出装置は、シミュレーション空間のみ疑似的にその構造又は形態を変化させてもよい。すなわち、演出用オブジェクト及び演出装置は、実空間上においては、構造又は
形態の変化は生じていないが、シミュレーション空間のみ疑似的にその構造又は形態を変化させることも可能である。
On the other hand, the rendering device may change its structure or form only in the simulation space. In other words, the structure and form of the effect object and the effect device are not changed in the real space, but the structure or shape can be changed only in the simulation space.

例えば、所定のイベントが発生した場合に、画像生成部130は、移動経路部材93の幅を疑似的に狭くすること、壁17が疑似的に近づいてくること、又は、天井15が疑似的に下がっていることなど、シミュレーション空間のみ疑似的にその構造又は形態を変化させてもよい。   For example, when a predetermined event occurs, the image generation unit 130 is to reduce the width of the movement path member 93 artificially, the wall 17 is approaching artificially, or ceiling 15 artificially For example, the structure or form may be changed only in the simulation space, for example, when the simulation space is lowered.

2−7−1.ゲームシステムの動作
次に、図8及び図9を用いて本実施形態におけるゲームシステム1の動作について説明する。なお、図8及び図9は、本実施形態におけるゲームシステム1の動作を示すフローチャートである。
2-7-1. Operation of Game System Next, the operation of the game system 1 according to the present embodiment will be described with reference to FIGS. 8 and 9 are flowcharts illustrating the operation of the game system 1 according to the present embodiment.

本動作は、高所における恐怖体験をシミュレートする高所恐怖体験ゲームを用いて説明する。特に、高所恐怖体験ゲームは、プレーヤPがスタートゾーン13からスタートして所定の幅の移動経路部材93上を移動させ、当該移動経路部材93上の端点(スタートゾーン13から遠い点)に存在する演出用オブジェクト80(例えば猫)を抱えて(救出して)当該スタートゾーン13まで制限時間内に戻ってくるゲームである。   This operation will be described using a high place fear experience game that simulates a fear experience at a high place. In particular, heights fear experience game, the player P is to start from the start zone 13 moves the movement path member 93 above the predetermined width, present in the end point on the movement path member 93 (the point farthest from the start zone 13) In this game, the player returns to the start zone 13 within the time limit while holding (rescuing) a staging object 80 (for example, a cat).

また、プレーヤPは、HMD20及び転倒防止ユニット40を既に装着しており、ハードウェア的な準備は整っているものとする。   Also, it is assumed that the player P has already mounted the HMD 20 and the fall prevention unit 40, and is ready for hardware.

まず、ゲーム演算部110は、HMD20及び転倒防止ユニット40が装着されたプレーヤPの所定の位置(具体的にはスタートゾーン13内)に存在することを前提に、管理者の操作に基づく図示しないボタンの押し下げの有無(すなわち、ゲーム開始)を検出する(ステップS101)。   First, the game calculation unit 110 is not illustrated based on an operation of the administrator, assuming that the HMD 20 and the fall prevention unit 40 are present at a predetermined position of the player P (specifically, within the start zone 13). It is detected whether or not the button has been pressed (that is, the game has started) (step S101).

なお、ゲーム演算部110は、ステップS101の処理として、状態検出処理部112によるプレーヤ状態の検出を開始するとともに、プレーヤPが所定の位置に存在するか否かを検出してゲーム開始を検出してもよい。   Note that the game calculation unit 110 starts the detection of the player state by the state detection processing unit 112 as the process of step S101, and detects whether the player P is present at a predetermined position to detect the start of the game. You may.

次いで、ゲーム演算部110は、高所恐怖体験ゲームに関する各種の演算を開始するとともに、オブジェクト空間設定部111、状態検出処理部112、移動・動作処理部113、演出制御処理部114、画像生成部130及び音生成部140は、それぞれ、高所恐怖体験ゲームにおけるシミュレーションに関する各処理を開始する(ステップS102)。   Next, the game calculation unit 110 starts various calculations relating to the high-altitude fear experience game, and sets the object space setting unit 111, the state detection processing unit 112, the movement / motion processing unit 113, the effect control processing unit 114, and the image generation unit. 130 and sound generator 140, respectively, to initiate each processing relating to the simulation of altitude fear experience game (step S102).

具体的には、
(1)状態検出処理部112は、プレーヤPの各部及び演出用オブジェクト80に配設
されたマーカユニット60の検出を開始しつつ、プレーヤ状態及び演出用オブジェクト80の状態の検出を開始し、
(2)オブジェクト空間設定部111及び移動・動作処理部113は、プレーヤ状態、
演出用オブジェクト80の状態、ゲーム環境及びゲームの進行状況に応じてプレーヤPから見えるシミュレーション空間の構築を開始し、
(3)演出制御処理部114は、プレーヤ状態、演出用オブジェクト80の状態、ゲー
ム環境及びゲームの進行状況に応じて該当する演出装置(送風機90、自動扉91及びバネ床パネル92)の制御を開始し、
(4)画像生成部130及び音生成部140は、プレーヤ状態、演出用オブジェクト8
0の状態、ゲーム環境及びゲームの進行状況に応じて、シミュレーション画像の生成及びそれに伴う音の生成を開始する。
In particular,
(1) The state detection processing unit 112 starts detection of the player state and the state of the effect object 80 while starting detection of each unit of the player P and the marker unit 60 disposed on the effect object 80,
(2) The object space setting unit 111 and the movement / motion processing unit 113
State of the effect for the object 80, to start the construction of the simulation space visible from the player P according to the progress of the game environment and game,
(3) The effect control processing unit 114 controls the effect devices (blower 90, automatic door 91, and spring floor panel 92) corresponding to the player state, the state of the effect object 80, the game environment, and the progress of the game. started,
(4) image generation unit 130 and a sound generation section 140, the player status, effect for the object 8
In accordance with the state of 0, the game environment, and the progress of the game, the generation of the simulation image and the generation of the accompanying sound are started.

なお、ステップS102の処理移行は、ゲームの終了が判定されるまで、開始された
各処理は継続して実行される。
The processing proceeds in step S102, until the end of the game is determined, the process started is continuously executed.

次いで、画像生成部130は、エレベータ内の画像をHMD20に表示するとともに、演出制御処理部114は、スタートゾーン13におけるバネ床パネル92を制御し、スタートゾーン13におけるシミュレーション処理を実行する(ステップS103)。   Next, the image generation unit 130 displays the image in the elevator on the HMD 20, and the effect control processing unit 114 controls the spring floor panel 92 in the start zone 13 to execute the simulation process in the start zone 13 (step S103). ).

次いで、演出制御処理部114は、所定のタイミング(スタートゾーン13におけるシミュレーション処理の終了)を検出すると(ステップS104)、演出制御処理部114は、ゲーム開始処理を実行するとともに(ステップS105)、ゲーム演算部110は、ゲーム開始のカウントダウンを開始する(ステップS106)。   Next, when the effect control processing unit 114 detects a predetermined timing (end of the simulation process in the start zone 13) (step S104), the effect control processing unit 114 executes a game start process (step S105), and The operation unit 110 starts a countdown for starting the game (step S106).

例えば、演出制御処理部114は、ゲーム開始処理としては、
(1)バネ床パネル92の制御の終了、
(2)スタートゾーン13と移動体験ゾーン14の間に形成された自動扉91(すなわ
ち、エレベータの扉)を閉状態から開状態への制御、及び、
(3)送風機90による送風制御
などの該当する演出装置の制御を実行する。
For example, the effect control processing unit 114 performs, as the game start processing,
(1) End of control of the spring floor panel 92,
(2) Control of the automatic door 91 (that is, the door of the elevator) formed between the start zone 13 and the movement experience zone 14 from the closed state to the open state, and
(3) The control of the corresponding effect device such as the blowing control by the blower 90 is executed.

次いで、ゲーム演算部110は、カウントダウンが終了したことを検出しつつ(ステップS107)、状態検出処理部112は、スタートゾーン13を超えて移動体験ゾーン14に移動したか否かの判定(以下、「スタートエラー判定」という。)を実行する(ステップS108)。   Then, the game calculation section 110, while detecting that the countdown is finished (step S107), the state detection processing unit 112, determines whether or not to move the mobile experience zone 14 exceeds the start zone 13 (hereinafter, "Start error determination") is performed (step S108).

このとき、状態検出処理部112は、カウントダウン終了前に、スタートゾーン13を超えて移動体験ゾーン14に移動したことを判定したと判定した場合には、HMD20に警告を通知し(ステップS109)、ステップS107の処理に移行する。   At this time, if the state detection processing unit 112 determines that it has moved to the movement experience zone 14 beyond the start zone 13 before the countdown ends, it notifies the HMD 20 of a warning (step S109). The process moves to step S107.

なお、本処理においては、状態検出処理部112は、ステップSゲーム開始動作の中断などのそれに伴う演出を実行して本動作をステップS105の処理からやり直してもよいし、ゲームを中断させてもよい。   In the present process, the state detection processing unit 112 may execute an accompanying effect such as interruption of the step S game start operation, and restart the operation from the process of step S105, or may interrupt the game. Good.

また、ゲーム演算部110は、カウントダウンが終了したことを検出すると、高所恐怖体験ゲームの実行に関する各種の演算を開始させる(ステップS110)。具体的には、ゲーム演算部110は、制限時間のカウントを開始し、また、ゲーム終了処理の判定を開始する。   When detecting that the countdown has ended, the game calculation section 110 starts various calculations relating to the execution of the high-altitude fear experience game (step S110). Specifically, the game calculation section 110 starts counting of the time limit, also starts to determine the game end process.

次いで、ゲーム演算部110は、ゲームの終了条件を具備したか否かを判定する(ステップS111)。具体的には、ゲーム演算部110は、状態検出処理部112と連動してプレーヤ状態若しくは演出用オブジェクト80の状態が終了条件を満たしたか否か、及び、制限時間が「0」になったか否かを判定する。   Then, the game calculation section 110 determines whether or not equipped with a termination condition for the game (step S111). Specifically, the game calculation unit 110 interlocks with the state detection processing unit 112 to determine whether the player state or the state of the staging object 80 satisfies the termination condition, and whether the time limit has reached “0”. Is determined.

例えば、ゲーム演算部110は、検出されたプレーヤ状態に基づいて、プレーヤPが移動経路R上から外れた特定状態となったか、及び、移動中に救出すべき演出用オブジェクト80を落下させ特定状態となったかなど終了条件を満たす特定状態となったか否かを判定する。   For example, based on the detected player state, the game calculation unit 110 determines whether the player P has entered a specific state deviating from the movement route R, and drops the effect object 80 to be rescued during the movement to the specific state. It is determined whether or not a specific state that satisfies the end condition such as whether or not the state has been reached.

次いで、ゲーム演算部110は、ゲーム終了条件を具備していないと判定した場合には状態検出処理部112と連動して、又は、ゲームの進行状況に応じて、イベントの開始条
件を具備したか否かを判定する(ステップS112)。
Next, if it is determined that the game calculation unit 110 does not have the game end condition, the game calculation unit 110 does not have the event start condition in conjunction with the state detection processing unit 112 or according to the progress of the game. It is determined whether or not it is (step S112).

具体的には、ゲーム演算部110は、移動経路部材93上に移動したか否か、当該移動経路部材93上の第1位置(演出用オブジェクト80である猫オブジェクトが最初に配置された位置)まで到達したか否か、実空間上の演出用オブジェクト80である猫オブジェクトが配置された位置(移動経路部材93の終点)まで到達した否かなどプレーヤが所定の特定状態であるか否かを含めてイベントの開始条件を判定する。   Specifically, the game calculation section 110 determines whether or not moved on the movement path member 93, a first position on the moving path member 93 (cat object is effect for the object 80 is first placed position) until whether reached, as to whether or not such player who has reached the position where the cat object is placed a presentation for the object 80 in the real space (the end point of the movement path member 93) whether a predetermined specific state including determining the start conditions of the event.

このとき、ゲーム演算部110によって当該イベントの開始条件を具備したと判定された場合には、演出制御処理部114、画像生成部130及び音生成部140は、検出したイベントに応じた処理を実行し(ステップS113)、ゲーム演算部110によって当該イベント条件を具備していないと判定された場合には、ステップS111の処理に移行する。   At this time, when the game calculation section 110 is determined to be equipped with a start condition of the event, the effect control process unit 114, the image generation unit 130 and a sound generation section 140 executes processing corresponding to the detected event Then (step S113), if the game operation unit 110 determines that the event condition is not satisfied, the process proceeds to step S111.

具体的には、
(1)プレーヤPが、移動経路部材93上に移動したとする特定状態と判定された場合
には、演出制御処理部114は、プレーヤPの下側に配設された送風機90を可動させて下からプレーヤPに風を送る演出を実行し、
(2)プレーヤPが、移動経路部材93上の第1位置(演出用オブジェクト80である
猫オブジェクトが最初に配置された位置)まで到達したとする特定状態と判定された場合には、画像生成部130及び音生成部140は、猫オブジェクトが移動経路Rの終点まで逃げていく演出を実行し、
(3)プレーヤPが、猫オブジェクトが配置された位置まで到達したとする特定状態で
あると判定された場合には、当該猫オブジェクトを救出する演出を実行し、
(4)プレーヤPが、猫オブジェクトを抱えて救出したとする特定状態であると判定さ
れた場合には、画像生成部130及び音生成部140は、移動方向がスタートゾーン13に向かう方向になった場合には、移動経路部材93の幅を狭くする演出を実行し、
(5)プレーヤP、が猫オブジェクトを抱えた状態でスタートゾーン13に到達したと
する特定状態であると判定された場合には、エレベータから脱出するなどのゲームクリアに関する演出を実行する。
In particular,
(1) When it is determined that the player P has moved to the movement path member 93 in the specific state, the effect control processing unit 114 operates the blower 90 disposed below the player P to move the blower 90. Perform the effect of sending the wind to the player P from below,
(2) the player P is, when the first position on the movement path member 93 is determined with specific conditions which has reached (cat object is effect for the object 80 is first placed position), the image generation The unit 130 and the sound generation unit 140 perform an effect in which the cat object escapes to the end point of the movement route R,
(3) player P is, when it is determined that the specific state that has reached to a position where the cat object is placed performs an effect to rescue the cat object,
(4) player P is, when it is determined that the specific state of the rescued suffer from cat object, the image generating unit 130 and a sound generation section 140, is in the direction in which the moving direction is toward the start zone 13 In this case, an effect of reducing the width of the movement path member 93 is executed,
(5) player P, in the case where but is determined to be a specific state that has reached the start zone 13 in a state that had a cat object, to perform an effect on the game clear, such as to escape from the elevator.

一方、ゲーム演算部110は、当該ゲームの終了条件を具備したと判定した場合には
、画像生成部130及び音生成部140は、ゲーム終了に関する演出を行うための画像及び音を生成して出力し(ステップS114)、本動作を終了させる。なお、ゲーム終了に関する演出としては、ゲームの終了条件に応じて異なる演出が実行される。
On the other hand, when the game calculation section 110 determines that the end condition of the game is satisfied, the image generation section 130 and the sound generation section 140 generate and output an image and a sound for effecting the end of the game. Then (step S114), the operation ends. It should be noted that, as is the effect on the end of the game, different performance depending on the termination condition of the game is executed.

2−8.アイ入力
2−8−1.アイ入力の概要
本実施形態のシミュレーション制御装置100のゲーム演算部110は、主記憶部172に記録されたゲームプログラム(シミュレーション制御プログラムの一例)に従い、適宜、表示処理部110A、計測部110B、受付け部110C、通知部110D、実行部110Eとして動作し、アイ入力を利用したユーザインタフェースとして機能する。ここでいう「アイ入力」は、プレーヤPがオブジェクトを目視するという動作によって自分の指示をシミュレーション制御装置100へ入力することである。以下、アイ入力に関する表示処理部110A、計測部110B、受付け部110C、通知部110D、実行部110Eの動作の概要を、説明する。
2-8. Eye input 2-8-1. The game calculation section 110 of the simulation control unit 100 of the Outline of Embodiment of the eye input in accordance with a game program recorded in the main storage unit 172 (an example of a simulation control program), as appropriate, the display processing unit 110A, the measurement unit 110B, accepted parts 110C, the notification unit 110D, operates as an execution unit 110E, functions as a user interface that utilizes an eye input. Here, the "Eye Input" is that the player P is input by the operation of viewing the object to simulation controller 100 to their instructions. Hereinafter, the outline of the operations of the display processing unit 110A, the measurement unit 110B, the reception unit 110C, the notification unit 110D, and the execution unit 110E regarding the eye input will be described.

(1)表示処理部110A:
表示処理部110Aは、HMD20へ仮想3次元空間(図10の符号OBS)を表示する。例えば、表示処理部110Aは、オブジェクト空間設定部111及び画像生成部13
0を制御し、シミュレーション空間を構築するための各種オブジェクトを仮想3次元空間(図10の符号OBS)内に配置する。このオブジェクトには、アイコン(後述する押しボタンオブジェクトOB1〜OB4)、仮想コントローラ、仮想メカスイッチ、キャラクタ、アイテムなどが含まれる。また、表示処理部110Aは、画像生成部130を制御し、仮想3次元空間OBSに仮想カメラを設定し、仮想カメラの視野範囲(図10の符号DA)をプレーヤPに見せるための画像データを生成する処理を実行する。また、表示処理部110Aは、通信制御部120及び通信部196を制御し、当該画像データをHMD20へ出力する処理を実行する。また、表示処理部110Aは、状態検出処理部112が検出するプレーヤPの頭部の位置及び姿勢の変化に応じて、仮想3次元空間(図10の符号OBS)における仮想カメラの位置及び姿勢を変化させる処理を実行する。
(1) Display processing unit 110A:
The display processing unit 110A displays the virtual three-dimensional space (the code OBS in FIG. 10) on the HMD 20. For example, the display processing unit 110A includes the object space setting unit 111 and the image generation unit 13
Controls 0, placing various objects to build a simulation space in a virtual three-dimensional space (reference numeral OBS in Figure 10). The objects include icons (push button objects OB1 to OB4 described later), virtual controllers, virtual mechanical switches, characters, items, and the like. Further, the display processing unit 110A controls the image generation unit 130, sets the virtual camera in the virtual three-dimensional space OBS, and displays image data for showing the player P the visual field range (reference numeral DA in FIG. 10) of the virtual camera. Execute the process to generate. Further, the display processing unit 110A controls the communication control unit 120 and the communication unit 196 to execute a process of outputting the image data to the HMD 20. In addition, the display processing unit 110A changes the position and the posture of the virtual camera in the virtual three-dimensional space (the code OBS in FIG. 10) according to the change in the position and the posture of the head of the player P detected by the state detection processing unit 112. Execute the process of changing.

(2)計測部110B:
計測部110Bは、仮想3次元空間(図11の符号OBS)に配置されたオブジェクト(例えば図11の符号OB1)に対するプレーヤPの目視時間を計測(チャージ)し、オブジェクト(図11の符号OB1)からプレーヤPの視線(図10の符号LSA)が外れた場合には、視線(図10の符号LSA)が外れている時間に応じて計測による計測値(以下、「チャージ量」という。)を減少させる。計測部110Bは、例えば、表示エリアDA内に位置する押しボタンオブジェクトOB1のヒットエリアOBHA(オブジェクトが存在しているとみなすエリアの一例)と、表示エリアDAに設定された視認エリアLSA(視線が存在しているとみなすエリアの一例)との位置関係に基づき、プレーヤPが押しボタンオブジェクトOB1を目視しているか否かを判定する処理(目視判定の処理)を実行する。
(2) Measurement unit 110B:
Measurement unit 110B, a virtual three-dimensional space by measuring the visual time of the player P with respect to (code OB1 e.g. FIG. 11) objects arranged in a (reference numeral OBS in FIG. 11) (charge), the object (reference numeral OB1 in FIG. 11) When the line of sight of the player P (reference symbol LSA in FIG. 10) deviates from, a measurement value (hereinafter, referred to as “charge amount”) obtained by measurement according to the time during which the player P is out of sight (reference character LSA in FIG. 10). Decrease. The measurement unit 110B includes, for example, a hit area OBHA of the push button object OB1 located in the display area DA (an example of an area where an object is considered to be present) and a visual recognition area LSA (line of sight set in the display area DA). A process (visual determination process) of determining whether or not the player P is looking at the push button object OB1 based on a positional relationship with an example of an area considered to be present) is performed.

(3)受付け部110C:
受付け部110Cは、チャージ量が第1閾値Th1(例えば2秒)に達した場合にオブジェクト(図11の符号OB1)の選択(以下、「ロック」という。)の指示を受付け、チャージ量が第1閾値Th1より大きい第2閾値Th2(例えば5秒)に達した場合にオブジェクト(図11の符号OB1)のロックの確定の指示を受付け、確定の前にチャージ量が第3閾値Th3(例えばゼロ秒)まで低下した場合にオブジェクト(図11の符号OB1)のロックの解除を受付ける。但し、受付け部110Cは、仮にチャージ量が第2閾値Th2(例えば5秒)に達していなかったとしても、チャージ量が第1閾値Th1を超えており、かつ、プレーヤPが所定のアクションをした場合には、強制的にロックを確定してもよい。所定のアクションは、「実空間に配置されたボタンの押し下げ」であってもよいし、「確定用オブジェクトの目視」であってもよい。但し、以下の説明では、実空間に配置されたボタン及び確定用オブジェクトを用いない場合について説明する。
(3) Receiving unit 110C:
When the charge amount has reached the first threshold value Th1 (for example, 2 seconds), the receiving unit 110C receives an instruction to select an object (reference numeral OB1 in FIG. 11) (hereinafter, referred to as “lock”), and the charge amount is set to the first. receives an instruction of the lock of the defined object (code OB1 in FIG. 11) when it reaches the first threshold value Th1 is greater than the second threshold value Th2 (e.g., 5 seconds), the charge amount of the third threshold value Th3 (e.g. zero before the confirmation Second), the release of the lock on the object (reference numeral OB1 in FIG. 11) is accepted. However, receiving unit 110C is, if the charge amount even has not reached the second threshold value Th2 (e.g., 5 seconds), the charge amount exceeds the first threshold value Th1, and the player P has a predetermined action case, may be forced to accept the lock. The predetermined action may be “depression of a button arranged in the real space” or “visual confirmation of the object for confirmation”. However, in the following description describes the case of not using the arranged buttons and defined for the object in the real space.

(4)通知部110D:
通知部110Dは、チャージ量の大きさの程度をプレーヤPへ通知する。通知部110Dは、例えば、オブジェクト空間設定部111を制御し、チャージ量の大きさに応じて変化する視覚効果(図14)をオブジェクト(図11の符号OB1)へ付すことによってプレーヤPへの通知を行う。なお、通知部110Dは、音生成部140に効果音を生成させ、通信制御部120及び通信部196を介して当該効果音をHMD20のヘッドフォン61へ出力することにより、プレーヤPへの通知を行ってもよい。また、通知部110Dは、プレーヤPへの通知を、プレーヤPの視覚、聴覚、触覚、嗅覚の少なくとも1つによって行うことができる(但し、以下では、視覚による通知を主として説明する。)。
(4) Notification unit 110D:
Notification unit 110D notifies the degree of charge amount of size to the player P. Notification unit 110D, for example, notification to the player P by subjecting to control the object space setting section 111, the charge amount of visual changes according to the size effect (FIG. 14) to the object (reference numeral OB1 in FIG. 11) I do. The notification unit 110D notifies the player P by causing the sound generation unit 140 to generate a sound effect and outputting the sound effect to the headphones 61 of the HMD 20 via the communication control unit 120 and the communication unit 196. You may. The notification unit 110D is notified to the player P, visual player P, hearing, touch, can be carried out by at least one olfactory (However, in the following description is mainly given notification by visual.).

(5)実行部110E:
実行部110Eとしてのゲーム演算部110は、オブジェクト(図11の符号OB1)のロックが確定した場合にオブジェクト(図11の符号OB1)に対応付けられた所定の処理を実行する。オブジェクト(図11の符号OB1)に対応付けられた所定の処理は、
例えば、ゲームパラメータの設定処理、当該オブジェクトへの攻撃処理、当該オブジェクトの移動処理、他のオブジェクトに対する処理、所定プログラムを実行する処理などである。また、実行部110Eが所定の処理を実行するタイミングは、確定の直後であっても確定から所定時間の経過後であってもよい(以下、確定の直後と仮定する。)。
(5) executing section 110E:
The game calculation section 110 as an execution unit 110E executes the predetermined processing corresponding to the object (reference numeral OB1 in Figure 11) if the lock object (code OB1 in FIG. 11) is confirmed. Objects predetermined processing corresponding to the (sign OB1 in FIG. 11),
For example, there are a process of setting a game parameter, a process of attacking the object, a process of moving the object, a process of another object, and a process of executing a predetermined program. Further, the timing at which the execution unit 110E executes the predetermined process may be immediately after the determination or after a predetermined time has elapsed from the determination (hereinafter, it is assumed that it is immediately after the determination).

以下、表示処理部110Aとしてのゲーム演算部110の動作、計測部110Bとしてのゲーム演算部110の動作、受付け部110Cとしてのゲーム演算部110の動作、通知部110Dとしてのゲーム演算部110の動作、実行部110Eとしてのゲーム演算部110の動作を、ゲーム演算部110の動作として説明する。   Hereinafter, the operation of the game operation unit 110 as the display processing unit 110A, the operation of the game operation unit 110 as the measurement unit 110B, the operation of the game operation unit 110 as the reception unit 110C, and the operation of the game operation unit 110 as the notification unit 110D The operation of the game operation unit 110 as the execution unit 110E will be described as the operation of the game operation unit 110.

2−8−2.視認エリア
図10は、仮想3次元空間OBSと、HMD20を装着したプレーヤPから見える空間(以下、「表示エリアDA」と称す。)と、HMD20を装着したプレーヤPの視認エリアLSAとの関係を説明する図である。
2-8-2. Viewing area Figure 10, the virtual 3-dimensional space OBS, space viewed from the player P who wears the HMD 20 (hereinafter. Referred to as "display area DA") and the relationship between the viewing area LSA of the player P who wears the HMD 20 it is a diagram for explaining.

表示エリアDAは、前述したとおり仮想3次元空間OSに配置された仮想カメラの視野範囲に相当し、HMD20を介してプレーヤPの眼前へ表示されるエリアのことである。ゲーム演算部110は、前述したとおり当該仮想カメラの位置及び姿勢をプレーヤPの頭部の位置及び姿勢に追従させるので、仮想3次元空間OBSにおける表示エリアDAの位置及び姿勢もプレーヤPの頭部の位置及び姿勢に追従する。   The display area DA corresponds to the field of view of the virtual camera arranged in the virtual three-dimensional space OS as described above, and is an area displayed in front of the player P via the HMD 20. As described above, the game calculation unit 110 causes the position and orientation of the virtual camera to follow the position and orientation of the head of the player P. Therefore, the position and orientation of the display area DA in the virtual three-dimensional space OBS also change the head of the player P. Follow the position and attitude of.

視認エリアLSAは、表示エリアDAの中央にゲーム演算部110が設定した所定サイズのエリアである。視認エリアLSは、後述する目視判定においてプレーヤPが目視しているとみなされる範囲(注視範囲又は視線範囲ということもできる。)に相当する。表示エリアDAのサイズを基準とした視認エリアLSAのサイズの比は、基本的に固定されており、表示エリアDAにおける表示エリアDAの位置も、基本的に固定されている。ここでは、図10に示すとおり、表示エリアDAにおける視認エリアLSAの位置は表示エリアDAの中央であり、視認エリアLSAの形状は、円形であると仮定する。   The viewing area LSA is an area of a predetermined size set by the game calculation unit 110 in the center of the display area DA. The viewing area LS corresponds to a range in which the player P is considered to be watching in a visual determination described later (it can also be referred to as a gaze range or a line-of-sight range). The ratio of the size of the viewing area LSA relative to the size of the display area DA is basically fixed, the position of the display area DA of the display area DA, which is basically fixed. Here, as shown in FIG. 10, it is assumed that the position of the viewing area LSA in the display area DA is the center of the display area DA, and the shape of the viewing area LSA is circular.

なお、表示エリアDAのサイズを基準とした視認エリアLSAのサイズの比は、可変とすることも可能である。また、表示エリアDAにおける視認エリアLSAの位置を可変とすることも可能である。更に、表示エリアDAにおける視認エリアLSAの位置を可変とする場合、例えば、視認エリアLSAの位置をプレーヤPの視線の向きに追従させることも可能である(後述する視線入力を参照)。また、図10では、説明のために視認エリアLSAの輪郭と視認エリアLSAの中心座標とを可視化したが、輪郭と中心座標との各々は、実際には非表示であって構わない。   The ratio of the size of the viewing area LSA relative to the size of the display area DA may also be made variable. Further, the position of the viewing area LSA in the display area DA can be made variable. Further, when the position of the viewing area LSA in the display area DA is variable, for example, the position of the viewing area LSA can be made to follow the direction of the line of sight of the player P (see the line of sight input described later). Further, in FIG. 10, has been visualized and the center coordinates of the contour to the viewing area LSA of the viewing area LSA for explanation, each of the outline and the center coordinates, may be actually hidden.

さて、図10では、高所恐怖体験ゲームの開始(ステップS101)に当たり、仮想3次元空間OBSとしてセレクト画面が表示された例を示している。セレクト画面は、プレーヤPがゲーム処理に関する幾つかの設定を行うための画面である。   Now, FIG. 10 shows an example in which the select screen is displayed as the virtual three-dimensional space OBS at the start of the high-altitude fear experience game (step S101). The select screen is a screen for the player P to make some settings relating to the game processing.

ここでは、人数セレクト用の押しボタンオブジェクトOB1、OB2と、難易度セレクト用の押しボタンオブジェクトOB3、OB4とが一定の間隔を置いてセレクト画面に配置されたと仮定する。これらの押しボタンオブジェクトOB1、OB2、OB3、OB4の各々は、仮想的な操作ボタンであって、一般に「アイコン」と呼ばれることもあるオブジェクトである。図10には表さなかったが、プレーヤPから見て押しボタンオブジェクトOB1、OB2、OB3、OB4の背後には、仮想3次元空間OBSに存在する他のオブジェクト(例えば、高所恐怖体験ゲームのスタート地点から見える景色など)が写り込んでいても構わない。   Here, it is assumed that the push button objects OB1 and OB2 for selecting the number of persons and the push button objects OB3 and OB4 for selecting the degree of difficulty are arranged on the select screen at regular intervals. Each of these push button objects OB1, OB2, OB3, OB4 is a virtual operation button, and is an object that may be generally called an "icon". Although not shown in FIG. 10, other objects existing in the virtual three-dimensional space OBS behind the push button objects OB1, OB2, OB3, and OB4 as viewed from the player P (for example, the The scenery that you can see from the starting point) can be reflected.

先ず、押しボタンオブジェクトOB1には、処理部101(主にゲーム演算部110)が実行すべきゲーム処理のモードを「1人プレーモード」に設定する処理の機能が割り当てられている。「1人プレーモード」は、HMD20を装着した単一のプレーヤPが構造体10を移動するのに適したモードである。   First, the push button object OB1 is assigned a function of a process of setting the mode of the game process to be executed by the processing unit 101 (mainly the game calculation unit 110) to the “single player mode”. The “single player mode” is a mode suitable for a single player P wearing the HMD 20 to move the structure 10.

また、押しボタンオブジェクトOB2には、処理部101(主にゲーム演算部110)が実行すべきゲーム処理のモードを「2人プレーモード」に設定する処理の機能が割り当てられている。「2人プレーモード」は、HMD20を個別に装着した2人のプレーヤPが同一の構造体10を移動するのに適したモード(2人のプレーヤPに恐怖体験を共有させるモード)である。「2人プレーモード」におけるゲーム演算部110は、例えば、2人のプレーヤPに個別に対応する2つの仮想カメラを仮想3次元空間OBSに設定すると共に、2人のプレーヤPに個別に対応する2人のキャラクタ(アバター)を仮想3次元空間OBSに配置する。そして、ゲーム演算部110は、2つの仮想カメラを2人のプレーヤPの頭部に連動させ、2つのアバターの各部位を2人のプレーヤPの各部位に連動させる。   Also, the push button object OB2, processor 101 (mainly the game calculation section 110) function of the processing of setting the mode of the game process to be executed "two play mode" is assigned. "Two play mode" is a mode in which two players P who wears the HMD20 individually adapted to move a single structure 10 (mode for sharing two fear experience to the player P in). The game calculation section 110 in the "two play mode", for example, with two virtual camera corresponding individually to the two players P are set in the virtual three-dimensional space OBS, individually corresponding to the two players P Two characters (avatars) are arranged in a virtual three-dimensional space OBS. Then, the game calculation unit 110 links the two virtual cameras to the heads of the two players P, and links the parts of the two avatars to the parts of the two players P.

また、押しボタンオブジェクトOB3には、処理部101(主にゲーム演算部110)が実行すべきゲーム処理のモードを「初級モード」に設定する処理の機能が割り当てられている。「初級モード」は、ゲーム処理の難易度(例えば、プレーヤPが落下する確率)が後述する「上級モード」と比較して低く設定されたモードのことである。ゲーム処理の難易度の調整は、例えば、ゲーム処理のパラメータを調整することによって行われる。   Also, the push button object OB3, processor 101 (mainly the game calculation section 110) function of the processing of setting the mode of the game process to be executed "beginner mode" is assigned. "Beginner mode", the difficulty level of the game processing (for example, the probability that the player P is dropped) is that the lower the mode set by comparison with the "advanced modes", which will be described later. Adjustment of difficulty of the game process is performed, for example, by adjusting the parameters of the game process.

また、押しボタンオブジェクトOB4には、処理部101(主にゲーム演算部110)が実行すべきゲーム処理のモードを「上級モード」に設定する処理の機能が割り当てられている。「上級モード」は、ゲーム処理の難易度(例えば、プレーヤPが落下する確率)が前述した「初級モード」と比較して高く設定されたモードのことである。ゲーム処理の難易度の調整は、例えば、ゲーム処理のパラメータを調整することによって行われる。   The push button object OB4 is assigned a function of a process of setting the mode of the game process to be executed by the processing unit 101 (mainly the game calculation unit 110) to the “advanced mode”. "Advanced mode", the difficulty level of the game processing (for example, the probability that the player P is dropped) is a mode that is set higher than the "Introductory mode" described above. The adjustment of the difficulty level of the game processing is performed, for example, by adjusting the parameters of the game processing.

以下、プレーヤPが「1人プレーモード」かつ「初級モード」でプレーする場合、すなわち、プレーヤPが押しボタンオブジェクトOB1、OB3をアイ入力によりロックし、アイ入力によりロックを確定することを想定する。   Hereinafter, it is assumed that the player P plays in the “single player mode” and the “elementary mode”, that is, the player P locks the push button objects OB1 and OB3 by eye input and determines the lock by eye input. .

図10に示すとおり、セレクト画面の表示当初は、押しボタンオブジェクトOB1、OB2、OB3、OB4が2×2のマトリクス状に配置され、かつ、マトリクスの中央に表示エリアDA及び視認エリアLSAが位置していたと仮定する。   As shown in FIG. 10, at the beginning of the display of the select screen, the push button objects OB1, OB2, OB3, and OB4 are arranged in a 2 × 2 matrix, and the display area DA and the visual recognition area LSA are located at the center of the matrix. which was assuming.

その後、プレーヤPが頭を左上に向けると、図11に示すとおり表示エリアDA及び視認エリアLSAはセレクト画面の左上(プレーヤPから見て左上)に向かって移動する。   Thereafter, when the player P turns his head to the upper left, the display area DA and the visible area LSA move toward the upper left of the select screen (upper left as viewed from the player P) as shown in FIG.

図11は、視認エリアLSAが押しボタンオブジェクトOB1の中央に位置し、かつ、表示エリアDAが押しボタンオブジェクトOB1の全体をカバーした状態を示している。この状態では、ゲーム演算部110は、プレーヤPが押しボタンオブジェクトOB1を目視していると判定する(目視判定の詳細は後述。)。   FIG. 11 shows a state in which the viewing area LSA is located at the center of the push button object OB1, and the display area DA covers the entire push button object OB1. In this state, the game calculation unit 110 determines that the player P is watching the push button object OB1 (the details of the visual determination will be described later).

なお、図10、図11には示さなかったが、プレーヤPが自分の背後へ後退した場合には、仮想3次元空間OBSにおける表示エリアDA及び視認エリアLSAのサイズは大きくなり、例えば4つの押しボタンオブジェクトOB1、OB2、OB3、OB4の全貌を表示エリアDA内に収めることも可能である。   Although not shown in FIGS. 10 and 11, when the player P retreats behind him, the size of the display area DA and the visual recognition area LSA in the virtual three-dimensional space OBS increases, and for example, four pushes are performed. The entire image of the button objects OB1, OB2, OB3, and OB4 can be contained in the display area DA.

2−8−3.目視判定
ゲーム演算部110は、セレクト画面に配置された押しボタンオブジェクトOB1、OB2、OB3、OB4の各々に対して個別にヒットエリアを設定している。図12(a)には、押しボタンオブジェクトOB1に設定されたヒットエリアOBHAの例を代表して示した。
2-8-3. Visual judgment game calculation section 110 has set the hit area separately for each of the push button object OB1, OB2, OB3, OB4 disposed to the select screen. The FIG. 12 (a), the illustrated as a representative example of the hit area OBHA set in the push button object OB1.

図12(a)に示すとおり、押しボタンオブジェクトOB1のヒットエリアOBHAは、押しボタンオブジェクトOB1の中心座標と同じ座標を中心とした所定形状かつ所定サイズのエリアである。このヒットエリアOBHAの輪郭の形状は、例えば、押しボタンオブジェクトOB1の輪郭の相似形であって、押しボタンオブジェクトOB1のヒットエリアOBHAのサイズは、例えば、押しボタンオブジェクトOB1のサイズと同等である。   As shown in FIG. 12A, the hit area OBHA of the push button object OB1 is an area having a predetermined shape and a predetermined size centered on the same coordinates as the center coordinates of the push button object OB1. The shape of the outline of the hit area OBHA, for example, a similar shape of the contour of the push button object OB1, the size of the hit area OBHA pushbutton object OB1, for example, is equal to the size of the push button object OB1.

但し、ヒットエリアOBHAのサイズは、押しボタンオブジェクトOB1のサイズより大きくてもよいし、小さくてもよい。また、ヒットエリアOBHAのサイズは、必要に応じて調節可能であってもよい。   However, the size of the hit area OBHA may be larger or smaller than the size of the push button object OB1. The size of the hit area OBHA may be adjustable if desired.

さて、ゲーム演算部110は、押しボタンオブジェクトOB1のヒットエリアOBHAと視認エリアLSAとの位置関係に基づき、押しボタンオブジェクトOB1をプレーヤPが目視しているか否かの判定(目視判定)を行う。   Now, the game calculation section 110, based on the positional relationship between the hit areas OBHA the viewing area LSA of push button object OB1, performing push button object OB1 determination player P is whether or not visually (visual judgment).

例えば、ゲーム演算部110は、ヒットエリアOBHAの少なくとも一部と視認エリアLSAの少なくとも一部とが重複した場合に、プレーヤPが押しボタンオブジェクトOB1を「目視している」と判定し、そうでない場合に、プレーヤPが押しボタンオブジェクトOB1を「目視していない」(すなわち、押しボタンオブジェクトOB1からプレーヤPの視線が外れている)と判定する。図12(b)は、ヒットエリアOBHAの少なくとも一部と視認エリアLSAの少なくとも一部とが重複した状態を示している。図12(b)の状態は、ゲーム演算部110が「目視している」と判定する状態の1つである。   For example, when at least a part of the hit area OBHA overlaps with at least a part of the viewing area LSA, the game calculation unit 110 determines that the player P is “viewing” the push button object OB1, and is not so. In this case, the player P determines that the push button object OB1 is “not looking” (that is, the player P is out of the line of sight of the push button object OB1). FIG. 12B shows a state where at least a part of the hit area OBHA and at least a part of the visual recognition area LSA overlap. The state in FIG. 12B is one of the states in which the game calculation unit 110 determines that the user is “visually watching”.

なお、ここでは、押しボタンオブジェクトOB1をプレーヤPが目視しているとゲーム演算部110が判定する条件を、「ヒットエリアOBHAの少なくとも一部と視認エリアLSAの少なくとも一部とが重複した場合」とするが、「ヒットエリアOBHA及び視認エリアLSAの一方に他方が包含された場合」、「ヒットエリアOBHAと視認エリアLSAとの間隔が閾値未満となった場合」などとすることも可能である。   Note that here, the condition that the game calculation unit 110 determines that the player P is looking at the push button object OB1 is set as “a case where at least a part of the hit area OBHA overlaps with at least a part of the visual recognition area LSA”. However, “when one of the hit area OBHA and the visual recognition area LSA is included in the other”, “when the interval between the hit area OBHA and the visual recognition area LSA becomes smaller than the threshold value”, and the like can be used. .

また、図12(a)、図12(b)では、視認エリアLSAの方がヒットエリアOBHAよりも小さい場合を例として示したが、視認エリアLSAの方がヒットエリアOBHAよりも大きいことも当然にあり得る。   12 (a) and 12 (b) show an example in which the visible area LSA is smaller than the hit area OBHA, but it is natural that the visible area LSA is larger than the hit area OBHA. Could be.

以上の結果、プレーヤPは、HMD20を装着した頭部の姿勢と頭部の位置との組み合わせを変化させることにより、仮想3次元空間OBSにおける視認エリアLSAの位置等を変化させ、押しボタンオブジェクトOB1を目視したり、押しボタンオブジェクトOB1から視線を外したりすることができる。   As a result, the player P changes the position and the like of the viewing area LSA in the virtual three-dimensional space OBS by changing the combination of the posture of the head wearing the HMD 20 and the position of the head, and changes the push button object OB1. Can be visually checked, and the line of sight can be removed from the push button object OB1.

以下では、目視判定により「目視している」と判定される状態のことを単に「目視」といい、目視判定により「目視していない」と判定される状態のことを「視線を外す」、「視線が外れる」などという。また、ここでいう「視線」は、実空間におけるプレーヤPの実際の視線(眼球の視軸)のことではなく、仮想3次元空間OBSにおける視認エリアLSAを指すものとする。   In the following, the state that is determined to be "viewing" by visual determination is simply referred to as "visual", and the state that is determined to be "not watching" by visual determination is "remove the line of sight", "Look out of sight." The “line of sight” here does not refer to the actual line of sight of the player P (the visual axis of the eyeball) in the real space, but to the visual recognition area LSA in the virtual three-dimensional space OBS.

また、本実施形態のHMD20においては、視認エリアLSA及びヒットエリアOBHAは、基本的に非表示であって構わない。なぜなら、本実施形態のゲーム演算部110は
、仮想3次元空間OBSにおける何れかのオブジェクトをプレーヤPが目視した場合には、目視された当該オブジェクトを強調するので(後述する図14等を参照)、視認エリアLSA及びヒットエリアOBHAが非表示であったとしても、自分の視線が仮想3次元空間OBSの如何なる辺りに存在しているのかを、プレーヤPが見失うことは無いと考えられる。
In the HMD 20 of the present embodiment, the visible area LSA and the hit area OBHA may be basically not displayed. Because, when the player P views any object in the virtual three-dimensional space OBS, the game calculation unit 110 of the present embodiment emphasizes the viewed object (see FIG. 14 and the like described later). Even if the visual recognition area LSA and the hit area OBHA are not displayed, it is considered that the player P does not lose sight of where in the virtual three-dimensional space OBS the own line of sight exists.

2−9.目視時間のチャージ量
本実施形態のゲーム演算部110は、基本的に、仮想3次元空間OBSに配置されたオブジェクトごとにプレーヤPの目視時間を計測(チャージ)し、オブジェクトごとの計測量(チャージ量)に応じてオブジェクトの状態を、「ロック」、「ロック解除(非ロック)」、「確定」の3状態の間で制御する。なお、ゲーム演算部110は、オブジェクトごとの目視時間のチャージ量を、例えば、読み書き可能なメモリ(データバッファ176など)で管理する。
2-9. Amount of Charge for Visual Time The game calculation unit 110 of the present embodiment basically measures (charges) the visual time of the player P for each object arranged in the virtual three-dimensional space OBS, and measures the amount of charge (charge) for each object. the state of the object in accordance with the amount), "locked", "unlocked (unlocked)", it is controlled between the three states of "definite". In addition, the game calculation unit 110 manages the charge amount of the viewing time for each object in, for example, a readable / writable memory (such as the data buffer 176).

図13(a)、図13(b)、図13(c)、図13(d)は、或るオブジェクトについての目視開始からの経過時間とチャージ量との関係を説明する図(グラフ)である。グラフの横軸が時間を示し、グラフの縦軸がチャージ量を示している。   13 (a), 13 (b), 13 (c), and 13 (d) are diagrams (graphs) illustrating the relationship between the elapsed time from the start of visual observation of a certain object and the charge amount. is there. The horizontal axis of the graph represents time and the vertical axis indicates the charge amount of the graph.

図13(a)は、プレーヤPがオブジェクトを短時間だけ目視した場合(目視開始後にチャージ量が第1閾値Th1に達する前に視線が外れた場合)におけるチャージ量の変化パターンを示している。   13 (a) shows the player P indicates the charge amount of the change pattern in the case where only visually briefly object (if the charge amount after visually started gaze falls off before reaching the first threshold value Th1).

図13(b)は、プレーヤPが一定時間に亘ってオブジェクトを目視してから視線を外した場合(目視開始後にチャージ量が第1閾値Th1に達してから視線が外れた場合)におけるチャージ量の変化パターンを示している。   FIG. 13 (b), the charge amount when the player P goes off sight from viewing the objects over a certain time (if the charge amount after visually started out line of sight after reaching the first threshold value Th1) 3 shows a change pattern.

図13(c)は、プレーヤPが十分な時間に亘って継続してオブジェクトを目視した場合(目視開始後にチャージ量が第2閾値Th2に達した場合)におけるチャージ量の変化パターンを示している。   FIG. 13C shows a change pattern of the charge amount when the player P continuously looks at the object for a sufficient time (when the charge amount reaches the second threshold value Th2 after the start of the visual observation). .

図13(d)は、プレーヤPが一定時間に亘ってオブジェクトを目視してから視線を一時的に外し、かつ、再目視した場合(目視開始後にチャージ量が第1閾値Th1を超えて第2閾値Th2に達する前に視線が外れ、その後、チャージ量がゼロとなる前に再目視された場合)におけるチャージ量の変化パターンを示している。   FIG. 13D shows a case where the player P looks at the object for a certain period of time, temporarily removes his / her line of sight, and looks at the object again (the charge amount exceeds the first threshold Th1 after the start of the visual observation and the second time. This shows a change pattern of the charge amount when the line of sight is displaced before reaching the threshold Th2, and thereafter, the user is re-viewed before the charge amount becomes zero.

先ず、ゲーム演算部110は、オブジェクトに対するプレーヤPの目視が開始されると(図13(a)〜(d)におけるチャージ開始時刻tsを参照。)、当該オブジェクトについての目視時間のチャージを開始する。ここでは、ゲーム演算部110は、目視時間が1秒増加するごとにチャージ量を「1」ずつ増加させるものとする。   First, the game calculation section 110, the visual of the player P on the object is started (see charge starting time ts in FIG. 13 (a) ~ (d).), To start charging of the visual time for the object . Here, it is assumed that the game calculation unit 110 increases the charge amount by “1” each time the viewing time increases by one second.

また、ゲーム演算部110は、オブジェクトからプレーヤPの視線が外れた場合には(図13(b)、(d)における視線解除時刻tOを参照。)、視線が外れている時間に応じて目視時間のチャージ量を減少させる。ここでは、ゲーム演算部110は、目視時間が1秒増加するごとにチャージ量を「0.5」ずつ増加させるものとする。   Further, when the line of sight of the player P deviates from the object (see the line of sight release time tO in FIGS. 13B and 13D), the game calculation unit 110 performs visual observation according to the time during which the line of sight is deviated. Reduce time charge. Here, the game calculation section 110 is assumed to visual time is increased by "0.5" charge amount every increase of 1 second.

そして、ゲーム演算部110は、チャージ開始後にチャージ量が第1閾値Th1(ここではTh1=2とする。)に達した場合に、オブジェクトをロックする(図13(b)、(c)、(d)におけるロック開始時刻tLを参照。)。   The game calculation section 110, when the charge amount after charging start has reached the first threshold value Th1 (here, the Th1 = 2.), To lock the object (FIG. 13 (b), (c), ( (See the lock start time tL in d).)

従って、プレーヤPは、オブジェクトを一定以上に亘って(ここでは2秒間に亘って)
継続して目視することによって、当該オブジェクトをロックすることができる。
Thus, the player P is over an object above a certain level (here over 2 seconds)
By visually continuously, it is possible to lock the object.

また、ゲーム演算部110は、チャージ開始後にチャージ量が第1閾値Th1より大きい第2閾値Th2(ここではTh2=5とする。)に達した場合には(図13(c)、(d)における確定時刻tCを参照。)、オブジェクトのロックを確定し、チャージ量をゼロにリセットする。   Further, when the charge amount reaches a second threshold value Th2 (here, Th2 = 5) larger than the first threshold value Th1 after the start of charging (FIGS. 13C and 13D). The lock of the object is determined and the charge amount is reset to zero.

従って、プレーヤPは、ロックしたオブジェクトを一定以上に亘って継続的に(または断続的に)目視することによって、当該オブジェクトのロックを確定することができる。   Therefore, the player P can determine the lock of the locked object by continuously (or intermittently) watching the locked object over a certain amount.

また、ゲーム演算部110は、ロック後かつ確定前にチャージ量が第3閾値Th3(ここではTh3=ゼロとする。)まで低下した場合には、オブジェクトのロックの解除を受付ける(図13(b)のロック解除時刻tUを参照。)。   The game calculation section 110, if and charge amount before confirmation after lock which decreases to a third threshold value Th3 (here, the Th3 = zero.) Receives the unlocking of the object (FIG. 13 (b referring to unlock time tU of).).

従って、プレーヤPは、ロックしたオブジェクトから一定以上に亘って視線を外すことで、当該オブジェクトのロックを解除することができ、しかも、当該オブジェクトを目視した時間が短いときほど解除のタイミングを早期にすることができる。その反対に、プレーヤPは、ロックされたオブジェクトを長く目視しておくことで、視線を外した後にロックが維持されるまでの時間を長く確保することができる。言い換えると、プレーヤPがオブジェクトを目視しようとする意思の強さが当該オブジェクトのロック強度(ロックの解除され難さ)に反映される。   Therefore, the player P can release the lock of the locked object by removing his / her eyes from the locked object for a certain amount or more, and further, the earlier the time of viewing the object is, the earlier the release timing is. can do. Conversely, the player P keeps watching the locked object for a long time, so that it is possible to secure a long time until the lock is maintained after the line of sight is removed. In other words, the strength of intention player P is to visually objects is reflected in the locking strength of the object (release by resistance in the lock).

また、ゲーム演算部110は、チャージ開始後にチャージ量が第1閾値Th1に達する前に当該オブジェクトから視線が外れた場合(図13(a)の視線解除時刻tOを参照。)には、チャージ量を(即座に)ゼロにリセットする。   The game calculation section 110, when the charge amount after charging start off the line of sight from the object prior to reaching the first threshold Th1 (see sight cancel time tO in FIG. 13 (a).), The charge amount Is reset to (immediately) zero.

従って、プレーヤPが如何なるオブジェクトをロックすべきか迷っているときなど、オブジェクトに視線が単に掛かった程度では、当該オブジェクトがロックされることはなく、プレーヤPがロックすべきオブジェクトを意図的に目視した場合(長見した場合)に限り、当該オブジェクトがロックされる。   Therefore, such as when the player P is wondering whether to lock any object, the extent to which gaze is simply applied to the object, never the object is locked, the player P may have intentionally visual objects to be locked If only (when viewed long), the object is locked.

更に、ゲーム演算部110は、ロック後にチャージ量が第3閾値Th3に近づく速度を、チャージ量が第2閾値Th2に近づく速度よりも緩やかにする。例えば、ゲーム演算部110は、目視時間が1秒増加するごとにチャージ量を「1」ずつ増加させるのに対して、ロック後に視線の外れている時間が1秒増加するごとにチャージ量を「0.5」ずつ減少させる(実際、図13(b)、(d)における減少カーブは上昇カーブよりも傾斜が緩やかである。)。   Further, the game calculation section 110 makes the speed at which the charge amount approaches the third threshold value Th3 after locking slower than the speed at which the charge amount approaches the second threshold value Th2. For example, the game calculation section 110, the charge amount each time the viewing time increases 1 second for increase by "1", the charge amount every time that out-of-sight after the lock is increased one second " 0.5 "(in fact, the decreasing curves in FIGS. 13B and 13D have a gentler slope than the ascending curves).

従って、プレーヤPは、オブジェクトのロック後は、頭部の位置及び姿勢を完全に固定した状態を継続せずとも(多少首がふらついたとしても)、オブジェクトのロックを維持することが容易である。   Thus, the player P after locking of an object, without continued completely fixed state the position and orientation of the head (even unsteady somewhat neck), it is easy to maintain the lock of the object .

その他、プレーヤPは、或るオブジェクトを迷わずに目視し続ければ当該オブジェクトのロックを短時間で確定することができるし(図13(c)を参照。)、ロックを確定するかどうか迷った場合には、当該オブジェクトから視線を外したり戻したりすることで、当該オブジェクトのロックを維持したまま確定までの残り時間を増やすこともできる(図13(d))。   In addition, if the player P keeps looking at an object without hesitation, it can determine the lock of the object in a short time (see FIG. 13C), and hesitates whether to determine the lock. In this case, by removing the line of sight from the object or returning the line of sight, it is possible to increase the remaining time until the object is fixed while maintaining the lock of the object (FIG. 13D).

以上の結果、プレーヤPは、オブジェクトの状態を「ロック」、「ロック解除(非ロック)」、「確定」の間で自由に切り替えることができる。   As a result, the player P can freely switch the state of the object between “locked”, “unlocked (unlocked)”, and “fixed”.

なお、以上の説明において、ゲーム演算部110は、チャージ量が閾値に近づく速度を調節するために、チャージ量を増減する速度を調節したが、チャージ量を増減する速度を調節する代わりに(又はチャージ量を増減する速度を調節することに加えて)、閾値の大きさを調節してもよい。すなわち、チャージ量と閾値とは相対的なものであるため、「チャージ量の増減速度を調節すること」と、「チャージ量の閾値を調節すること」とは、互いに等価であるとみなすことができる(以下も同様。)。   In the above description, the game calculation unit 110 adjusts the speed at which the charge amount is increased or decreased in order to adjust the speed at which the charge amount approaches the threshold, but instead of adjusting the speed at which the charge amount is increased or decreased (or In addition to adjusting the rate at which the charge is increased or decreased, the magnitude of the threshold may be adjusted. That is, since the charge amount and the threshold value are relative, "adjusting the rate of increase or decrease of the charge amount" and "adjusting the threshold value of the charge amount" may be regarded as equivalent to each other. Yes (same below).

また、以上の説明において、ゲーム演算部110は、オブジェクトのチャージ量が閾値Th3に低下したタイミングで当該オブジェクトのロックを解除したが、仮に、閾値Th3に低下する前であっても、プレーヤPが所定のアクションをした場合には、強制的にロックを確定してもよい。所定のアクションは、「実空間に配置されたボタンの押し下げ」であってもよいし、「解除用オブジェクトの目視」であってもよいし、オブジェクトに対する「二度見」のアクションであってもよい(「二度見」のアクションは後述する。)。但し、以下の説明では、ロックの解除のために実空間に配置されたボタン、確定用オブジェクト、「二度見」を用いない場合について説明する。   Further, in the above description, the game calculation unit 110 unlocks the object at the timing when the charge amount of the object has decreased to the threshold Th3. When a predetermined action is taken, the lock may be forcibly determined. The predetermined action may be a "depressed buttons arranged in the real space" may be a "visually releasing objects", which may be an action of "look twice" for the object ( The action of "twice" will be described later.) However, in the following description, the buttons arranged in the real space for releasing the lock, determined for the object, for the case of not using the "look twice" as described.

2−10.オブジェクトの視覚効果
図14は、オブジェクトの視覚効果の例を説明する図である。
2-10. FIG. 14 is a diagram illustrating an example of a visual effect of an object.

ゲーム演算部110は、図14に示すとおり、オブジェクトに対して視覚効果を付与し、かつ、当該視覚効果を当該オブジェクトのチャージ量に応じて変化させることにより、当該オブジェクトのチャージ量の時間変化(チャージ量が増減する状態)を可視化する。   As shown in FIG. 14, the game calculation unit 110 gives a visual effect to the object, and changes the visual effect according to the charge amount of the object, thereby changing the charge amount of the object over time ( visualizing the state) the charge amount is increased or decreased.

オブジェクトごとのチャージ量が可視化されれば、プレーヤPは、自分が目視しているオブジェクトを特定したり、自分がオブジェクトを目視しているのか否かを区別したりすることができる。また、プレーヤPは、自分が目視中のオブジェクトについて、ロックされるまでの残り時間や、ロックが解除されるまでの残り時間や、ロックが確定されるまでに必要な目視時間を把握することも可能である。   If the amount of charge of each object is visualized, the player P can or identify objects that they are visually he or distinguish whether that visually objects. Further, the player P, for objects in he visual remaining time or until it is locked, the remaining time or until the lock is released, also possible to grasp the visual time required until the lock is established possible it is.

さて、視覚効果は、例えば、アニメーションによって実施される。アニメーションによれば、チャージ量の時間変化をリアルタイムに(逐次に)プレーヤPへ通知できるからである。図14に示す例では、このアニメーションは、オブジェクトの外縁部にマーク列(ネオンマーク列)を配置し、かつ、チャージ量に応じてマーク列の配列数を変化させるアニメーションである。   The visual effect is implemented by, for example, animation. This is because according to the animation, the time change of the charge amount can be notified to the player P in real time (sequentially). In the example shown in FIG. 14, this animation is an animation in which a mark row (neon mark row) is arranged at the outer edge of the object, and the number of arranged mark rows is changed according to the charge amount.

このように、チャージ量をマーク列の配列数に反映させれば、チャージ量の大きさ、チャージ量の増減の別、チャージ量の増加速度、チャージ量の減少速度などを、プレーヤPが直感的に把握することが可能である。   As described above, if the charge amount is reflected in the number of arrangements of the mark rows, the player P can intuitively determine the magnitude of the charge amount, whether the charge amount is increasing or decreasing, the speed at which the charge amount increases, or the speed at which the charge amount decreases. It is possible to grasp.

図14(a)は、目視開始後にチャージ量が「0.5」になったとき(目視開始直後又はロック解除直前)のマーク列を示している。   FIG. 14 (a), the amount of charge after the visual start indicates the mark string when (visual start immediately or unlocked just before) became "0.5".

図14(b)は、目視開始後にチャージ量が「1」になったときのマーク列を示している。   FIG. 14 (b), the charge amount after viewing start indicates the mark string when it becomes "1".

図14(c)は、目視開始後にチャージ量が「1.5」になったときのマーク列を示している。   FIG. 14 (c), the amount of charge after the visual start indicates the mark string when it becomes "1.5".

図14(d)は、目視開始後にチャージ量が「2」になったとき(ロックされたとき)
のマーク列を示している。
FIG. 14D shows a case where the charge amount becomes “2” after the visual observation starts (when the charge amount is locked).
Are shown.

図14(e)は、ロック後にチャージ量が「2.5」になったときのマーク列を示している。   FIG. 14 (e) the amount of charge after the lock is shown a mark string when it becomes "2.5".

図14(f)は、ロック後にチャージ量が「3」になったときのマーク列を示している。   FIG. 14F shows a mark row when the charge amount becomes “3” after locking.

図14(g)は、ロック後にチャージ量が「3.5」になったときのマーク列を示している。   Figure 14 (g), the charge amount after the lock indicates a mark string when it becomes "3.5".

図14(h)は、ロック後にチャージ量が「4」になったときのマーク列を示している。   FIG. 14H shows a mark sequence when the charge amount becomes “4” after locking.

図14(i)は、ロック後にチャージ量が「4.5」になったときのマーク列を示している。   FIG. 14 (i) shows a mark sequence when the charge amount becomes “4.5” after locking.

図14(j)は、ロック後にチャージ量が「5」になったとき(ロックが確定されたとき)のマーク列を示している。   FIG. 14 (j) shows a mark sequence when the charge amount becomes “5” after locking (when locking is determined).

すなわち、図14に示すアニメーションは、チャージ量の程度をマーク列の配列数によって表している。図14における白抜き矢印は、プレーヤPが継続して5秒間に亘ってオブジェクトを目視したときにおけるマーク列の変化の順序を示しているが、前述したとおりオブジェクトから視線が外れた場合には、チャージ量が減少するので、白抜き矢印とは反対の方向にアニメーションが変化することになる。また、前述したとおり、本実施形態では、チャージ量が増加する速度よりもチャージ量が減少する速度の方が緩やかであるので、図14の白抜き矢印の方向にアニメーションが変化する速度よりも、白抜き矢印とは反対の方向にアニメーションが変化する速度の方が、緩やかである。   That is, in the animation shown in FIG. 14, the degree of the charge amount is represented by the number of arrangements of the mark rows. The outline arrow in FIG. 14 indicates the order of change of the mark sequence when the player P continuously looks at the object for 5 seconds. As described above, when the player loses his / her gaze from the object, Since the charge amount is reduced, the animation changes in the direction opposite to the white arrow. Further, as described above, in the present embodiment, since the direction of the speed which decreases the amount of charge than the rate at which the charge amount is increased is slow, than the rate at which the animation is changed in the direction of the white arrow in FIG. 14, The speed at which the animation changes in the direction opposite to the white arrow is slower.

ここで、ゲーム演算部110は、ロック中のオブジェクトと非ロック中のオブジェクトとを区別する。例えば、ゲーム演算部110は、ロック中のオブジェクト(図14(d)〜(i))の強調度を、非ロック中のオブジェクト(図14(a)〜(c))の強調度よりも高く設定する。図14に示す例では、ロック中のオブジェクト(図14(d)〜(i))の濃度を、非ロック中のオブジェクト(図14(a)〜(c))の濃度より高く設定している。   Here, the game calculation unit 110 distinguishes between locked objects and unlocked objects. For example, the game calculation unit 110 sets the degree of emphasis of the locked object (FIGS. 14D to 14I) higher than the degree of emphasis of the unlocked object (FIGS. 14A to 14C). Set. In the example shown in FIG. 14, the density of the locked object (FIGS. 14D to 14I) is set higher than the density of the unlocked object (FIGS. 14A to 14C). .

従って、プレーヤPは、オブジェクトの強調度(ここでは濃度)によって、オブジェクトがロックされているか否かを区別することができる。   Therefore, the player P can determine whether or not the object is locked based on the degree of emphasis (here, the density) of the object.

なお、オブジェクトの強調度は、例えば、以下のパラメータ(1)〜(14)のうち少なくとも1つによって調節することができる。   Incidentally, enhancement of the object, for example, the following parameters (1) can be adjusted by at least one of - (14).

(1)マーク列の濃度、
(2)マーク列の輝度、
(3)マーク列の色、
(4)マーク列の不透明度、
(5)マーク列の彩度、
(6)マーク列の形状、
(7)マーク列の濃度、輝度、色、不透明度、彩度、形状のうち少なくとも1つの変化パターン、
(8)オブジェクトの濃度、
(9)オブジェクトの輝度、
(10)オブジェクトの色、
(11)オブジェクトの不透明度、
(12)オブジェクトの彩度、
(13)オブジェクトの形状、
(14)オブジェクトの濃度、輝度、色、不透明度、彩度、形状のうち少なくとも1つの変化パターン。
(1) Mark row density,
(2) the brightness of the mark row,
(3) Mark row color,
(4) Opacity of mark row,
(5) Saturation of mark row,
(6) mark row shape,
(7) concentration of the mark row, brightness, color, opacity, saturation, at least one variation pattern of the shape,
(8) the concentration of the object,
(9) the object of brightness,
(10) Object color,
(11) Opacity of the object,
(12) object of saturation,
(13) Object shape,
(14) At least one change pattern among the density, luminance, color, opacity, saturation, and shape of the object.

また、ここでは、チャージ量をプレーヤPへ通知するためのアニメーションとして、「オブジェクトの外縁部にマーク列を配置し、かつ、チャージ量に応じてマーク列の配列数を変化させるアニメーション」としたが、「オブジェクトの外縁部に環状又は部分環状のゲージ(チューブ状のゲージ)を配置し、かつ、チャージ量に応じてゲージの長さ(ゲージの指針の位置に相当)を変化させるアニメーション」としてもよい(図26を参照)。   Here, as the animation for notifying the player P of the charge amount, "animation for arranging the mark rows on the outer edge of the object and changing the number of arrangement of the mark rows according to the charge amount" has been described. , "Animation in which an annular or partial annular gauge (tube-shaped gauge) is arranged on the outer edge of an object and the length of the gauge (corresponding to the position of the gauge pointer) according to the charge amount" Good (see FIG. 26).

このように、チャージ量をゲージの長さに反映させれば、チャージ量の大きさ、チャージ量の増減の別、チャージ量の増加速度、チャージ量の減少速度などをプレーヤPが直感的に把握することが可能である。   In this way, if the charge amount is reflected in the length of the gauge, the player P can intuitively grasp the magnitude of the charge amount, whether the charge amount is increasing or decreasing, the speed at which the charge amount increases, or the speed at which the charge amount decreases. It is possible to

また、チャージ量をプレーヤPへ通知するためのアニメーションは、マーク列やゲージを用いたアニメーションの代わりに、チャージ量に応じてオブジェクト自体の強調度を変化させるアニメーションであってもよい。オブジェクト自体の強調度は、例えば、上述したパラメータ(7)〜(12)のうち少なくとも1つによって調節することができる。なお、図19には、チャージ量に応じてオブジェクト自体の濃度が変化する例を示した。   Further, the animation for notifying the player P of the charge amount may be an animation in which the degree of emphasis of the object itself is changed according to the charge amount, instead of the animation using the mark row or the gauge. The degree of enhancement of the object itself can be adjusted by, for example, at least one of the parameters (7) to (12) described above. FIG. 19 shows an example in which the density of the object itself changes according to the charge amount.

このように、オブジェクト自体の強調度の変化によりチャージ量をプレーヤPへ通知すれば、オブジェクトの周辺のスペースを広く確保できるので、オブジェクトのレイアウト自由度が高まる。よって、例えば、多数のオブジェクトを密に配列した場合などに有効である。   As described above, if the amount of charge is notified to the player P based on a change in the degree of emphasis of the object itself, a large space around the object can be secured, so that the degree of freedom in layout of the object is increased. Therefore, for example, it is effective when many objects are densely arranged.

また、チャージ量と視覚効果の強調度との関係は、チャージ量が大きいときほど強調度が高まることが望ましい。ここで「強調度が高い」とは、例えば、濃度が高くなること、彩度が高くなること、不透明度が高くなること、色等の変化周期が早くなることなどを指す。   Further, as for the relationship between the charge amount and the degree of enhancement of the visual effect, it is desirable that the greater the charge amount, the higher the degree of enhancement. Here, "high enhancement degree" refers, for example, the concentration becomes higher, the saturation is high, the opacity is high, and that the change period of the color and the like is advanced.

2−11.コンボ処理
2−11−1.コンボ処理の概要
ゲーム演算部110は、2以上のオブジェクトが同時にロックされているときに所定の条件が満たされた場合には、コンボ処理を実行(発動)する。ここでいう「コンボ処理」は、ロック中の2以上のオブジェクトの全部についてのアイ入力(ロックの確定及びロックの解除)を共通のチャージ量に基づき受付ける処理のことである。
2-11. Combo processing 2-11-1. SUMMARY game calculation section 110 of the combo treatment, when a predetermined condition is satisfied when two or more objects are locked at the same time, executes the combo treatment (activation). The “combo process” here is a process of receiving an eye input (confirmation of lock and release of lock) for all of two or more locked objects based on a common charge amount.

なお、「共通のチャージ量」とは、例えば、2以上のオブジェクトの個別のチャージ量を統合してできるチャージ量(統合チャージ量)、2以上のオブジェクトを代表するオブジェクトのチャージ量(代表チャージ量)、2以上のオブジェクトの個別のチャージ量とは別に設定された新たなチャージ量(別途のチャージ量)などである。また、「統合チャージ量」とは、例えば、個別のチャージ量の平均、個別のチャージ量の重み付け平均、個別のチャージ量の和、個別のチャージ量の積などである。以下では、主に、統合チャージ量として個別のチャージ量の和が用いられる場合を例に挙げる(詳細は後述)。   The “common charge amount” is, for example, a charge amount obtained by integrating individual charge amounts of two or more objects (integrated charge amount), and a charge amount of an object representing two or more objects (representative charge amount). ) A new charge amount (separate charge amount) set separately from the individual charge amounts of two or more objects. The “integrated charge amount” is, for example, an average of individual charge amounts, a weighted average of individual charge amounts, a sum of individual charge amounts, a product of individual charge amounts, and the like. The following mainly describes a case where the sum of individual charge amounts is used as the integrated charge amount (details will be described later).

コンボ処理を発動させるためには、プレーヤPは、或るオブジェクトをロックし、当該ロックが解除される前に他のオブジェクトをロックすることで、2以上のオブジェクトが同時にロックされた状態とし、さらに所定の条件(以下、「コンボ発動条件」という。)を満たせばよい。コンボ発動条件の詳細は、後述する。   In order to activate the combo process, the player P locks an object and locks another object before the lock is released, so that two or more objects are locked at the same time. It suffices if a predetermined condition (hereinafter, referred to as “combo activation condition”) is satisfied. Details of the combo activation condition will be described later.

コンボ処理が発動すると、プレーヤPは、ロック中の2以上のオブジェクトの確定等を、1回のアイ入力で行うことができるので、2以上のオブジェクトの各々についてアイ入力を行う場合よりも、アイ入力の回数(本実施形態ではプレーヤPが主として首を振る動作の回数)を削減することができる。   When the combo process is activated, the player P can determine two or more locked objects with a single eye input, so that the player P can perform eye input more than when performing eye input for each of the two or more objects. the number of inputs (in this embodiment the number of operations by the player P is mainly shakes his head) can be reduced.

例えば、図10の押しボタンオブジェクトOB1、OB2が同時にロックされているときにコンボ処理が発動すると、プレーヤPは、押しボタンオブジェクトOB1、OB2の一方に対するアイ入力のみにより押しボタンオブジェクトOB1、OB2の双方のロックの確定の指示(1人プレーモード及び初級モードの設定指示)をシミュレーション制御装置100へ入力することができる。   For example, if the combo process is activated while the push button objects OB1 and OB2 in FIG. 10 are locked at the same time, the player P will perform both the push button objects OB1 and OB2 only by eye input to one of the push button objects OB1 and OB2. (The instruction for setting the single player mode and the elementary mode) can be input to the simulation control device 100.

2−11−2.コンボ発動条件
以下、コンボ発動条件を具体的に説明する。
2-11-2. Combo activating condition Hereinafter, the combo activating condition will be specifically described.

本実施形態のゲーム演算部110は、コンボ発動条件を、「同時ロック中の2以上のオブジェクトのうち最初にロックされたオブジェクトをプレーヤPが再目視すること」とする。   The game calculation section 110 of this embodiment, a combo transition condition, and "be visually initially locked object the player P re of two or more objects in co lock".

ここでは、図15(a)に示す2つの押しボタンオブジェクトOB1、OB3についてコンボ処理を発動させる場合を想定する。なお、ここでの説明では、コンボ処理の対象となるオブジェクトの個数を「2」とするが、「3以上」にすることも同様に可能である。   Here, it is assumed that to trigger the combo treatment for two push button object OB1, OB3 shown in Figure 15 (a). In the description here, the number of objects to be subjected to the combo processing is set to “2”, but it is also possible to set “3 or more”.

先ず、プレーヤPは、2つの押しボタンオブジェクトOB1、OB3のうち一方(以下、押しボタンオブジェクトOB1とする。)を2秒以上の十分な時間に亘って目視することにより、押しボタンオブジェクトOB1をロックする。十分な時間とは、例えば2秒より長く、かつ5秒より短い時間である。   First, the player P locks the push button object OB1 by viewing one of the two push button objects OB1 and OB3 (hereinafter referred to as a push button object OB1) for a sufficient time of 2 seconds or more. to. The sufficient time is, for example, a time longer than 2 seconds and shorter than 5 seconds.

次に、プレーヤPは、ロックした押しボタンオブジェクトOB1から視線を外し、押しボタンオブジェクトOB1のロックが解除される前に、他方の押しボタンオブジェクトOB3を2秒以上に亘って目視することにより、押しボタンオブジェクトOB3をロックする。これによって、押しボタンオブジェクトOB1、OB3が同時にロックされた状態となる。   Next, the player P removes his / her line of sight from the locked push button object OB1, and looks at the other push button object OB3 for 2 seconds or more before the lock of the push button object OB1 is released, thereby pushing the player. Lock the button object OB3. As a result, the push button objects OB1, OB3 are simultaneously locked.

次に、プレーヤPは、押しボタンオブジェクトOB3から視線を外し、押しボタンオブジェクトOB1、OB3の何れかのロックが解除されるより前に、最初にロックした押しボタンオブジェクトOB1を再目視するというアクションをする。図15(a)において太い点線矢印で示した曲線は、プレーヤPの視線の移動軌跡の一例である。このアクションにより、押しボタンオブジェクトOB1、OB3についてのコンボ発動条件が満たされるので、コンボ処理が発動する。   Next, the player P removes his / her line of sight from the push button object OB3, and performs an action of revisiting the initially locked push button object OB1 before any of the push button objects OB1 and OB3 is unlocked. I do. The curve indicated by the thick dotted arrow in FIG. 15A is an example of the movement trajectory of the line of sight of the player P. This action satisfies the combo activation condition for the push button objects OB1 and OB3, so that the combo process is activated.

ここでは、或るボオブジェクトがロックされると、当該押しボタンオブジェクトからプレーヤPの視線が外れたとしても当該ロックは即座には解除されないので、ロックが解除される前にプレーヤPが他のオブジェクトをロックすることも十分に可能である。よって、プレーヤPは、コンボ発動条件を容易に満たすことができる。   Here, when a certain object is locked, the lock is not immediately released even if the player P loses his / her line of sight from the push button object. it is also quite possible to lock. Therefore, the player P can easily satisfy the combo activation condition.

なお、本実施形態のゲーム演算部110は、非ロック中のオブジェクトのチャージ量が第1閾値Th1に近づく速度を、ロック中のオブジェクトのチャージ量(又は合計チャージ量)が大きいときほど緩やかにしてもよい。   The game calculation section 110 of this embodiment, the rate at which charge amount of the object in the unlocked approaches the first threshold value Th1, and gentle enough when the charge amount of the object in the lock (or the total charge amount) is large Is also good.

この場合、プレーヤPがロック中のオブジェクトを長く目視したときほど非ロック中のオブジェクトがロックされ難くなるので、例えば、プレーヤPは、コンボ処理を発動させたくないときや同時にロックされるオブジェクトの個数を増やしたくないときには、ロックするオブジェクトを長めに目視し、コンボ処理を発動させたいときや同時にロックされるオブジェクトの個数を増やしたいときには、ロックするオブジェクトをあまり長く目視しない、という調節をすることで、コンボ処理の発動の有無や同時ロックの状態の有無を、自分の意思で決定することができる。   In this case, since the player P is as objects in the non-lock is difficult to locked when visually long object locked, for example, the player P, the number of objects Ya being locked at the same time that you do not want to activate the combo treatment the when you do not want to increase the longer viewing the object to be locked, when you want to increase the number of objects Ya that is locked at the same time when you want to activate the combo process, by making the adjustment the objects you want to lock does not visually too long, that , the presence or absence of a state of existence and simultaneous lock of the activation of the combo treatment, can be determined by their own will.

2−11−3.コンボ処理の発動前後における視覚効果
以下、コンボ処理の発動前後における視覚効果を説明する。
2-11-3. Visual Effects Before and After Activating Combo Processing Hereinafter, visual effects before and after activating the combo processing will be described.

ゲーム演算部110は、同時ロック中の2以上のオブジェクトOB1、OB3の視覚効果の態様を、コンボ処理の発動前と発動後とで変化させる。   The game calculation unit 110 changes the aspect of the visual effect of the two or more objects OB1 and OB3 that are simultaneously locked between before and after the activation of the combo process.

図15(a)は、コンボ処理の発動前における視覚効果の態様の一例を示しており、図15(b)は、コンボ処理の発動後における視覚効果の態様の一例を示している。図15(a)、(b)では、視覚効果としてマーク列を採用した場合の例を示しており、マーク列に属するマークのうち、表示中のマークを実線で表し、非表示中のマークを点線で表した(但し、点線のイメージは実際には表示されなくても構わない。)。また、図15(a)において太い点線矢印で示した曲線は、プレーヤPの視線の移動軌跡の一例である。   FIG. 15A shows an example of a mode of the visual effect before the activation of the combo process, and FIG. 15B shows an example of a mode of the visual effect after the activation of the combo process. In FIG. 15 (a), (b), shows an example of a case of adopting the mark row as a visual effect, among the mark belonging to the mark train, represents the mark being displayed by a solid line, the marks hidden in It is represented by a dotted line (however, the image of the dotted line does not have to be actually displayed). The curve indicated by a thick dotted arrow in FIG. 15 (a) is an example of a moving locus of the line of sight of the player P.

例えば、ゲーム演算部110は、コンボ処理の発動前には、図15(a)に示すとおり、ロック中の押しボタンオブジェクトOB1、OB3の各々を個別に囲う2つのマーク列OB11、OB13を表示し、コンボ処理の発動後には、図15(b)に示すとおり、2つのマーク列OB11、OB13を統合してできる1つの統合マーク列OB20を表示する。   For example, before the combo process is activated, the game calculation unit 110 displays two mark rows OB11 and OB13 individually surrounding the locked push button objects OB1 and OB3 as shown in FIG. After the activation of the combo processing, as shown in FIG. 15B, one integrated mark row OB20 obtained by integrating the two mark rows OB11 and OB13 is displayed.

ここで、統合マーク列OB20は、コンボ処理の対象である2つの押しボタンオブジェクトOB1、OB3の全体を囲うマーク列であり、統合マーク列OB20のうち、表示中のマークの個数は、コンボ処理で用いられるチャージ量(以下、「統合チャージ量」という。統合後の計測値の一例。)を表している。統合チャージ量の詳細は後述する。   Here, integration mark train OB20 are mark train surrounding the whole of the two push button object OB1, OB3 a combo treatment of the subject, among the integrated mark row OB20, the number of marks in the display, a combo treatment charge amount used (hereinafter, an example of measurement values after. integration of "integrated charge amount".) it represents. Integrated charge amount of detail will be described later.

従って、プレーヤPは、ロック中の押しボタンオブジェクトOB1、OB3に付与された視覚効果の態様(図15では、マーク列OB11、OB13がマーク列OB20に統合されたか否か)に基づき、ロック中の押しボタンオブジェクトOB1、OB3に対するコンボ処理の発動の有無を認識することができる。   Thus, the player P, based on the aspect of the granted visual effect to the push button object OB1, OB3 in lock (15, whether mark row OB11, OB13 is integrated into the mark column OB20), in the lock It is possible to recognize whether or not the combo processing has been activated for the push button objects OB1 and OB3.

2−11−4.コンボ処理におけるチャージ量の統合
以下、ゲーム演算部110によるコンボ処理(チャージ量の統合)を説明する。
2-11-4. Integration of the charge amount in the combo treatment will be described below combo treatment of the game calculation section 110 (the amount of charge integration).

ゲーム演算部110は、コンボ処理を発動すると、コンボ処理の対象となる2以上のオブジェクト(ここでは2つの押しボタンオブジェクトOB1、OB3)のチャージ量を統合する。このとき、残りチャージ量も統合される。ここでいう「残りチャージ量」は、確定(閾値Th2)に至るまでに必要なチャージ量のことであって、残りチャージ量はチャージ量が増加すると減少し、チャージ量が減少すると増加する。以下、統合後のチャージ量のことを「統合チャージ量」と称し、統合後の残りチャージ量のことを「統合残りチャ
ージ量」と称す。
The game calculation section 110 integrates the Activate the combo treatment, the charge amount of the subject to two or more objects of the combo treatment (here two push button object OB1, OB3). At this time, the remaining charge amount is also integrated. Here, the "remaining charge amount", determined the method comprising the charge amount necessary for up to (threshold Th2), the remaining charge amount decreases the charge amount increases, increasing the charge amount decreases. Hereinafter, the charge amount after integration is referred to as “integrated charge amount”, and the remaining charge amount after integration is referred to as “integrated remaining charge amount”.

図16(a)は、統合直前のチャージ量を示す概念図であり、図16(b)は、統合チャージ量の概念図である。図16(a)、(b)では、チャージ量を実線のブロックで表し、残りチャージ量を点線のブロックで表した。   FIG. 16A is a conceptual diagram showing the charge amount immediately before integration, and FIG. 16B is a conceptual diagram of the integrated charge amount. In FIG. 16 (a), (b), it represents the amount of charge by the solid line in the block, representing the remaining charge amount in the dashed block.

例えば、ゲーム演算部110は、コンボ処理の発動前には、図16(a)に示すとおり、ロック中の押しボタンオブジェクトOB1、OB3の各々のチャージ量(及び残りチャージ量)を、押しボタンオブジェクトOB1、OB3へ個別に適用する。一方、ゲーム演算部110は、コンボ処理の発動後には、図16(b)に示すとおり、オブジェクトOB1、OB3のチャージ量(及び残りチャージ量)を統合してできる統合チャージ量(及び統合残りチャージ量)を、押しボタンオブジェクトOB1、OB3の全体へ適用する。   For example, as shown in FIG. 16A, the game calculation unit 110 determines the charge amount (and the remaining charge amount) of each of the locked push button objects OB1 and OB3 before the activation of the combo process. Applied individually to OB1 and OB3. On the other hand, the game calculation section 110, after activation of the combo treatment, as shown in FIG. 16 (b), the object OB1, the charge amount of OB3 (and the remaining charge amount) integrated charge amount that can be integrated (and Integrated remaining charge the amount), to apply to the whole of push-button object OB1, OB3.

ここで、「チャージ量の適用」は、当該チャージ量(及び残りチャージ量)で状態(「ロック」、「ロック解除」、「確定」)を制御することを言う。   Here, "the application of the charge amount", state quantity the charge (and the remaining charge amount) ( "lock", "unlock", "Enter") refers to the control.

また、統合直前のチャージ量の合計と統合直前の残りチャージ量の合計との比(図16(a))は、統合チャージ量と統合残りチャージ量との比(図16(b))に引き継がれる。   The ratio between the total charge amount immediately before the integration and the total remaining charge amount immediately before the integration (FIG. 16A) is succeeded to the ratio between the integrated charge amount and the integrated remaining charge amount (FIG. 16B). It is.

その後、ゲーム演算部110は、コンボ処理の対象となった押しボタンオブジェクトOB1、OB3のうち、最初にロックされた押しボタンオブジェクトOB1に対するプレーヤPの目視時間に応じて、統合チャージ量を増減する。   Thereafter, the game calculation section 110, of the push button object OB1, OB3 as the object of the combo treatment, depending on the viewing time of the player P with respect to pushbutton object OB1 which is initially locked, to increase or decrease the integration charge amount.

その一方で、ゲーム演算部110は、コンボ処理の対象となった押しボタンオブジェクトOB1、OB3のうち、2番目以降にロックされた押しボタンオブジェクトOB3に対するプレーヤPの目視時間については、統合チャージ量へ反映させない。   On the other hand, the game calculation unit 110 determines that the viewing time of the player P with respect to the second and subsequent locked push button objects OB3 among the push button objects OB1 and OB3 subjected to the combo processing is reduced to the integrated charge amount. Do not reflect.

従って、プレーヤPは、コンボ処理の発動後は、最初にロックされた押しボタンオブジェクトOB1の目視時間を制御するだけで、コンボ処理の対象となった全ての押しボタンオブジェクトOB1、OB3の状態を、「ロック」、「ロック解除」、「確定」の間で制御することができる。しかも、コンボ処理の発動前のチャージ量がコンボ処理の発動後のチャージ量に引き継がれるので、発動前に行われたプレーヤPの目視動作が無駄になることも無い。   Thus, the player P after activation of the combo treatment controls only the first locked visual time push button object OB1 were all push button object as the object of the combo treatment OB1, the state of OB3, Control can be performed between “lock”, “unlock”, and “fix”. Moreover, since the charge amount before activation of the combo treatment is taken over to the charge amount after activation of the combo treatment, it is also no visual motion of the player P made before activation is wasted.

なお、本実施形態では、図16(b)に示すとおり、統合チャージ量及び統合残りチャージ量の全体のスケールは、コンボ処理の対象となったオブジェクトの個数に応じたサイズに設定されるものとする。この設定によると、コンボ処理の対象となったオブジェクトの個数が多いときほど、確定までに必要な目視時間が長くなり、また、解除までの残り目視時間も長くなる。因みに、チャージ量のスケールのサイズ拡大は、例えば、第2閾値Th2の拡大によって実現できるが、第2閾値Th2を拡大する代わりに、チャージ量の増加速度及び減少速度を緩やかにすることによって同様の効果を得ることもできる。   In the present embodiment, as shown in FIG. 16 (b), the scale of the overall integrated charge amount and the integrated remainder charge amount, and shall be set to the size corresponding to the number of objects as the object of the combo treatment I do. According to this setting, the larger the number of objects subjected to the combo processing, the longer the viewing time required for confirmation, and the longer the remaining viewing time until release. Incidentally, the size expansion of the charge amount of the scale, for example, can be realized by the expansion of the second threshold value Th2, instead of expanding the second threshold value Th2, similar by gradual increase rate and decrease rate of the amount of charge effect can also be obtained.

また、本実施形態のゲーム演算部110は、コンボ処理の対象となった2以上のオブジェクトのうち、最初にロックされた押しボタンオブジェクトOB1の目視時間のみを統合チャージ量(及び残りチャージ量)へ反映させたが、コンボ処理の対象となった2以上のオブジェクトの全体の目視時間を統合チャージ量(及び残りチャージ量)へ反映させてもよい。つまり、ゲーム演算部110は、コンボ処理の対象となった2以上のオブジェクトのうち少なくとも1つが目視された場合に統合チャージ量を増大させ、コンボ処理の対象となった2以上のオブジェクトの全てから視線が外れた場合に統合チャージ量を減少させ
てもよい。その場合、プレーヤPは、コンボ処理の対象となった2以上のオブジェクトのうち任意の何れか1つを目視するだけで、統合チャージ量を増大させることができ、2以上のオブジェクトの全てから視線を外すことで統合チャージ量を減少させることができる。
The game calculation section 110 of the present embodiment, among the two or more objects as the object of the combo treatment, visual time only integration charge amount of the first lock the pushbutton objects OB1 to (and remaining charge amount) Although the reflection time is reflected, the entire viewing time of two or more objects subjected to the combo processing may be reflected on the integrated charge amount (and the remaining charge amount). That is, the game calculation unit 110 increases the integrated charge amount when at least one of the two or more objects subjected to the combo processing is viewed, and increases the integrated charge amount from all of the two or more objects subjected to the combo processing. it may decrease the integrated charge amount when the sight is out. In this case, the player P can increase the integrated charge amount only by visually observing any one of the two or more objects subjected to the combo processing. it is possible to reduce the integrated charge amount by removing the.

2−11−5.コンボ処理における部分解除処理
ゲーム演算部110は、コンボ処理の発動中に、コンボ処理の対象となった2以上のオブジェクトのうち何れか1つである特定オブジェクトについてプレーヤPが以下の動作(a)〜(c)を十分に短い所定時間内に行った場合に、特定オブジェクトをコンボ処理の対象から外す。十分に短い所定時間とは、例えば2秒以内である。
2-11-5. Partial release processing in combo processing During the activation of the combo processing, the game operation unit 110 performs the following operation (a) on the specific object that is one of the two or more objects subjected to the combo processing. When (c) is performed within a sufficiently short predetermined time, the specific object is excluded from the target of the combo processing. Well in a short predetermined time, for example less than 2 seconds.

(a)特定オブジェクトを目視する、
(b)特定オブジェクトから視線を外す、
(c)特定オブジェクトを目視する。
(A) viewing the specific object,
(B) Remove the line of sight from a particular object,
(C) viewing the specific object.

以下、コンボ処理の対象となっている2以上のオブジェクトのうち1部のオブジェクトをコンボ処理の対象から外す処理を「部分解除処理」といい、ここでは、1部のオブジェクトをコンボ処理の対象から外すことは、1部のオブジェクトのロックを解除することと等価であると仮定する。   Below, the process of removing the object of one part of the two or more objects have been the subject of combo treatment from the subject of the combo treatment is referred to as a "partial release processing", here, the object of one part from the target of the combo treatment remove it is assumed to be equivalent to unlock a portion of the object.

また、ここでは、図17(a)に示すとおり、2つの押しボタンオブジェクトOB1、OB3についてコンボ処理が発動しており、このうち、押しボタンオブジェクトOB3のロックのみをプレーヤPが解除することを想定する。なお、ここでは、コンボ処理の対象となったオブジェクトの個数を「2」とするが、「3以上」の場合も同様である。   In addition, here, as shown in FIG. 17 (a), 2 single push button object OB1, OB3 and combo treatment with activated about, of, assuming that only the locking of the push button object OB3 is the player P releases I do. Here, the number of objects subjected to the combo processing is “2”, but the same applies to the case of “3 or more”.

従って、プレーヤPは、2つの押しボタンオブジェクトOB1、OB3のうちロックを解除したい押しボタンオブジェクトOB3を目視し、押しボタンオブジェクトOB3から視線を外し、押しボタンオブジェクトOB3を再目視する、というアクション(いわゆる二度見)を十分に短い所定時間内に行うだけで、押しボタンオブジェクトOB1のロックを維持したまま押しボタンオブジェクトOB3のロックを解除することができる。   Therefore, the player P has two push-button object OB1, viewing the push-button object OB3 you want to release the lock of the OB3, remove the line-of-sight from the push-button object OB3, re-viewing the push-button object OB3, that action (the so-called By simply performing the second look within a sufficiently short predetermined time, the lock of the push button object OB3 can be released while the lock of the push button object OB1 is maintained.

2−11−6.部分解除処理の前後における視覚効果
以下、部分解除処理の前後における視覚効果を説明する。
2-11-6. Visual effects before and after partial release processing The visual effects before and after partial release processing will be described below.

ゲーム演算部110は、コンボ処理の対象となったオブジェクトOB1、OB3の視覚効果の態様を、部分解除処理の前と後とで変化させる。   The game calculation unit 110 changes the visual effect of the objects OB1 and OB3 subjected to the combo processing before and after the partial release processing.

図17(a)は、部分解除処理前における視覚効果の態様の一例を示しており、図17(b)は、部分解除後における視覚効果の態様の一例を示している。図17(a)、(b)では、視覚効果としてマーク列を採用した場合の例を示しており、マーク列に属するマークのうち、表示中のマークを実線で表し、非表示中のマークを点線で表した(但し、点線のイメージは実際には表示されなくても構わない。)。また、図17(a)において太い点線矢印で示した曲線は、プレーヤPの視線の移動軌跡の一例である。   FIG. 17A shows an example of the form of the visual effect before the partial release processing, and FIG. 17B shows an example of the form of the visual effect after the partial release. FIGS. 17A and 17B show an example in which a mark sequence is employed as a visual effect. Among the marks belonging to the mark sequence, the displayed mark is represented by a solid line, and the non-displayed mark is represented by a solid line. It is represented by a dotted line (however, the image of the dotted line does not have to be actually displayed). The curve indicated by the thick dotted arrow in FIG. 17A is an example of the movement locus of the line of sight of the player P.

例えば、ゲーム演算部110は、部分解除処理の前には、図17(a)に示すとおり、コンボ処理の対象となっている2つの押しボタンオブジェクトOB1、OB3の全体を囲う統合マーク列OB20を表示し、部分解除処理の後には、図17(b)に示すとおり、統合マーク列OB20の一部を分離して2つのマーク列OB11、OB12を表示する。   For example, the game calculation section 110, the front part release process, as shown in FIG. 17 (a), the integration mark train OB20 surrounding the whole of the two push button object OB1, OB3 of interest combo treatment After the display and the partial release processing, as shown in FIG. 17B, a part of the integrated mark row OB20 is separated to display two mark rows OB11 and OB12.

ここで、マーク列OB11は、ロックが維持された押しボタンオブジェクトOB1を囲
うマーク列であり、マーク列OB11のうち表示中のマークの個数は、ロックが維持された押しボタンオブジェクトOB1に適用されるチャージ量を表している。
Here, the mark column OB11 is a mark column surrounding the push button object OB1 in which the lock is maintained, and the number of displayed marks in the mark column OB11 is applied to the push button object OB1 in which the lock is maintained. Indicates the charge amount.

一方、マーク列OB13は、ロックが解除された押しボタンオブジェクトOB3を囲うマーク列であり、マーク列OB13のうち表示中のマークの個数は、ロックが解除された押しボタンオブジェクトOB3に適用されるチャージ量を表している。   On the other hand, the mark row OB13 is a mark row surrounding the unlocked push button object OB3, and the number of displayed marks in the mark row OB13 is the charge applied to the unlocked push button object OB3. It represents the quantity.

従って、プレーヤPは、押しボタンオブジェクトOB1、OB3に付与された視覚効果の態様(図17では、統合マーク列OB20がマーク列OB11、OB13に分離されたか否か)に基づき、コンボ処理の対象となった押しボタンオブジェクトOB1、OB3に対する部分解除処理の有無を認識することができる。   Thus, the player P, based on the aspects of the visual effect applied to the push button object OB1, OB3 (17, whether integrated mark row OB20 is separated mark rows OB11, OB13), and the target combo treatment it is possible to recognize the presence or absence of a partial release processing for the push-button object OB1, OB3 became.

2−11−7.部分解除処理におけるチャージ量の分離
以下、ゲーム演算部110による部分解除処理(チャージ量の分離)を説明する。
2-11-7. Following separation of the charge amount in the partial cancellation process, partial release processing by the game calculation section 110 (charge amount of separation) will be described.

ゲーム演算部110は、部分解除処理を開始すると、統合チャージ量から、ロックが解除されたオブジェクトのチャージ量を、分離する。このとき、残りチャージ量も分離される。ここでいう「残りチャージ量」は、確定(閾値Th2)に至るまでに必要なチャージ量のことであって、残りチャージ量はチャージ量が増加すると減少し、チャージ量が減少すると増加する。   When starting the partial release process, the game calculation unit 110 separates the charge amount of the unlocked object from the integrated charge amount. At this time, the remaining amount of charge also separated. Here, the “remaining charge amount” is a charge amount required until the charge amount is determined (threshold Th2). The remaining charge amount decreases as the charge amount increases, and increases as the charge amount decreases.

図18(a)は、分離直前の統合チャージ量を示す概念図であり、図18(b)は、分離直後のチャージ量の概念図である。図18(a)、(b)では、チャージ量を実線のブロックで表し、残りチャージ量を点線のブロックで表した。   FIG. 18A is a conceptual diagram showing an integrated charge amount immediately before separation, and FIG. 18B is a conceptual diagram of a charge amount immediately after separation. In FIG. 18 (a), (b), it represents the amount of charge by the solid line in the block, representing the remaining charge amount in the dashed block.

例えば、ゲーム演算部110は、部分解除処理の開始前には、図18(a)に示すとおり、統合チャージ量(及び統合残りチャージ量)を、押しボタンオブジェクトOB1、OB3の全体へ適用する。一方、ゲーム演算部110は、部分解除処理の開始後には、図18(b)に示すとおり、ロックが維持された押しボタンオブジェクトOB1には、統合チャージ量(及び統合残りチャージ量)をそのまま適用し、ロックが解除された押しボタンオブジェクトOB3には、個別のチャージ量(及び個別の残りチャージ量)を適用する。   For example, before the start of the partial release process, the game calculation unit 110 applies the integrated charge amount (and the integrated remaining charge amount) to the entirety of the push button objects OB1 and OB3 as shown in FIG. On the other hand, after the start of the partial release process, the game calculation unit 110 applies the integrated charge amount (and the integrated remaining charge amount) to the push button object OB1 in which the lock is maintained, as shown in FIG. Then, the individual charge amount (and the individual remaining charge amount) is applied to the unlocked push button object OB3.

ここで、「チャージ量の適用」は、当該チャージ量(及び残りチャージ量)で状態(「ロック」、「ロック解除」、「確定」)を制御することを言う。   Here, "the application of the charge amount", state quantity the charge (and the remaining charge amount) ( "lock", "unlock", "Enter") refers to the control.

また、部分解除処理直前の統合チャージ量及び統合残りチャージ量(図18(a))は、ロックの維持された押しボタンオブジェクトOB1のチャージ量及び残りチャージ量(図18(b)の上段)に引き継がれる(なお、図18(b)に示した例では、ロックの維持されたオブジェクトの個数が「1」であるので、コンボ処理は自動的に終了するが、ロックの維持されたオブジェクトの個数が「2」以上である場合には、コンボ処理が継続されるので、コンボ処理において統合チャージ量及び統合残りチャージ量が引き続がれる。)。   Further, the integrated charge amount and the integrated remaining charge amount (FIG. 18A) immediately before the partial release processing are equal to the charge amount and the remaining charge amount of the push button object OB1 whose lock is maintained (the upper part of FIG. 18B). In the example shown in FIG. 18B, the number of locked objects is “1”, so the combo processing is automatically terminated, but the number of locked objects is Is greater than or equal to "2", the combo process is continued, so the integrated charge amount and the integrated remaining charge amount continue in the combo process.)

一方、部分解除処理直前の統合チャージ量及び統合残りチャージ量(図18(a))は、ロックが解除された押しボタンオブジェクトOB3のチャージ量及び残りチャージ量(図18(b)の下段)には引き継がれず、ロックが解除された押しボタンオブジェクトOB3のチャージ量(図18(b)の下段)は、解除のタイミングでゼロに設定される。   On the other hand, the integrated charge amount and the integrated remaining charge amount (FIG. 18A) immediately before the partial release processing are equal to the charge amount and the remaining charge amount of the unlocked push button object OB3 (lower part of FIG. 18B). is not taken over, the charge amount of the push button object OB3 the lock is released (bottom of FIG. 18 (b)) is set to zero at the timing of the release.

その後、ゲーム演算部110は、ロックの維持された押しボタンオブジェクトOB1に対するプレーヤPの目視時間に応じて、押しボタンオブジェクトOB1のチャージ量を増
減する(但し、ロックの維持されたオブジェクトの個数が「2」以上である場合にはコンボ処理が継続されるので、最も早期にロックされたオブジェクトの目視時間に応じて統合チャージ量が増減される。)。
Thereafter, the game calculation unit 110 increases or decreases the charge amount of the push button object OB1 according to the viewing time of the player P with respect to the locked push button object OB1 (provided that the number of locked objects is " If it is 2 "or more, the combo process is continued, so the integrated charge amount is increased or decreased according to the viewing time of the object locked at the earliest time.)

また、ゲーム演算部110は、ロックの解除された押しボタンオブジェクトOB3に対するプレーヤPの目視時間に応じて、当該押しボタンオブジェクトOB3のチャージ量を増減する。   In addition, the game calculation unit 110 increases or decreases the charge amount of the push button object OB3 in accordance with the viewing time of the player P with respect to the unlocked push button object OB3.

従って、プレーヤPは、コンボ処理の発動後に、特定の押しボタンオブジェクトOB3を再目視するだけで、他の押しボタンオブジェクトOB1のロックを維持したまま、当該押しボタンオブジェクトOB3のロックのみを解除することができる。しかも、解除前のチャージ量が解除後のチャージ量に引き継がれるので、解除前に行われたプレーヤPの目視動作が無駄になることも無い。   Thus, the player P, after activation of the combo treatment, only re visually particular push button object OB3, while maintaining the locking of the other push button object OB1, be released only locking of the push button object OB3 Can be. Moreover, since the charge amount before releasing is taken over to the charge amount after release, it is also not wasted the visual motion of the player P that were made prior to release.

なお、本実施形態では、図18(b)に示すとおり、チャージ量及び残りチャージ量の全体のスケールは、チャージ量の適用対象となるオブジェクトの個数に応じたサイズに設定されるものとする。この設定によると、チャージ量の適用対象となるオブジェクトの個数が少ないときほど、確定までに必要な目視時間が短くなり、また、解除までの残り目視時間も短くなる。因みに、チャージ量のスケールのサイズ縮小は、例えば、第2閾値Th2の縮小によって実現できるが、第2閾値Th2を縮小する代わりに、チャージ量の増加速度及び減少速度を急峻にすることによって同様の効果を得ることもできる。   In the present embodiment, as shown in FIG. 18B, the overall scale of the charge amount and the remaining charge amount is set to a size corresponding to the number of objects to which the charge amount is applied. According to this setting, the smaller the number of objects to which the charge amount is applied, the shorter the viewing time required for determination and the shorter the remaining viewing time until release. Incidentally, the size reduction of the charge amount of the scale, for example, can be realized by the reduction of the second threshold value Th2, instead of reducing the second threshold value Th2, similar by a steep increase rate and decrease rate of the amount of charge effect can also be obtained.

また、ここでは、部分解除処理を、コンボ処理の発動中に実行される処理として説明したが、コンボ処理の非発動中に実行することも可能である。すなわち、ゲーム演算部110は、或るオブジェクトがロックされている期間中にプレーヤPが当該オブジェクトについて上記の動作(1)〜(3)を十分に短い所定時間内に行った場合に、当該オブジェクトのロックの解除を受付け、かつ、当該オブジェクトのチャージ量をゼロにリセットしてもよい。   Also, here, a partial release treatment has been described as a process to be executed during activation of the combo treatment can also be performed during non-activation of the combo treatment. That is, when the player P performs the above operations (1) to (3) on the object within a sufficiently short predetermined time during a period in which the certain object is locked, the game operation unit 110 May be received, and the charge amount of the object may be reset to zero.

2−12.ロック強度の制御
ゲーム演算部110は、ロック中のオブジェクトをプレーヤPが目視していると判定するための判定基準(ロック中のオブジェクトの目視判定の判定基準)を、非ロック中のオブジェクトをプレーヤPが目視していると判定するための判定基準(非ロック中のオブジェクトの目視判定の判定基準)よりも、緩やかに設定する。判定基準を緩やかすると、オブジェクトのロック強度を高くすることができる。ここでいう「ロック強度」とは、ロックが解除される可能性の低さのことを指す。
2-12. Control of Lock Strength The game calculation unit 110 determines a criterion for determining that the player P is looking at the locked object (a criterion for visually determining the locked object), and sets the criterion for determining whether the locked object is a non-locked object to the player. P than criteria for determining to be visually (criterion visual determination of the object being unlocked), set loosely. When loose the criteria, it is possible to increase the locking strength of the object. The "locking strength" refers to the possibility of low lock is released.

従って、プレーヤPは、非ロック中のオブジェクトを意図的に目視しなければオブジェクトをロックできないが、ロック中のオブジェクトであれば強く意識して目視せずとも当該ロックを維持することが容易である。   Therefore, the player P cannot lock the object without intentionally viewing the unlocked object, but it is easy to maintain the lock without strongly consciously viewing the locked object. .

ここでは、図12に示したとおり、押しボタンオブジェクトOB1を例に挙げて説明するが、他のオブジェクトについても同様である。   Here, as shown in FIG. 12, the push button object OB1 will be described as an example, but the same applies to other objects.

前述したとおり、ゲーム演算部110は、押しボタンオブジェクトOB1の目視判定を、押しボタンオブジェクトOB1のヒットエリアOBHAの少なくとも一部と、視認エリアLSAの少なくとも一部とが重複したか否かに基づき行う。そして、ゲーム演算部110は、押しボタンオブジェクトOB1のヒットエリアOBHAの少なくとも一部と、視認エリアLSAの少なくとも一部とが重複した場合に「目視している」と判定し、重複しない場合に、「目視していない」と判定する。   As described above, the game calculation unit 110 performs the visual determination of the push button object OB1 based on whether at least a part of the hit area OBHA of the push button object OB1 and at least a part of the visual recognition area LSA overlap. . Then, the game calculation unit 110 determines that the user is “visually watching” when at least a part of the hit area OBHA of the push button object OB1 overlaps with at least a part of the viewing area LSA. It determined as "not visually".

そこで、ゲーム演算部110は、押しボタンオブジェクトOB1の目視判定の判定基準を緩やかにするために、押しボタンオブジェクトOB1のヒットエリアOBHAと視認エリアLSAとの少なくとも一方のサイズを大きくする。   Therefore, the game calculation unit 110 increases the size of at least one of the hit area OBHA and the visual recognition area LSA of the push button object OB1 in order to loosen the criterion for the visual determination of the push button object OB1.

ここでは、判定基準の制御をオブジェクトごとに行うことを考慮し、簡単のため、ヒットエリアOBHAのサイズが可変であって視認エリアLSAのサイズが固定される場合を説明する。また、サイズの調整は、連続的であってもよいが、段階的である場合を例に挙げる。   Here, in consideration of performing the control of the criterion for each object, a case where the size of the hit area OBHA is variable and the size of the visual recognition area LSA is fixed will be described for simplicity. The adjustment of the size, may be continuous, a case which is graded as an example.

更に、ゲーム演算部110は、押しボタンオブジェクトOB1のチャージ量が大きいときほど、押しボタンオブジェクトOB1の目視判定の判定基準を緩やか設定する。つまり、ゲーム演算部110は、押しボタンオブジェクトOB1のチャージ量が大きいときほど、押しボタンオブジェクトOB1のヒットエリアOBHAのサイズを大きくする。   Furthermore, the game calculation unit 110 sets a gradual criterion for visual determination of the push button object OB1 as the charge amount of the push button object OB1 increases. That is, the game calculation unit 110 increases the size of the hit area OBHA of the push button object OB1 as the charge amount of the push button object OB1 increases.

例えば、ゲーム演算部110は、押しボタンオブジェクトOB1がロックされていないときには、押しボタンオブジェクトOB1のヒットエリアOBHAのサイズを例えば図20(a)に示す「標準」のサイズに設定し、押しボタンオブジェクトOB1のチャージ量が閾値Th1〜Th2の間の所定値(例えば「3」)未満であるときには、押しボタンオブジェクトOB1のヒットエリアOBHAのサイズを、図20(b)に示す「中」のサイズに設定し、押しボタンオブジェクトOB1のチャージ量が当該所定値(「3」)以上であるときには、押しボタンオブジェクトOB1のヒットエリアOBHAのサイズを、図20(c)に示す「大」のサイズに設定する。   For example, when the push button object OB1 is not locked, the game calculation unit 110 sets the size of the hit area OBHA of the push button object OB1 to, for example, the “standard” size shown in FIG. When the charge amount of OB1 is less than a predetermined value (for example, “3”) between the thresholds Th1 and Th2, the size of the hit area OBHA of the push button object OB1 is changed to the “medium” size shown in FIG. set, when the charge amount of the push button object OB1 is the predetermined value ( "3") or more, sets the size of the hit area OBHA pushbutton object OB1, the size of "large" shown in FIG. 20 (c) to.

この場合、押しボタンオブジェクトOB1をプレーヤPが長く目視するほど、押しボタンオブジェクトOB1のロック強度が高くなる。   In this case, the longer the player P views the push button object OB1, the higher the lock strength of the push button object OB1.

しかも、ゲーム演算部110は、図20(a)、(b)、(c)に示すとおり、プレーヤPの上下方向におけるヒットエリアOBHAのサイズの拡大比率よりも、プレーヤPの左右方向におけるヒットエリアOBHAのサイズの拡大比率を、高く設定する。   In addition, as shown in FIGS. 20A, 20B, and 20C, the game calculation unit 110 determines the hit area OBHA of the player P in the left-right direction more than the enlargement ratio of the size of the hit area OBHA in the vertical direction. the expansion ratio of the size of OBHA, is set to be higher.

この設定によると、押しボタンオブジェクトOB1の上下方向のロック強度よりも左右方向のロック強度の方が相対的に高くなる。   According to this setting, towards the locking strength of the left and right direction than the vertical direction of the lock strength of the push-button object OB1 is relatively high.

一般に、プレーヤPの視線の方向(本実施形態では首の姿勢によって決まる)は、上下方向よりも左右方向の方が不安定になり易いので、左右方向のロック強度を相対的に強く設定しておけば、操作性を損なわずにアイ入力ミス(本実施形態ではプレーヤPの意図しないロック解除)を軽減できると考えられる。   In general, the direction of the line of sight of the player P (determined by the posture of the neck in the present embodiment) is more likely to be unstable in the left-right direction than in the up-down direction. If this is done, it is conceivable that eye input errors (unintended unlocking of the player P in the present embodiment) can be reduced without impairing operability.

2−13.ロック強度の制御についての補足
なお、本実施形態のゲーム演算部110は、ロック強度の制御を、視認エリアLSAの少なくとも一方のサイズ調節(空間的な調節)により行ったが、チャージ量の減少速度の調節(時間的な調節)により行ってもよいし、空間的な調節と時間的な調節とを組み合わせてもよい。
2-13. Supplement for control of the lock strength The game calculation section 110 of this embodiment, the control of the locking strength, was performed by at least one of the size adjustment of the viewing area LSA (spatial regulation), the rate of decrease in charge amount (Temporal adjustment) or a combination of spatial adjustment and temporal adjustment.

例えば、本実施形態のゲーム演算部110は、押しボタンオブジェクトOB1のチャージ量が大きいときほどチャージ量が第3閾値Th3に近づく速度を緩やかにしてもよい。なお、速度の調節は、前述したとおり閾値の調節又はチャージ量の増減速度の調節によって行うことができる。   For example, the game calculation section 110 of this embodiment, the charge amount smaller the charge amount of the push button object OB1 is large may be made gentle speed approaching the third threshold value Th3. Note that the speed can be adjusted by adjusting the threshold value or adjusting the increase / decrease speed of the charge amount as described above.

この場合、例えば、プレーヤPが或るオブジェクトをロックすべきか迷っている場合などには、オブジェクトを一定時間以上に亘って目視しなければオブジェクトをロックできない。その反対に、オブジェクトがロックされた後であれば、オブジェクトから長期に亘って視線を外さない限り、オブジェクトのロックが維持される。   In this case, for example, in the example, when the player P is wondering whether to lock certain object you can not lock the object to be visually over the object to a predetermined time or more. On the contrary, if after the object has been locked, so long as not remove the line of sight for a long time from the object, the object lock is maintained.

また、本実施形態のゲーム演算部110は、空間的な調節を行うために、仮想3次元空間OBSにおけるヒットエリアOBHAのサイズを調節したが、仮想3次元空間OBSにおける視認エリアLSAのサイズを調節してもよいし、ヒットエリアOBHAと視認エリアLSAのサイズとの双方を調節してもよい。その場合、例えば、本実施形態のゲーム演算部110は、視認エリアLSAに最も近いオブジェクトのチャージ量に応じて視認エリアLSAのサイズを制御してもよい。   In addition, the game calculation unit 110 of the present embodiment has adjusted the size of the hit area OBHA in the virtual three-dimensional space OBS in order to perform spatial adjustment, but has adjusted the size of the visual recognition area LSA in the virtual three-dimensional space OBS. may be, it may be adjusted both the hit area OBHA the size of the viewing area LSA. In this case, for example, the game calculation unit 110 of the present embodiment may control the size of the viewing area LSA according to the charge amount of the object closest to the viewing area LSA.

2−14.アイ入力の受付け処理のフロー
次に、図21を用いてゲーム演算部110によるアイ入力の受付け処理のフローを説明する。
2-14. Flow of reception processing eye input will be described a flow of reception processing of eye input by the game calculation section 110 with reference to FIG. 21.

アイ入力の受付け処理のフローは、例えば、高所恐怖体験ゲーム(図8、図9)の実行中、実行前、又は実行後において、ゲームシステム1がプレーヤPから1又は複数の指示を受付ける必要が生じた場合に適宜に実行される。このアイ入力の受付け処理のフローは、アイ入力の受付け処理の対象となったオブジェクト(プレーヤPが指定可能なオブジェクト)ごとに実行される。ここでは、セレクト画面(図10)を例に挙げる。   Flow of reception processing of the eye input, for example, during the execution of the heights fear experience game (8, 9), before execution, or after the execution, requires the game system 1 accepts an instruction from the player P 1 or more It is performed appropriately if occurs. The flow of the eye input accepting process is executed for each object (the object that can be specified by the player P) subjected to the eye input accepting process. Here, mention selection screen (FIG. 10) as an example.

例えば、ゲーム処理のモードが「1人プレーモード」又は「2人プレーモード」に設定済みである場合には、セレクト画面(図10)のうち、押しボタンオブジェクトOB1、OB2の各々は、受付け処理の対象外となり、押しボタンオブジェクトOB3、OB4の各々がアイ入力の受付け処理の対象となる。   For example, when the mode of the game processing has been set to the “single player mode” or the “two player mode”, each of the push button objects OB1 and OB2 on the select screen (FIG. 10) is subjected to the reception processing. , And each of the push button objects OB3 and OB4 is subjected to an eye input accepting process.

また、ゲーム処理のモードが「初級モード」又は「上級モード」に設定済みである場合には、セレクト画面(図10)のうち、押しボタンオブジェクトOB3、OB4は、受付け処理の対象外となり、 押しボタンオブジェクトOB1、OB2の各々がアイ入力の受付け処理の対象となる。   When the mode of the game process has been set to the “beginner mode” or the “advanced mode”, the push button objects OB3 and OB4 on the select screen (FIG. 10) are excluded from the receiving process. each button object OB1, OB2 are subject to reception processing in the eye input.

以下、図21のフローを説明する。   Hereinafter, the flow of FIG. 21 will be described.

先ず、ゲーム演算部110は、受付け処理の対象となるオブジェクトの表示を開始する(ステップS11)。オブジェクトの表示は、仮想3次元空間に対するオブジェクトの配置によって行われる。   First, the game calculation unit 110 starts displaying an object to be subjected to the receiving process (step S11). The display of the object is performed by arranging the object in the virtual three-dimensional space.

次に、ゲーム演算部110は、オブジェクトの目視判定処理(ステップS13)を実行し、オブジェクトが目視されている場合には(ステップS13Y)、当該オブジェクトの目視時間のチャージを開始し(ステップS15)、そうでない場合には(ステップS13N)、目視判定(ステップS13)を繰り返す。なお、「目視時間のチャージ」は、目視時間の計測のことであって、オブジェクトが目視されている時間に応じてチャージ量を増加させ、オブジェクトから視線が外れている時間に応じてオブジェクトのチャージ量を減少させる処理のことである。なお、ゲーム演算部110は、チャージを開始すると(S15)、目視判定を実行し、かつ目視判定の結果に応じてチャージ量を増減させる処理を、チャージ量がリセットされるまでの期間中に、例えば周期的に繰り返す。繰り返しの周期は、例えばフレーム周期と同じ周期に設定される。   Next, the game calculation section 110 executes visual judgment processing object (step S13), and if the object is visible (step S13Y), starts charging of the visual time of the object (step S15) Otherwise (step S13N), the visual determination (step S13) is repeated. The “charging of the viewing time” is a measurement of the viewing time, in which the charge amount is increased according to the time during which the object is viewed, and the charging of the object is determined according to the time during which the object is out of sight. is the process of reducing the amount. The game calculation section 110 starts the charging (S15), and executes the visual judgment, and a process of increasing or decreasing the charge amount in accordance with the result of the visual judgment, during the period until the charge amount is reset, For example, periodically repeated. Period of repetition is, for example, set to the same period as the frame period.

次に、ゲーム演算部110は、チャージ量が第1閾値Th1(=2)を越えることなく
(ステップS17N)、オブジェクトから視線が外れない限りは(ステップS19N)、チャージ量が第1閾値Th1(=2)に達したか否かの判定処理(ステップS17)と、オブジェクトから視線が外れたか否かの判定処理(ステップS19)とを、繰り返す。
Next, the game calculation unit 110 sets the charge amount to the first threshold value Th1 (Step S19N) unless the charge amount does not exceed the first threshold value Th1 (= 2) (Step S17N). = 2) to reach the process of determining whether or not (step S17), the determination process whether or off the line of sight from the object (step S19), and repeats.

そして、ゲーム演算部110は、チャージ量が第1閾値Th1(=2)を越える前に(ステップS17N)、オブジェクトから視線が外れた場合(ステップS19Y)には、オブジェクトのチャージ量をゼロにリセットしてから(ステップS20)、目視判定処理(ステップS13)へ戻る。   The game calculation section 110, the prior charge amount exceeds the first threshold value Th1 (= 2) (step S17N), if the line of sight is out of the object (step S19Y), the resets the charge amount of the object to zero back from it to (step S20), visual determination process (step S13).

また、ゲーム演算部110は、チャージ量が第1閾値Th1(=2)を越えた場合には(ステップS17Y)、オブジェクトのロックを受付ける(ステップS21)。これによって、オブジェクトがロックされる。   Further, when the charge amount exceeds the first threshold value Th1 (= 2) (Step S17Y), the game calculation unit 110 receives an object lock (Step S21). Thus, the object is locked.

オブジェクトがロックされると(ステップS21)、ゲーム演算部110は、チャージ量が第2閾値Th2(=5)に達しておらず(ステップS23N)、チャージ量が第3閾値Th3(=ゼロ)まで低下しない(ステップS25N)限り、チャージ量が第2閾値Th2(=5)に達したか否かの判定処理(ステップS23)とチャージ量が第3閾値Th3(=ゼロ)まで低下したか否かの判定処理(ステップS25)とを繰り返す。   When an object is locked (step S21), and the game calculation section 110, until the charge amount has not reached the second threshold value Th2 (= 5) (step S23N), the charge amount of the third threshold value Th3 (= zero) As long as the charge amount does not decrease (step S25N), the process of determining whether the charge amount has reached the second threshold value Th2 (= 5) (step S23) and whether the charge amount has decreased to the third threshold value Th3 (= zero) Is repeated (step S25).

その後、チャージ量が第3閾値Th3(=ゼロ)まで低下した場合(ステップS25Y)には、ゲーム演算部110は、オブジェクトのロックの解除を受付け(ステップS29)、当初の目視判定の処理(ステップS13)へ戻る。   Thereafter, when the charge amount has decreased to the third threshold value Th3 (= zero) (Step S25Y), the game calculation unit 110 accepts the release of the lock of the object (Step S29), and performs an initial visual determination process (Step S29). Return to S13).

また、チャージ量が第2閾値Th2(=5)に達した場合(ステップS23Y)には、ゲーム演算部110は、ロックの確定を受付け(ステップS27)、チャージ量をゼロにリセットしてから(ステップS30)、フローを終了する。これによって、オブジェクトのロックが確定する。   Also, if the charge amount reaches the second threshold value Th2 (= 5) (step S23Y), the game calculation section 110 receives the determination of the lock (step S27), after resetting the charge amount to zero ( Step S30), end the flow. Thereby, the lock of the object is determined.

なお、以上のフローには示さなかったが、ゲーム演算部110は、オブジェクトのチャージ量が第1閾値Th1を越えた場合(ステップS17Y)、オブジェクトのチャージ量が第2閾値Th2に達するまでにオブジェクトから視線が外れた場合(ステップS19Y)、オブジェクトのチャージ量が第2閾値Th2に達した場合(ステップS23Y)、オブジェクトのチャージ量が第3閾値Th3まで低下した場合(ステップS25Y)には、オブジェクトの視覚効果の態様(オブジェクト自体の視覚効果の態様)を変化させる処理を実行する(図14などを参照)。   Although not been shown in the above flow, the game calculation section 110, when the charge amount of the object exceeds the first threshold value Th1 (step S17Y), the object until the charge amount of the object reaches the second threshold value Th2 If the line of sight is out (step S19Y), when the charge amount of the object has reached the second threshold value Th2 (step S23Y), when the charge amount of the object is lowered to the third threshold value Th3 (step S25Y), the object Of the visual effect (the visual effect of the object itself) is changed (see FIG. 14 and the like).

2−15.コンボ処理のフロー
次に、図22を用いてコンボ処理に係る処理のフローを説明する。
2-15. Next, a flow of a process related to the combo process will be described with reference to FIG.

コンボ処理に係る処理のフローは、アイ入力の受付け処理のフロー(図21)と並行して実行される。コンボ処理に係る処理のフローは、オブジェクトごとに実行されるのではなく、プレーヤPが指定可能な複数のオブジェクトの全体について実行される。   The flow of the process related to the combo process is executed in parallel with the flow of the eye input receiving process (FIG. 21). Flow of processing according to the combo treatment, rather than being executed for each object, the player P is carried out for the entire plurality can be specified in the object.

先ず、ゲーム演算部110は、2以上のオブジェクトがロック中でない限り(ステップS31N)、2以上のオブジェクトがロック中であるか否の判定処理(ステップS31)を繰り返す。   First, unless two or more objects are locked (step S31N), the game calculation unit 110 repeats the determination process (step S31) as to whether two or more objects are locked.

その後、2以上のオブジェクトがロックされると(ステップS31Y)、ゲーム演算部110は、次の処理(ステップS33)へ移行する。   Thereafter, when two or more objects are locked (Step S31Y), the game calculation section 110 proceeds to the next processing (Step S33).

次に、ゲーム演算部110は、ロック中の2以上のオブジェクトのうち、最初にロックされたオブジェクトが再目視されたか否か(つまり、コンボ発動条件が満たされたか否か)の判定処理(ステップS33)を実行し、コンボ発動条件が満たされない場合には(ステップS33N)、ロックの判定処理(ステップS31)へ戻り、コンボ発動条件が満たされた場合(ステップS33Y)に、コンボ処理(ステップS35〜S43)を発動する。   Next, the game calculation section 110, of the two or more objects in the lock determination process (step whether initially locked object is re-visual (i.e., whether the combo transition condition is satisfied) S33) is executed, and if the combo activation condition is not satisfied (step S33N), the process returns to the lock determination process (step S31). If the combo activation condition is satisfied (step S33Y), the combo process (step S35). To S43).

コンボ処理(ステップS35〜S43)において、先ず、ゲーム演算部110は、ロック中の2以上のオブジェクトについてのチャージ量を統合する統合処理(ステップS35)を実行する。これによって、2以上のオブジェクトのチャージ量は、統合チャージ量に統合される。   In the combo process (steps S35 to S43), first, the game calculation unit 110 executes an integration process (step S35) for integrating the charge amounts of two or more locked objects. Thus, the charge amount of the two or more objects are integrated in the integrated charge amount.

次に、ゲーム演算部110は、統合チャージ量がゼロに戻る前であって(ステップS37N)、部分解除処理の開始条件(ロック中の2以上のオブジェクトの何れか1つの再目視)が満たされない限り(ステップS41N)、統合チャージ量がゼロになったか否かの判定処理(ステップS37)と、開始条件の判定処理(ステップS41)とを繰り返す。   Next, the game calculation section 110, even before the integrated charge amount is returned to zero (step S37N), (2 or any one re visual objects in the lock) starting condition of partial release processing is not satisfied unless (step S41N), repeats the determination process whether integrated charge amount becomes zero (step S37), the determination process of the start condition (step S41).

その後、開始条件が満たされると(ステップS41Y)、ゲーム演算部110は、再目視されたオブジェクトのチャージ量を、統合チャージ量から分離する部分解除処理(ステップS43)を実行する。なお、部分解除処理(ステップS43)によると、再目視されたオブジェクトのロックは解除され、再目視されたオブジェクトのチャージ量は、ゼロに設定される。   Thereafter, when the start condition is satisfied (Step S41Y), the game calculation section 110 executes a partial release process (Step S43) for separating the charge amount of the re-viewed object from the integrated charge amount. According to the partial release process (step S43), the lock of the revisited object is released, and the charge amount of the revisited object is set to zero.

また、統合チャージ量がゼロになると(ステップS37Y)、ゲーム演算部110は、ロック中の全てのオブジェクトのチャージ量を分離する分離処理(ステップS39)を実行する。分離処理(ステップS39)は、ロック中の全てのオブジェクトのチャージ量を個別のチャージ量とし、かつ、個別のチャージ量をゼロに設定する処理のことである。分離処理(ステップS39)の実行後、ゲーム演算部110は、フローを終了する。   Further, when the integrated charge amount becomes zero (step S37Y), the game calculation section 110 executes separation processing for separating the charge of all the objects in the lock (step S39). The separation process (step S39) is a process of setting the charge amounts of all locked objects to individual charge amounts and setting the individual charge amounts to zero. After executing the separation processing (step S39), the game calculation section 110 ends the flow.

なお、以上のフローには示さなかったが、ゲーム演算部110は、コンボ処理が発動した場合(ステップS53)、部分解除処理が実行された場合(ステップS43)には、オブジェクトへ付与される視覚効果の態様を変化させる処理を実行する(図15、図17などを参照)。   Incidentally, the visual although not shown in the above flow, the game calculation section 110, when the combo process is activated (step S53), in a case where partial release processing is performed (step S43), applied to an object A process for changing the mode of the effect is executed (see FIGS. 15 and 17).

2−16.ロック強度の制御処理のフロー
次に、図23を用いてロック強度の制御処理のフローを説明する。
2-16. Flow of Lock Strength Control Processing Next, a flow of lock strength control processing will be described with reference to FIG.

ロック強度の制御処理のフローは、アイ入力の受付け処理のフロー(図21)と並行して実行される。また、ロック強度の制御処理のフローは、アイ入力の受付け処理の対象となったオブジェクトごとに、繰り返し実行される。   The flow of the lock strength control process is executed in parallel with the flow of the eye input accepting process (FIG. 21). Further, the flow of the lock strength control process is repeatedly executed for each object subjected to the eye input accepting process.

先ず、ゲーム演算部110は、オブジェクトがロックされているか否かを判定する (ステップS51)。   First, the game calculation section 110 determines whether or not the object is locked (Step S51).

そして、オブジェクトがロックされていない場合(ステップS51N)、ゲーム演算部110は、ヒットエリアのサイズを「標準」に設定し(ステップS53)、かつ、視線が外れた場合におけるチャージ量の減少速度を「高」に設定し(ステップS55)、フローを終了する。但し、チャージ量の減少速度は、チャージ量の増加速度より緩やかである。   Then, when the object is not locked (step S51N), the game calculation unit 110 sets the size of the hit area to “standard” (step S53), and sets the reduction rate of the charge amount when the line of sight is lost. "High" is set (step S55), and the flow ends. However, the decreasing speed of the charge amount is slower than the increasing speed of the charge amount.

一方、オブジェクトがロックされている場合(ステップS51Y)、ゲーム演算部11
0は、オブジェクトのチャージ量が「3」以上であるか否かを判定する(ステップS57)。
On the other hand, if the object is locked (step S51Y), the game calculation section 11
If it is 0, it is determined whether or not the charge amount of the object is “3” or more (step S57).

そして、チャージ量が「3」以上でない場合(ステップS57N)、ゲーム演算部110は、ヒットエリアのサイズを「中」に設定し(ステップS59)、かつ、視線が外れた場合におけるチャージ量の減少速度を「高」より緩やかな速度「中」に設定し(ステップS61)、フローを終了する。   When the charge amount is not equal to or more than “3” (step S57N), the game calculation unit 110 sets the size of the hit area to “medium” (step S59), and decreases the charge amount when the line of sight is lost. The speed is set to “medium”, which is slower than “high” (step S61), and the flow ends.

一方、チャージ量が「3」以上である場合(ステップS57Y)、ゲーム演算部110は、ヒットエリアのサイズを「大」に設定し(ステップS65)、かつ、視線が外れた場合におけるチャージ量の減少速度を「中」より緩やかな速度「低」に設定し(ステップS67)、フローを終了する。   On the other hand, when the charge amount is equal to or more than “3” (step S57Y), the game calculation unit 110 sets the size of the hit area to “large” (step S65), and calculates the charge amount when the line of sight is lost. The decreasing speed is set to a slower speed “low” than “medium” (step S67), and the flow ends.

なお、以上のフローには示さなかったが、ゲーム演算部110は、プレーヤPの上下方向におけるサイズの拡大率よりも、プレーヤPの左右方向におけるサイズの拡大率を大きくする(図20を参照)。また、以上のフローにおいて、ステップの順序は、可能な範囲内で入れ替えが可能である。   Although not shown in the above flow, the game calculation unit 110 sets the enlargement ratio of the size of the player P in the left-right direction larger than the enlargement ratio of the size of the player P in the vertical direction (see FIG. 20). . In the above flow, the order of the steps can be changed within a possible range.

2−17.アイ入力の適用例
例えば、本実施形態の高所恐怖体験ゲームには、猫の演出用オブジェクト80を捕獲(救出)することを任務とするモードと、猫の演出用オブジェクト80を捕獲(救出)することを任務としないモードとが用意されている。
2-17. Application Example of Eye Input For example, in the high-fear experience game of the present embodiment, a mode in which the task is to capture (rescue) the cat effect object 80, and capture (rescue) the cat effect object 80 There is a mode in which the task is not performed.

この場合、ゲーム演算部110は、ゲーム開始に当たり、例えば、図24に示すとおり「猫を捕獲しますか?」という文字イメージと、猫オブジェクトと、押しボタンオブジェクトOB5、OB6とを、仮想3次元空間OBSに配置する。   In this case, the game calculation section 110, hit in the start of the game, for example, a character image that as shown in FIG. 24 "Do you want to capture the cat?", And the cat object, and a push-button object OB5, OB6, a virtual three-dimensional It is located in spaces OBS.

このうち、押しボタンオブジェクトOB5は、「YES」の意図をプレーヤPがシミュレーション制御装置100へ入力するための押しボタンオブジェクトであり、押しボタンオブジェクトOB6は、「NO」の意図をプレーヤPがシミュレーション制御装置100へ入力するための押しボタンオブジェクトである。   Among them, the push button object OB5 is a push button object for the player P to input the intention of “YES” to the simulation control device 100, and the push button object OB6 is the player P for the simulation control of the intention of “NO”. A push button object for input to the device 100.

例えば、プレーヤPが図25に示すとおり「NO」に対応した押しボタンオブジェクトOB6をアイ入力によりロックして確定すると、ゲーム演算部110は、例えば、猫オブジェクトが仮想移動経路から退避するアニメーションを、オブジェクト空間設定部111を介して仮想3次元空間OBSに表示する。また、ゲーム演算部110は、演出制御処理部114を介して、猫の演出用オブジェクト80を、実際の移動経路Rの終点から退避させる。   For example, when the player P locks the push button object OB6 corresponding to “NO” by eye input as shown in FIG. 25 and fixes the push button object OB6, for example, the game calculation unit 110 executes an animation in which the cat object is retreated from the virtual movement path. It is displayed in the virtual three-dimensional space OBS via the object space setting unit 111. In addition, the game operation unit 110 causes the effect object for cat 80 to retreat from the end point of the actual moving route R via the effect control processing unit 114.

また、例えば、プレーヤPが「YES」に対応した押しボタンオブジェクトOB5をアイ入力によりロックして確定すると、ゲーム演算部110は、例えば、猫オブジェクトが仮想移動経路の終点へ向かって逃げていくアニメーションを、オブジェクト空間設定部111を介して仮想3次元空間OBSに表示する。また、ゲーム演算部110は、演出制御処理部114を介して、猫の演出用オブジェクト80を実際の移動経路Rの終点へ配置する。   Further, for example, when the player P locks the push button object OB5 corresponding to “YES” by eye input and confirms the game, the game operation unit 110 generates, for example, an animation in which the cat object escapes toward the end point of the virtual movement path. Is displayed in the virtual three-dimensional space OBS via the object space setting unit 111. The game calculation section 110, through the effect control process unit 114, placing the effect for the object 80 cats to the actual end point of the movement path R.

なお、上記の実施形態では、アイ入力によりプレーヤPが指定可能なオブジェクトを、押しボタンオブジェクト(アイコン)としたが、キャラクタ(敵キャラクタ、味方キャラクタ、動物キャラクタ、自分のアバター)、アイテム(宝箱、カード)などであってもよいし、キャラクタやアイテムの一部の部位であってもよい。   In the above embodiment, the object that can be specified by the player P by the eye input is the push button object (icon), but the character (enemy character, ally character, animal character, own avatar), the item (treasure box, Card), or a part of a character or an item.

2−18.実施形態の作用効果その1
以上説明したとおり、本実施形態のシミュレーション制御装置100は、HMD20へ仮想3次元空間を表示する表示処理部110Aと、仮想3次元空間に配置されたオブジェクトに対するプレーヤPの目視時間をチャージし、オブジェクトからプレーヤPの視線が外れた場合には、視線が外れている時間に応じてチャージ量を減少させる計測部110Bと、チャージ量が第1閾値Th1に達した場合にオブジェクトのロックの指示を受付け、チャージ量が第1閾値Th1より大きい第2閾値Th2に達した場合にオブジェクトのロックの確定の指示を受付け、確定の前にチャージ量が第3閾値Th3まで低下した場合にオブジェクトのロックの解除を受付ける受付け部110Cと、チャージ量の大きさの程度をプレーヤPへ通知する通知部110Dと、オブジェクトのロックが確定した場合にオブジェクトに対応付けられた所定の処理を実行する実行部110Eとを備える。
2-18. Operation and effect of the embodiment No. 1
Or as described, the simulation control unit 100 of the present embodiment, charged display processing unit 110A for displaying a virtual three-dimensional space to HMD 20, a visual time of the player P with respect to the object placed in the virtual three-dimensional space, objects If the line of sight of the player P is out of the accepts a measurement unit 110B to reduce the charge amount according to the time line of sight is out, an indication of the lock of the object if the charge amount reaches the first threshold value Th1 When the charge amount has reached the second threshold value Th2 which is larger than the first threshold value Th1, an instruction to fix the object is accepted, and when the charge amount has decreased to the third threshold value Th3 before the fixation, the object is unlocked. And a notifying unit that notifies the player P of the magnitude of the amount of charge. Comprising 10D and, the execution unit 110E for executing a predetermined processing corresponding to the object if the lock object has been determined.

従って、プレーヤPは、オブジェクトのチャージ量が第1閾値Th1に達するまで目視することで、当該オブジェクトをロックすることができる。また、その反対に、第1閾値Th1を越えない範囲でプレーヤPがオブジェクトを目視した場合(一瞥した場合)には、当該オブジェクトの非ロック状態を維持することも可能である。   Therefore, the player P can lock the object by viewing the object until the charge amount of the object reaches the first threshold Th1. On the other hand, when the player P looks at the object within a range not exceeding the first threshold value Th1 (at a glance), the unlocked state of the object can be maintained.

また、オブジェクトがロックされると、オブジェクトからプレーヤPの視線が外れたとしてもチャージ量が第3閾値Th3に低下するまでの期間中はロックが維持されるので、ロックを維持するためにプレーヤPが視線の固定を強要されることはない。また、その反対に、チャージ量が第3閾値Th3に低下するまでプレーヤPがオブジェクトから視線を外せば、オブジェクトのロックを解除することもできる。   Further, when the object is locked, the lock is maintained until the charge amount decreases to the third threshold value Th3 even if the player P loses the line of sight of the object. You are not forced to fix your gaze. Further, on the contrary, the player P to the charge amount is decreased to a third threshold value Th3 is by removing the line of sight from the object, it is also possible to unlock the object.

また、オブジェクトのロック後は、チャージ量が第2閾値Th2に達するまでプレーヤPがオブジェクトを目視するだけで、確定の指示をシミュレーション制御装置100へ入力することができる。また、その反対に、オブジェクトのロック後は、第2閾値Th2と第3閾値Th3との間にチャージ量が収まるようにプレーヤPがオブジェクトの目視又は視線外しを行えば、ロック状態を継続することもできる。   Further, after the lock of the object, the charge amount is only player P to reach the second threshold value Th2 is visually an object, it is possible to input an instruction of confirmation to the simulation controller 100. On the other hand, after the object is locked, if the player P visually or removes the line of sight of the object so that the charge amount falls between the second threshold value Th2 and the third threshold value Th3, the locked state is continued. Can also.

従って、プレーヤPは、アイ入力により、オブジェクトの状態を「ロック」、「ロック解除(非ロック)」、「確定」の3状態の間で自由に制御することができる。「アイ入力」は、プレーヤPがオブジェクトを目視するという動作によって自分の指示をシミュレーション制御装置100へ入力することである。   Therefore, the player P can freely control the state of the object among three states of “locked”, “unlocked (unlocked)”, and “fixed” by the eye input. “Eye input” means that the player P inputs his / her own instruction to the simulation control device 100 by an action of viewing the object.

しかも、通知部110Dとしてのゲーム演算部110は、チャージ量をプレーヤPへ通知するので、プレーヤPは、自分が目視しているオブジェクトを特定したり、自分がオブジェクトを目視しているのか否かを区別したりすることができる。更に、プレーヤPは、通知されるチャージ量に基づき、オブジェクトがロックされるまでの残り時間や、ロックが解除されるまでの残り時間や、ロックが確定されるまでに必要な目視時間を把握することも可能である。   In addition, since the game calculation unit 110 as the notification unit 110D notifies the player P of the charge amount, the player P specifies the object that he or she is looking at, and determines whether or not he or she is looking at the object. it is possible or to distinguish. Further, the player P grasps the remaining time until the object is locked, the remaining time until the lock is released, and the visual time required until the lock is determined based on the notified charge amount. It is also possible.

従って、本実施形態のシミュレーション制御装置100によれば、プレーヤPがアイ入力を快適に行うことができる。   Therefore, according to the simulation control device 100 of the present embodiment, the player P can perform the eye input comfortably.

2−19.実施形態の作用効果その2
また、受付け部110Cとしてのゲーム演算部110は、2以上のオブジェクトが同時に選択されているときにコンボ発動条件が満たされた場合には、少なくとも確定及び解除の受付けを、選択中の前記2以上のオブジェクトの全部について共通のチャージ量に基づき行うコンボ処理を実行する。
2-19. Operation and effect 2 of embodiment
In addition, when the combo activation condition is satisfied when two or more objects are selected at the same time, the game calculation unit 110 as the receiving unit 110C determines at least the reception of the confirmation and the cancellation of the two or more objects being selected. Is performed based on the common charge amount for all of the objects.

コンボ処理が発動すると、プレーヤPは、ロック中の2以上のオブジェクトについての入力を共通のアイ入力で行うことができるので、2以上のオブジェクトのアイ入力を個別に行う場合よりも、アイ入力の手間(本実施形態ではプレーヤPが主として首を振る動作の回数)を削減することができる。   When combo process is activated, the player P is, it is possible to perform input for two or more objects in the lock in common eye input, than when performing the eye input of two or more objects individually, eye input It is possible to reduce labor (in the present embodiment, the number of times the player P mainly shakes his / her head).

2−20.実施形態の作用効果その3
また、本実施形態の計測部110Bとしてのゲーム演算部110は、ロック中のオブジェクトをプレーヤPが目視していると判定するための判定基準を、非ロック中のオブジェクトをプレーヤPが目視していると判定するための判定基準よりも緩やかに設定する。
2-20. Operation and effect 3 of embodiment
In addition, the game calculation unit 110 as the measurement unit 110B of the present embodiment determines a determination criterion for determining that the locked object is being viewed by the player P by checking the unlocked object by the player P. Set looser than the criteria for determining that

従って、プレーヤPは、非ロック中のオブジェクトを意図的に目視しなければオブジェクトをロックできないが、ロック中のオブジェクトであれば強く意識して目視せずとも当該ロックを維持することが容易である。   Thus, the player P is not able to lock intentionally objects unless visual objects in unlocked, it is easy to maintain the lock without visually strong awareness if the object being locked .

例えば、判定基準の調節を空間的な調節(前述)により行った場合、プレーヤPが或るオブジェクトをロックすべきか迷っている場合などには、オブジェクトの中央に近い位置を目視しなければオブジェクトをロックできない。その反対に、オブジェクトがロックされた後であれば、オブジェクトの中央から離れた位置まで視線を移動させない限り、オブジェクトのロックが維持される。   For example, if the regulatory criteria was performed by the spatial modulating (above), the like when the player P is wondering whether to lock a certain object, the object to be visually located near the center of the object It can not be locked. Conversely, after the object is locked, the lock on the object is maintained unless the user moves his / her gaze to a position away from the center of the object.

例えば、判定基準の調節を時間的な調節(前述)により行った場合、プレーヤPが或るオブジェクトをロックすべきか迷っている場合などには、オブジェクトを一定時間以上に亘って目視しなければオブジェクトをロックできない。その反対に、オブジェクトがロックされた後であれば、オブジェクトから長期に亘って視線を外さない限り、オブジェクトのロックが維持される。   For example, when carried out by adjusting the temporal regulation of criteria (described above), the like when the player P is wondering whether to lock a certain object, if visually over the object to a predetermined time or more objects Can not lock. On the contrary, after the object is locked, the lock of the object is maintained as long as the user does not look away from the object for a long time.

従って、本実施形態のシミュレーション制御装置100によれば、ロック後のアイ入力ミス(プレーヤPの意図しない首振りによるロックの解除など)を軽減することができる。   Therefore, according to the simulation control unit 100 of the present embodiment, it is possible to reduce the eye mistyped after lock (such as the release of the lock by unintended swinging of the player P).

3.変形例
3−1.モーションセンサについて
上記の実施形態のゲームシステムでは、プレーヤPの頭部の位置及び姿勢を検出するために撮像カメラ70を用いたが、HMD20に搭載されたモーションセンサを用いてもよいし、撮像カメラ70とモーションセンサとの組み合わせを用いてもよい。モーションセンサとしては、加速度センサ、角速度センサ(ジャイロセンサ)などを用いることができる。モーションセンサは、姿勢変化を伴う移動物体(ここではプレーヤPの頭部)の動きを高精度に検出するのに適している。
3. Modification 3-1. In the game system of the above embodiment for the motion sensor, but using the imaging camera 70 for detecting the position and orientation of the head of the player P, it may be used motion sensor mounted in the HMD 20, the imaging camera A combination of 70 and a motion sensor may be used. As the motion sensor, an acceleration sensor, an angular velocity sensor (gyro sensor), or the like can be used. The motion sensor is suitable for detecting the movement of a moving object (here, the head of the player P) accompanying a change in posture with high accuracy.

3−2.視線検出について
上記の実施形態において、ゲーム演算部110は、仮想3次元空間OBSにおける表示エリアDS及び視認エリアLSAの動き(位置及び姿勢)を、プレーヤPの頭部の動き(位置及び姿勢)に追従させたが、プレーヤPの眼球の動き(位置及び姿勢)に追従させてもよい。
3-2. About Line-of-Sight Detection In the above embodiment, the game calculation unit 110 converts the movement (position and posture) of the display area DS and the viewing area LSA in the virtual three-dimensional space OBS into the movement (position and posture) of the head of the player P. Although the movement is followed, the movement (position and posture) of the eyeball of the player P may be followed.

或いは、上記の実施形態において、ゲーム演算部110は、仮想3次元空間OBSにおける表示エリアDS及び視認エリアLSAの動き(位置及び姿勢)を、プレーヤPの頭部の動きと眼球の動きとの双方に追従させてもよい。   Alternatively, both of the above embodiment, the game calculation section 110, the movement of the display area DS and viewing area LSA in the virtual three-dimensional space OBS (position and orientation), and the movement of the movement and the eyeball of the head of the player P May be followed.

その場合、例えば、ゲーム演算部110は、仮想3次元空間OBSにおける表示エリアDSの動きを、プレーヤPの頭部に動きに追従させ、かつ、表示エリアDSにおける視認エリアLSAの動きを、プレーヤPの眼球の動きに追従させてもよい。   In this case, for example, the game calculation unit 110 causes the movement of the display area DS in the virtual three-dimensional space OBS to follow the movement of the head of the player P, and the movement of the viewing area LSA in the display area DS to the player P. May follow the movement of the eyeball.

なお、プレーヤPの眼球の動きを検出するためには、例えば、プレーヤPの視線方向を検出する視線センサをHMD20に搭載し、視線センサの出力を、通信部196及び通信制御部120を介して処理部101(ゲーム演算部110)が受信すればよい。   In order to detect the movement of the eyeball of the player P, for example, equipped with a sight line sensor detecting a sight line direction of the player P to HMD 20, the output of the line-of-sight sensor, via the communication unit 196 and the communication control unit 120 The processing unit 101 (the game calculation unit 110) may receive the information.

また、視線センサとしては、以下の視線センサ(1)、(2)のうち少なくとも1つを採用することができる。   Further, as the line-of-sight sensor, at least one of the following line-of-sight sensors (1) and (2) can be employed.

(1)プレーヤPの少なくとも一方の眼を撮像するカメラと、カメラが撮影した画像に基づきプレーヤPの瞳の位置(視軸の向きを示す情報)を検出する処理部と、を含む視線センサ。   (1) line-of-sight sensor comprising a camera for imaging at least one eye, and a processing unit for the camera to detect the position of the pupil of the player P based on the captured image (information indicating the direction of the visual axis), the player P.

(2)プレーヤPの少なくとも一方の眼球へ赤外線などの検出光を投光する投光部と、眼球の網膜における当該検出光の反射光量を検出する検出部と、検出部の出力に基づき眼球の視軸の向きを検出する処理部と、を含む視線センサ。   (2) a light projecting portion for projecting detection light, such as at least one infrared ocular player P, a detector for detecting the reflected light amount of the detection light at the retina of the eye, the eye on the basis of the output of the detecting unit A gaze sensor including: a processing unit configured to detect a direction of a visual axis.

なお、視線センサを利用する場合には、プレーヤPごとに視線センサのキャリブレーションを行うことが望ましい。視線センサのキャリブレーションは、プレーヤPごとの眼球の位置のばらつき、瞳のサイズのばらつき、HMD20の装着姿勢のばらつきなどによらず、プレーヤPの視線方向を正しく検出するための処理であって、例えば、HMD20を装着したプレーヤPに対して幾つかの既知の方向を目視させ、そのときの視線センサの出力に基づき、処理部のパラメータを調整する処理である。   In the case of using a line-of-sight sensor, it is desirable to perform a line-of-sight sensor calibration for each player P. The calibration of the line-of-sight sensor is a process for correctly detecting the line-of-sight direction of the player P regardless of variations in the position of the eyeball, variations in the size of the pupils, and variations in the mounting posture of the HMD 20 for each player P. for example, to visually several known direction with respect to the player P who wears the HMD 20, based on the output of the line of sight sensor at that time, a process of adjusting the parameters of the processing unit.

3−3.仮想メカスイッチについて
上記実施形態では、チャージ量をプレーヤPへ通知するためにゲーム演算部110がオブジェクトの強調度を変化させる例を幾つか説明したが(図14、図19等を参照。)、強調度を変化させるために他の方法を採用することもできる。例えば、オブジェクトの外観を変化させる方法などである。
3-3. Regarding the virtual mechanical switch In the above embodiment, there have been described several examples in which the game calculation unit 110 changes the degree of emphasis of an object in order to notify the player P of the charge amount (see FIGS. 14 and 19). Other methods can be used to change the degree of emphasis. For example, there is a method of changing the appearance of the object.

例えば、ゲーム演算部110は、プレーヤPが指定可能なオブジェクトとして仮想的な押しボタン(仮想メカスイッチ)を採用し、チャージ量に応じて仮想メカスイッチの押し下げ量を変化させてもよい。この場合、ゲーム演算部110は、チャージ量が大きいときほど仮想メカスイッチの押し下げ量を深くすることで、視線の注入で仮想メカスイッチを押し下げるような感覚をプレーヤPに与えることができる。この仮想メカスイッチは、長押し(ここでは長目視)でロックされ、更なる長押し(ここでは長目視)で確定される仮想メカスイッチである。   For example, the game calculation section 110 employs a virtual pushbutton (virtual mechanical switch) player P as the specifiable object may change the depression amount of the virtual mechanical switch according to the charge amount. In this case, the game calculation unit 110 can give the player P a feeling of pressing down the virtual mechanical switch by injecting the line of sight by increasing the amount of pressing down the virtual mechanical switch as the charge amount increases. This virtual mechanical switch is a virtual mechanical switch that is locked by a long press (here, long viewing) and is fixed by a further long press (here, long viewing).

3−4.文言「選択」について
上記実施形態において、ゲーム演算部110は、或るオブジェクトの目視が開始されたタイミングで計測(チャージ)の開始を受付け、チャージ量が第1閾値Th1を超えたタイミングで「選択(ロック)」を受付け、チャージ量が第2閾値Th1に達したタイミングで「選択(ロック)の確定」を受付け、チャージ量が第3閾値Th3に低下したタイミングで「選択(ロック)の解除」を受付けた。しかし、各タイミングでゲーム演算部110が受付けた指示の名称は、あくまでも便宜的なものであって、別の名称に読み替えることも可能である。
3-4. In the above embodiment will phrase "selection", the game calculation section 110 receives the start of the measurement at the timing when visually certain object is started (charging), "selected at the timing when the charge amount exceeds the first threshold value Th1 (Lock) ”, and accepts“ determination of selection (lock) ”at the timing when the charge amount reaches the second threshold value Th1, and“ releases selection (lock) ”at the timing when the charge amount decreases to the third threshold value Th3. Was accepted. However, the name of the instruction received by the game calculation unit 110 at each timing is for convenience only, and can be replaced with another name.

例えば、上記実施形態において、以下のとおり読み替えることも可能である。すなわち
、ゲーム演算部110は、或るオブジェクトの目視が開始されたタイミングで「選択」を受付け、チャージ量が第1閾値Th1を超えたタイミングで「選択の維持(ロック)」を受付け、チャージ量が第2閾値Th1に達したタイミングで「選択の確定」を受付け、チャージ量が第3閾値Th3に低下したタイミングで「選択の解除」又は「維持(ロック)の解除」を受付けてもよい。
For example, in the above embodiment, it is also possible to read as follows. That is, the game calculation section 110, at the timing when visually certain object is started accepting the "Select" accepts "Maintaining selected (locked)" at a timing when the charge amount exceeds the first threshold value Th1, the amount of charge May be accepted at the timing when the charge reaches the second threshold Th1, and "release of selection" or "release of maintenance (lock)" may be accepted at the timing when the charge amount decreases to the third threshold Th3.

3−5.機能分担について
本実施形態のゲームシステム1における要素の機能は、効果が損なわれない範囲内で適宜に変形することが可能である。
3-5. Functional elements function in the game system 1 of the present embodiment will sharing may be deformed appropriately within a range that the effect is not impaired.

例えば、上述したHMD20の機能の一部は、シミュレーション制御装置100の側に搭載されてもよいし、シミュレーション制御装置100の機能の一部又は全部は、HMD20の側に搭載されてもよい。また、シミュレーション制御装置100の処理部101に含まれる各要素の機能分担についても適宜に変更可能である。   For example, some features of the HMD 20 as described above, may be mounted on the side of the simulation control unit 100, a part of or all of the functions of the simulation control unit 100 may be mounted on the side of the HMD 20. Further, the function allocation of each element included in the processing unit 101 of the simulation control device 100 can be appropriately changed.

例えば、表示処理部110Aの処理の一部又は全部は、オブジェクト空間設定部111によって実行されてもよいし、オブジェクト空間設定部111の処理の一部又は全部は、表示処理部110Aによって実行されてもよい。   For example, part or all of the processing of the display processing unit 110A may be executed by the object space setting unit 111, or part or all of the processing of the object space setting unit 111 may be executed by the display processing unit 110A. it may be.

また、計測部110Bの処理の一部又は全部は、状態検出処理部112によって実行されてもよいし、状態検出処理部112の処理の一部又は全部は、計測部110Bによって実行されてもよい。   In addition, part or all of the processing of the measurement unit 110B may be executed by the state detection processing unit 112, or part or all of the processing of the state detection processing unit 112 may be executed by the measurement unit 110B. .

また、シミュレーション制御装置100には、処理部101の機能の一部又は全部を実現する専用の回路(ハードウエア)が搭載されてもよい。つまり、処理部101における処理の一部又は全部は、ソフトウェアによって実行されてもよいし、ハードウェアによって実行されてもよい。   Further, the simulation control device 100 may be provided with a dedicated circuit (hardware) for realizing a part or all of the functions of the processing unit 101. In other words, part of the processing in the processing section 101 or the whole may be performed by software, it may be executed by hardware.

3−6.ゲーム機について
上記実施形態では、プレーヤPが移動可能な実空間(以下、単に「実空間」という。)が形成された構造体を含むゲームシステム1(ゲームシステム1のシミュレーション制御装置100)に、HMD20によるアイ入力を適用した例を説明したが、HMD20によるアイ入力は、他のゲームシステムに適用することもできる。
3-6. Regarding the Game Machine In the above embodiment, the game system 1 (the simulation control device 100 of the game system 1) including the structure in which the real space in which the player P can move (hereinafter, simply referred to as “real space”) is formed. Although the example in which the eye input by the HMD 20 is applied has been described, the eye input by the HMD 20 can be applied to other game systems.

例えば、インターネットなどのネットワーク経由でサーバ装置から端末装置へゲームが提供されるシステムに、HMD20によるアイ入力を適用することもできる。また、その場合、システムにおけるゲームプログラムの実行は、端末装置の側で行われてもよいし、サーバ装置の側で行われてもよい。また、その場合、端末装置は、操作入力とストリーミングによる画像表示を実行することによって、上記のゲームを実現してもよい。   For example, the system game is provided to the terminal device from the server apparatus via a network such as the Internet, it may be applied eye input by HMD 20. In that case, the execution of the game program in the system, may be performed on the side of the terminal device, it may be performed on the side of the server device. Further, in that case, the terminal device may realize the game by executing an operation input and image display by streaming.

また、また、HMD20によるアイ入力は、ネットワークに接続されないスタンドアローン型のゲーム装置に適用することも可能であるし、ゲーム装置に限らず、スマートフォン、タブレット型情報端末装置、パーソナルコンピュータ、モニター又はテレビなどのタッチパネルを用いて操作入力を実行可能な端末装置に適用することも可能である。   Further, also, eye input by HMD20 is, it is also possible to apply to a stand-alone type game apparatus which is not connected to the network is not limited to a game device, a smart phone, a tablet information terminal device, a personal computer, monitor or TV It is also possible to apply the present invention to a terminal device capable of executing an operation input using a touch panel such as a touch panel.

3−7.アイ入力デバイスについて
上記実施形態では、非透過型のHMD20をアイ入力に用いたが、透過型のHMD、単眼型HMDなど、他種の装着型画像表示装置をアイ入力に用いてもよい。また、プレーヤPに対するHMDの装着方式についても、帽子型、アイグラス型、ヘルメット型、サンバイザー型、ヘアバンド型など、様々な装着方式を採用することができる。
3-7. In the above embodiment the eye input device, but the HMD20 of nontransmitting used in eye input, transmission type HMD, such as monocular HMD, may be used for other kinds of mounted image display apparatus eye input. As for the mounting method of the HMD to the player P, hat-shaped, eye-glass type, helmet type, sun visor type, hair-band, etc., it is possible to adopt a variety of mounting method.

4.その他
本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
4. Others The present invention is not limited to those described in the above embodiments, and various modifications can be made. For example, a term cited as a broad or synonymous term in the description in the specification or the drawings can be replaced with a broad or synonymous term in other descriptions in the specification or the drawings.

本発明は、実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び
結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施形態で説明した構成に公知技術を付加した構成を含む。
The present invention includes substantially the same configuration as the configuration described in the embodiment (for example, a configuration having the same function, method, and result, or a configuration having the same object and effect). The invention also includes configurations that replace non-essential parts of the configurations described in the embodiments. Further, the invention includes a configuration having the same operation and effect as the configuration described in the embodiment or a configuration capable of achieving the same object. Further, the invention includes configurations in which known techniques are added to the configurations described in the embodiments.

上記のように、本発明の実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。   As described above, it has been described in detail embodiments of the present invention, that many modifications are possible in the embodiments without materially departing from the novel teachings and advantages of the present invention will be readily apparent to those skilled in the art . Therefore, such modifications are all included in the scope of the present invention.

1 … ゲームシステム
10 … 構造体
20 … HMD
30 … 吊持ユニット
40 … 転倒防止ユニット
50 … 吊持制御ユニット
60 … マーカユニット
70 … 撮像カメラ
80 … 演出用オブジェクト
90 … 演出装置(送風機、バネ板パネル及び移動誘導経路)
100 … シミュレーション制御装置
1 ... game system 10 ... structure 20 ... HMD
30 ... hanging unit 40 ... fall prevention unit 50 ... hanging control unit 60 ... marker unit 70 ... imaging camera 80 ... effect object 90 ... effecting device (blower, spring plate panel and movement guidance path)
100 ... Simulation control device

Claims (9)

装着型画像表示装置へ仮想空間を表示する表示処理部と、
前記仮想空間に配置されたオブジェクトに対するユーザの目視時間を計測する計測部と、
前記計測による計測値が第1閾値に達した場合に前記オブジェクトの選択を受付け、前記計測値が第1閾値より大きい第2閾値に達した場合に前記選択の確定を受付ける受付け部と、
前記計測値の大きさの程度を前記ユーザへ通知する通知部と、
を備え、
前記計測部は、
前記オブジェクトから前記ユーザの視線が外れた場合には、前記視線が外れている時間に応じて前記計測値を減少させ、
前記受付け部は、
前記確定の前に前記計測値が第3閾値まで低下した場合には、前記選択の解除を受付け、
前記通知部は、
前記計測値の変化を視覚的に通知する、
ことを特徴とするシミュレーション制御装置。
A display processing unit for displaying the virtual space to mount type image display device,
A measuring unit for measuring a visual time of the user for the arranged in the virtual space object,
A receiving unit that receives selection of the object when the measurement value obtained by the measurement reaches a first threshold, and receives confirmation of the selection when the measurement value reaches a second threshold larger than the first threshold;
A notification unit for notifying the order of magnitude of the measurement value to said user,
With
The measurement unit is
When the user's line of sight has deviated from the object, the measurement value is reduced according to the time during which the line of sight has deviated,
The receiving unit is,
If the measured value drops to a third threshold before the confirmation, the release of the selection is accepted,
The notification unit,
Visually notify the change in the measurement value,
A simulation control device characterized by the above-mentioned.
請求項1に記載のシミュレーション制御装置において、
前記通知部は、
前記計測値に応じた視覚効果を前記オブジェクトへ付与する、
ことを特徴とするシミュレーション制御装置。
In the simulation apparatus according to claim 1,
The notification unit,
Imparting a visual effect corresponding to the measured value to the object,
A simulation control device characterized by the above-mentioned.
請求項2に記載のシミュレーション制御装置において、
前記通知部は、
選択中の前記オブジェクトと非選択中の前記オブジェクトとを区別する、
ことを特徴とするシミュレーション制御装置。
In the simulation apparatus according to claim 2,
The notifying unit,
Distinguishing between the selected object and the non-selected object,
Simulation control unit, characterized in that.
請求項2又は3に記載のシミュレーション制御装置において、
前記視覚効果は、アニメーションである、
ことを特徴とするシミュレーション制御装置。
The simulation control device according to claim 2 or 3 ,
The visual effect is an animation;
A simulation control device characterized by the above-mentioned.
請求項4に記載のシミュレーション制御装置において、
前記アニメーションは、
前記オブジェクトの外縁部に環状又は部分環状のゲージを配置し、かつ、前記計測値に応じて前記ゲージの長さを変化させるアニメーションである、
ことを特徴とするシミュレーション制御装置。
The simulation control device according to claim 4 ,
The animation is
Place the annular or part annular gauge outer edge of the object, and an animation to vary the length of the gauge according to the measured value,
A simulation control device characterized by the above-mentioned.
請求項5に記載のシミュレーション制御装置において、
前記アニメーションは、
前記オブジェクトの外縁部にマーク列を配置し、かつ、前記計測値に応じて前記マーク列の配列数を変化させるアニメーションである、
ことを特徴とするシミュレーション制御装置。
The simulation control device according to claim 5 ,
The animation,
Place a mark row to an outer edge portion of the object, and an animation of changing the sequence number of the mark array in response to the measured value,
A simulation control device characterized by the above-mentioned.
請求項4に記載のシミュレーション制御装置において、
前記アニメーションは、
前記計測値に応じて前記オブジェクトの強調度を変化させるアニメーションである、
ことを特徴とするシミュレーション制御装置。
In the simulation apparatus according to claim 4,
The animation is
An animation that changes the degree of emphasis of the object according to the measurement value.
A simulation control device characterized by the above-mentioned.
請求項1〜7の何れか一項に記載のシミュレーション制御装置において、
前記オブジェクトの前記選択が確定した場合に前記オブジェクトに対応付けられた所定の処理を実行する実行部を更に備える、
ことを特徴とするシミュレーション制御装置。
In the simulation control device according to any one of claims 1 to 7,
Further comprising an execution unit for executing a predetermined processing corresponding to the object when the selection of the object is determined,
Simulation control unit, characterized in that.
装着型画像表示装置へ仮想空間を表示する表示処理部と、
前記仮想空間に配置されたオブジェクトに対するユーザの目視時間を計測する計測部と、
前記計測による計測値が第1閾値に達した場合に前記オブジェクトの選択を受付け、前記計測値が第1閾値より大きい第2閾値に達した場合に前記選択の確定を受付ける受付け部と、
前記計測による前記計測値の大きさの程度を前記ユーザへ通知する通知部と、
してコンピュータを機能させ、
前記計測部は、
前記オブジェクトから前記ユーザの視線が外れた場合には、前記視線が外れている時間に応じて前記計測値を減少させ、
前記受付け部は、
前記確定の前に前記計測値が第3閾値まで低下した場合には、前記選択の解除を受付け、
前記通知部は、
前記計測値の変化を視覚的に通知することを特徴とするシミュレーション制御プログラム。
A display processing unit that displays a virtual space on the wearable image display device;
A measurement unit that measures the user's viewing time for the object placed in the virtual space,
A receiving unit that receives the selection of the object when the measurement value obtained by the measurement reaches a first threshold, and that receives the determination of the selection when the measurement value reaches a second threshold larger than the first threshold;
A notification unit that notifies the user of the magnitude of the measurement value by the measurement,
And let the computer function,
The measurement unit is
When the user's line of sight has deviated from the object, the measurement value is reduced according to the time during which the line of sight has deviated,
The receiving unit is,
If the measured value drops to a third threshold before the confirmation, the release of the selection is accepted,
The notification unit,
Simulation control program characterized that you visually notify a change in the measured value.
JP2017134597A 2017-07-10 2017-07-10 Simulation control device and simulation control program Active JP6643783B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017134597A JP6643783B2 (en) 2017-07-10 2017-07-10 Simulation control device and simulation control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017134597A JP6643783B2 (en) 2017-07-10 2017-07-10 Simulation control device and simulation control program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016064750A Division JP6200023B1 (en) 2016-03-28 2016-03-28 Simulation control apparatus and simulation control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020000288A Division JP6821832B2 (en) 2020-01-06 2020-01-06 Simulation control device and simulation control program

Publications (3)

Publication Number Publication Date
JP2017182845A JP2017182845A (en) 2017-10-05
JP2017182845A5 JP2017182845A5 (en) 2019-05-09
JP6643783B2 true JP6643783B2 (en) 2020-02-12

Family

ID=60007502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017134597A Active JP6643783B2 (en) 2017-07-10 2017-07-10 Simulation control device and simulation control program

Country Status (1)

Country Link
JP (1) JP6643783B2 (en)

Also Published As

Publication number Publication date
JP2017182845A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6630607B2 (en) Simulation control device and simulation control program
JP6200023B1 (en) Simulation control apparatus and simulation control program
JP6684559B2 (en) Program and image generation device
JP6738641B2 (en) Simulation control device and simulation control program
JP6709633B2 (en) Simulation system and game system
JP6761340B2 (en) Simulation system and program
JP7041888B2 (en) Simulation system and program
JP7144796B2 (en) Simulation system and program
JP6625467B2 (en) Simulation control device and simulation control program
JP6770562B2 (en) Program, virtual space provision method and information processing device
JP6781324B2 (en) Simulation control device and simulation control program
JP3138335U (en) Pseudo ring throw game device
JP7351638B2 (en) Image generation device, image display system, and information presentation method
JP6643783B2 (en) Simulation control device and simulation control program
JP6419268B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6821832B2 (en) Simulation control device and simulation control program
WO2017141890A1 (en) Simulation device and game device
WO2022124135A1 (en) Game program, game processing method, and game device
KR102433084B1 (en) Player emotion analysis method for virtual reality game, player emotion-based virtual reality service management method and virtual reality system
JP7319686B2 (en) Game program, game processing method, and game device
JP2022090964A (en) Game program, game processing method, and game device
JP2002320769A (en) Image display control method and device recording medium recording image display control method, and game machine

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R150 Certificate of patent or registration of utility model

Ref document number: 6643783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250