JP2018126340A - Simulation system, program and controller - Google Patents

Simulation system, program and controller Download PDF

Info

Publication number
JP2018126340A
JP2018126340A JP2017021697A JP2017021697A JP2018126340A JP 2018126340 A JP2018126340 A JP 2018126340A JP 2017021697 A JP2017021697 A JP 2017021697A JP 2017021697 A JP2017021697 A JP 2017021697A JP 2018126340 A JP2018126340 A JP 2018126340A
Authority
JP
Japan
Prior art keywords
controller
user
information
reaction
vibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017021697A
Other languages
Japanese (ja)
Other versions
JP6910809B2 (en
Inventor
慎也 丹羽
Shinya Niwa
慎也 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2017021697A priority Critical patent/JP6910809B2/en
Publication of JP2018126340A publication Critical patent/JP2018126340A/en
Application granted granted Critical
Publication of JP6910809B2 publication Critical patent/JP6910809B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a simulation system capable of improving a virtual reality of a user in a system using a head wearing type display device and a controller which is gripped by a user.SOLUTION: A simulation system comprises: a controller 10 comprising a grip part 20 which is gripped by a user on a bar-shaped part between a tip part and a rear end part, and comprising a generation mechanism 30 for generating at least one of reaction and vibration between one end part out of the tip part and the rear end part and the grip part 20; an information acquisition part for acquiring at least one of position information, posture information and motion information of the controller 10 in a real space; a game processing part for performing game processing; a display processing part for, based on a result of the game processing, as a display image of an HMD 200 which a user wears so as to cover a visual field, generating an image including an image of an object corresponding to the controller; and a control part for controlling the generation mechanism 30 for generating at least one of reaction and the vibration according to a state of a game which a user plays.SELECTED DRAWING: Figure 8

Description

本発明は、シミュレーションシステム、プログラム及びコントローラ等に関する。   The present invention relates to a simulation system, a program, a controller, and the like.

従来より、仮想空間において仮想カメラから見える画像を生成するシミュレーションシステムが知られている。例えば仮想カメラから見える画像をHMD(頭部装着型表示装置)に表示して、バーチャルリアリティ(VR)を実現するシミュレーションシステムの従来技術としては、特許文献1に開示される技術がある。またゲームのコントローラにアクチェエータを設け、振動による触覚フィードバックを行うシステムの従来技術としては、特許文献2に開示される技術がある。   2. Description of the Related Art Conventionally, simulation systems that generate images that can be viewed from a virtual camera in a virtual space are known. For example, as a prior art of a simulation system that realizes virtual reality (VR) by displaying an image seen from a virtual camera on an HMD (head-mounted display device), there is a technique disclosed in Patent Document 1. Further, as a conventional technique of a system that provides an actuator in a game controller and performs tactile feedback by vibration, there is a technique disclosed in Patent Document 2.

特開平11−309269号公報JP-A-11-309269 特開2003−199974号公報Japanese Patent Laid-Open No. 2003-199974

HMDを用いたシミュレーションシステムでは、ユーザの視界がHMDにより覆われてしまい、視界が外界から遮断される。一方、HMDを介してユーザが見ることができるVR空間には、例えば敵キャラクタなどのオブジェクトが存在し、敵キャラクタとの対戦ゲームなどをユーザは楽しむことができる。   In the simulation system using the HMD, the user's field of view is covered with the HMD, and the field of view is blocked from the outside. On the other hand, an object such as an enemy character exists in the VR space that the user can see via the HMD, and the user can enjoy a battle game with the enemy character.

しかしながらVR空間である仮想空間に存在する敵キャラクタなどのオブジェクトは、実空間には存在しない。このため、例えばユーザが武器タイプのコントローラなどを手に持って、仮想空間の敵キャラクタに対して攻撃を行ったとしても、攻撃のヒット時の打感や触感等の体感を、ユーザは得ることができない。このためユーザの仮想現実感を今ひとつ高めることができないという課題があった。   However, objects such as enemy characters that exist in the virtual space that is the VR space do not exist in the real space. For this reason, for example, even if the user holds a weapon-type controller or the like and attacks an enemy character in the virtual space, the user can obtain a bodily sensation such as a hit feeling or a tactile sensation when the attack is hit. I can't. For this reason, there was a problem that the virtual reality of the user could not be improved one more time.

本発明の幾つかの態様によれば、頭部装着型表示装置とユーザが把持するコントローラを用いたシステムにおいてユーザの仮想現実感を向上できるシミュレーションシステム、プログラム及びコントローラ等を提供できる。   According to some aspects of the present invention, it is possible to provide a simulation system, a program, a controller, and the like that can improve a user's virtual reality in a system using a head-mounted display device and a controller held by the user.

本発明の一態様は、先端部と後端部の間の棒形状部分に、ユーザが把持する把持部を有し、前記先端部と前記後端部の一方の端部と前記把持部との間に、反動及び振動の少なくとも一方を発生する発生機構が設けられるコントローラと、実空間での前記コントローラの位置情報、姿勢情報及び動き情報の少なくとも1つを取得する情報取得部と、ゲーム処理を行うゲーム処理部と、前記ゲーム処理の結果に基づいて、前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像として、前記コントローラに対応するオブジェクトの画像を含む画像を生成する表示処理部と、前記ユーザがプレイするゲームの状況に応じて、反動及び振動の少なくとも一方を発生する前記発生機構を制御する制御部と、を含むシミュレーションシステムに関係する。   One aspect of the present invention has a grip portion that a user grips in a rod-shaped portion between a front end portion and a rear end portion, and includes one end portion of the front end portion, the rear end portion, and the grip portion. A controller provided with a generating mechanism for generating at least one of reaction and vibration, an information acquisition unit for acquiring at least one of position information, posture information and motion information of the controller in real space, and game processing An image including an image of an object corresponding to the controller is generated as a display image of a head-mounted display device worn by the user so as to cover the field of view based on a game processing unit to be performed and a result of the game processing A simulation system comprising: a display processing unit; and a control unit that controls the generating mechanism that generates at least one of reaction and vibration according to a situation of a game played by the user. Related to.

本発明の一態様では、コントローラは、先端部と後端部の間の棒形状部分に把持部を有し、先端部と後端部の一方の端部と把持部との間に、反動及び振動の少なくとも一方を発生する発生機構が設けられる。そして、このコントローラの位置情報、姿勢情報及び動き情報の少なくとも1つを取得される。またゲーム処理が行われて、ゲーム処理の結果に基づいて、頭部装着型表示装置の表示画像として、コントローラに対応するオブジェクトの画像を含む画像が生成される。そしてユーザがプレイするゲームの状況に応じて、発生機構が制御されて、発生機構により反動及び振動の少なくとも一方が発生する。このようにすれば、頭部装着型表示装置により視界が覆われることで、実空間の状況が見えていないユーザに対して、ゲーム状況に応じた反動又は振動をコントローラの発生機構により発生し、発生した反動又は振動を、例えば把持部等を介してユーザに体感させることが可能になる。これにより、頭部装着型表示装置とユーザが把持するコントローラを用いたシステムにおいてユーザの仮想現実感を向上できるシミュレーションシステム等の提供が可能になる。   In one aspect of the present invention, the controller has a grip portion in a rod-shaped portion between the front end portion and the rear end portion, and the reaction and rebound between one end portion of the front end portion and the rear end portion and the grip portion. A generating mechanism for generating at least one of vibrations is provided. Then, at least one of position information, posture information, and motion information of the controller is acquired. In addition, a game process is performed, and an image including an image of an object corresponding to the controller is generated as a display image of the head-mounted display device based on the result of the game process. The generation mechanism is controlled in accordance with the state of the game played by the user, and at least one of reaction and vibration is generated by the generation mechanism. In this way, the field of view is covered by the head-mounted display device, so that the reaction or vibration corresponding to the game situation is generated by the generation mechanism of the controller for the user who does not see the real space situation, It is possible to let the user experience the reaction or vibration that has occurred, for example, via a gripping part or the like. This makes it possible to provide a simulation system or the like that can improve the virtual reality of the user in a system using a head-mounted display device and a controller held by the user.

また本発明の一態様では、前記制御部は、前記把持部を回転中心として前記コントローラを回転させるように、前記発生機構を制御してもよい。   In the aspect of the invention, the control unit may control the generation mechanism so as to rotate the controller with the gripping unit as a rotation center.

このようにすれば、発生機構により発生した仮想的な反動又は振動により、把持部を回転中心としてコントローラが回転するように制御されるため、あたかも本当の反動又は振動によりコントローラが回転したかのような仮想現実感をユーザに与えることができる。   In this way, the controller is controlled so that the controller rotates about the gripping portion by the virtual reaction or vibration generated by the generation mechanism, so that the controller rotates as if by the actual reaction or vibration. It is possible to give a virtual reality to the user.

また本発明の一態様では、前記コントローラは剣型のコントローラであり、前記発生機構は、前記剣型のコントローラの刃部分に設けられてもよい。   In the aspect of the invention, the controller may be a sword-type controller, and the generation mechanism may be provided on a blade portion of the sword-type controller.

このようにすれば、仮想空間において剣の刃部分が他のオブジェクトにヒットした場合にも、コントローラにおいても剣の刃に対応する部分において反動が発生するようになり、あたかも本物の剣を使用しているかのような仮想現実感をユーザに与えることができる。   In this way, even if the blade part of the sword hits another object in the virtual space, a reaction will occur in the part corresponding to the blade of the sword in the controller, as if using a real sword. It is possible to give the user a virtual reality feeling as if he / she is.

また本発明の一態様では、実空間での前記ユーザの位置情報、姿勢情報及び動き情報の少なくとも1つを取得する情報取得部を含み(情報取得部としてコンピュータを機能させ)、前記制御部は、前記ユーザの前記位置情報、前記姿勢情報及び前記動き情報の少なくとも1つに基づいて、前記ゲーム状況を判断して、前記発生機構を制御してもよい。   In one aspect of the present invention, an information acquisition unit that acquires at least one of the position information, posture information, and motion information of the user in real space (a computer functions as the information acquisition unit), the control unit includes The game situation may be determined based on at least one of the position information, the posture information, and the movement information of the user, and the generation mechanism may be controlled.

このようにすれば、実空間でのユーザの位置情報、姿勢情報又は動き情報によりゲーム状況を判断して、ゲーム状況に応じた反動又は振動を発生機構により発生することが可能になる。   In this way, it is possible to determine the game situation based on the position information, posture information, or movement information of the user in the real space, and to generate a reaction or vibration according to the game situation by the generation mechanism.

また本発明の一態様では、前記制御部は、前記コントローラに対応するオブジェクトと他のオブジェクトとのヒット判定結果に応じて、前記発生機構を制御してもよい。   In the aspect of the invention, the control unit may control the generation mechanism according to a hit determination result between an object corresponding to the controller and another object.

このようにすれば、コントローラに対応するオブジェクトと他のオブジェクトとのヒットにより生じるべき反動又は振動を、発生機構による仮想的な反動又は振動を用いてユーザに体感させることが可能になる。   In this way, it is possible to let the user experience the reaction or vibration that should occur due to a hit between the object corresponding to the controller and another object, using the virtual reaction or vibration caused by the generation mechanism.

また本発明の一態様では、制御部は、前記コントローラに対応するオブジェクトが前記他のオブジェクトにヒットした後、前記他のオブジェクトが切断されたと判定された場合と、切断されなかったと判定された場合とで、前記発生機構での反動又は振動の発生態様を異ならせてもよい。   In one aspect of the present invention, the control unit determines that the other object has been disconnected after the object corresponding to the controller hits the other object, and determines that the object has not been disconnected. The generation mode of reaction or vibration in the generation mechanism may be varied.

このようにすれば、ヒットの発生後、他のオブジェクトが切断されたか否かに応じて、発生機構での反動又は振動の発生態様が異なるようになり、ユーザの仮想現実感を更に高めることが可能になる。   In this way, after the hit occurs, depending on whether another object is cut or not, the generation mode of the reaction or vibration in the generation mechanism is different, which further enhances the virtual reality of the user. It becomes possible.

また本発明の一態様では、前記制御部は、前記コントローラの種類情報、動き情報、前記他のオブジェクトの種類情報、動き情報の少なくとも1つに基づいて、前記発生機構を制御してもよい。   In the aspect of the invention, the control unit may control the generation mechanism based on at least one of the controller type information, motion information, the other object type information, and motion information.

このようにすれば、コントローラの種類情報、動き情報や他のオブジェクトの種類情報、動き情報を反映させた反動又は振動の発生制御を実現できるようになる。   In this way, it is possible to realize control of reaction or vibration reflecting the controller type information, motion information, other object type information, and motion information.

また本発明の一態様では、前記制御部は、前記発生機構の動力源への出力信号を制御することで、前記発生機構が発生する反動及び振動の少なくとも一方を制御してもよい。   In the aspect of the invention, the control unit may control at least one of reaction and vibration generated by the generation mechanism by controlling an output signal to the power source of the generation mechanism.

このようにすれば、発生機構の動力源への出力信号を制御するという簡素な制御処理で、発生機構による反動又は振動の発生の制御を実現できるようになる。   In this way, it becomes possible to realize control of reaction or vibration generation by the generating mechanism by a simple control process of controlling the output signal to the power source of the generating mechanism.

また本発明の一態様では、前記発生機構は、錘と、前記錘の受け部とを含み、前記錘を前記受け部に衝突させることで、反動を発生してもよい。   In the aspect of the invention, the generation mechanism may include a weight and a receiving portion of the weight, and may generate a reaction by causing the weight to collide with the receiving portion.

このようにすれば、錘が受け部に衝突することによる衝撃の反動を、ゲーム状況に応じた仮想的な反動として発生できるようになる。   In this way, it is possible to generate the reaction of the impact caused by the collision of the weight with the receiving part as a virtual reaction according to the game situation.

また本発明の一態様では、前記制御部は、前記錘のストローク距離を変化させることで、前記発生機構が発生する反動及び振動の少なくとも一方を制御してもよい。   In the aspect of the invention, the control unit may control at least one of the reaction and vibration generated by the generation mechanism by changing a stroke distance of the weight.

このようにすれば、錘のストローク距離を変化させることで、反動又は振動の強さ等を調整できるようになる。   In this way, by changing the stroke distance of the weight, the strength of the reaction or vibration can be adjusted.

また本発明の一態様では、前記制御部は、前記錘の種類及び前記受け部の種類の少なくとも一方を変化させる制御を行ってもよい。   In the aspect of the invention, the control unit may perform control to change at least one of the type of the weight and the type of the receiving unit.

このように錘又は受け部の種類を変化させることで、反動又は振動の強弱や質感等を制御できるようになる。   In this way, by changing the type of the weight or the receiving portion, it is possible to control the strength of the reaction or vibration, the texture, and the like.

また本発明の一態様では、前記コントローラは、反動及び振動の少なくとも一方を発生する第2の発生機構を含み、前記制御部は、前記発生機構での反動又は振動の発生態様と、前記第2の発生機構での反動又は振動の発生態様を異ならせてもよい。   In one aspect of the present invention, the controller includes a second generation mechanism that generates at least one of a reaction and a vibration, and the control unit generates the reaction or vibration in the generation mechanism, and the second The reaction mode or vibration generation mode of the generation mechanism may be different.

このようにすれば、発生機構での発生態様と第2の発生機構の発生態様を異ならせて、より綿密で仮想現実感の高い反動又は振動の制御を実現できるようになる。   By doing so, it becomes possible to realize the control of the reaction or vibration more precisely and with high virtual reality by making the generation mode in the generation mechanism different from the generation mode of the second generation mechanism.

また本発明の他の態様は、実空間でのコントローラの位置情報、姿勢情報及び動き情報の少なくとも1つを取得する情報取得部と、ゲーム処理を行うゲーム処理部と、前記ゲーム処理の結果に基づいて、前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像として、前記コントローラに対応するオブジェクトの画像を含む画像を生成する表示処理部と、前記コントローラについての制御を行う制御部として、コンピュータを機能させ、前記コントローラは、先端部と後端部の間の棒形状部分に、ユーザが把持する把持部を有し、前記先端部と前記後端部の一方の端部と前記把持部との間に、反動及び振動の少なくとも一方を発生する発生機構が設けられ、前記制御部は、前記ユーザがプレイするゲームの状況に応じて、反動及び振動の少なくとも一方を発生する前記発生機構を制御するプログラムに関係する。また本発明は、上記プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   In another aspect of the present invention, an information acquisition unit that acquires at least one of position information, posture information, and motion information of a controller in real space, a game processing unit that performs game processing, and a result of the game processing Based on the display processing unit that generates an image including an image of an object corresponding to the controller as a display image of the head-mounted display device that the user wears so as to cover the field of view, and controls the controller The controller functions as a control unit, and the controller has a grip portion to be gripped by a user in a rod-shaped portion between the front end portion and the rear end portion, and one end portion of the front end portion and the rear end portion And a generating mechanism for generating at least one of reaction and vibration is provided between the grip and the gripping unit, and the control unit is configured to react according to the situation of the game played by the user. It is provided a program for controlling the generation mechanism that generates at least one of micro-vibration. The present invention also relates to a computer-readable information storage medium storing the above program.

また本発明の他の態様は、先端部と後端部の間の棒形状部分に設けられ、ユーザにより把持される把持部と、前記先端部と前記後端部の一方の端部と前記把持部との間に設けられ、反動及び振動の少なくとも一方を発生する発生機構と、を含み、前記発生機構は、前記把持部を回転中心として前記コントローラを回転させるように、反動及び振動の少なくとも一方を発生するコントローラに関係する。   According to another aspect of the present invention, a grip portion provided at a rod-shaped portion between the front end portion and the rear end portion and gripped by a user, one end portion of the front end portion and the rear end portion, and the grip A generating mechanism that generates at least one of reaction and vibration, and the generation mechanism rotates at least one of the reaction and vibration so as to rotate the controller with the gripping part as a rotation center. Related to the controller that generates.

本発明の他の態様では、先端部と後端部の間の棒形状部分に設けられる把持部を用いて、ユーザはコントローラを把持できるようになる。そして、ユーザが把持した把持部と、先端部と後端部の一方の端部との間に設けられる発生機構により、把持部を回転中心としてコントローラを回転させるような反動又は振動を発生できる。このようにすれば、発生機構により発生した仮想的な反動又は振動により、把持部を回転中心としてコントローラが回転するようになるため、あたかも本当の反動又は振動によりコントローラが回転したかのような仮想現実感をユーザに与えることが可能になる。   In another aspect of the present invention, the user can grip the controller using a grip portion provided in a bar-shaped portion between the front end portion and the rear end portion. A reaction mechanism or vibration that rotates the controller about the gripping portion as a rotation center can be generated by a generating mechanism provided between the gripping portion gripped by the user and one end portion of the front end portion and the rear end portion. In this way, the virtual reaction or vibration generated by the generation mechanism causes the controller to rotate about the gripping portion as the center of rotation. Therefore, it is as if the controller has been rotated by the actual reaction or vibration. It is possible to give the user a sense of reality.

また本発明の他の態様では、前記発生機構は、錘と、前記錘の受け部とを含み、前記錘を前記受け部に衝突させることで、反動を発生してもよい。   In another aspect of the present invention, the generation mechanism may include a weight and a receiving portion of the weight, and may generate a reaction by causing the weight to collide with the receiving portion.

本実施形態のシミュレーションシステムの構成例を示すブロック図。The block diagram which shows the structural example of the simulation system of this embodiment. 図2(A)、図2(B)はHMDのトラッキング処理の一例の説明図。2A and 2B are explanatory diagrams of an example of tracking processing of the HMD. 図3(A)、図3(B)はHMDのトラッキング処理の他の例の説明図。3A and 3B are explanatory diagrams of another example of the HMD tracking process. 本実施形態のコントローラの構成例を示す左側面図。The left view which shows the structural example of the controller of this embodiment. 本実施形態のコントローラの構成例を示す右側面図。The right view which shows the structural example of the controller of this embodiment. 本実施形態のコントローラの構成例を示す上方斜視図。The upper perspective view which shows the structural example of the controller of this embodiment. 本実施形態のコントローラの構成例を示す下方斜視図。The lower perspective view which shows the structural example of the controller of this embodiment. コントローラを用いた実空間でのユーザの動作の例を示す図。The figure which shows the example of a user's operation | movement in the real space using a controller. 本実施形態により生成されるゲーム画像の例を示す図。The figure which shows the example of the game image produced | generated by this embodiment. コントローラを用いた実空間でのユーザの動作の例を示す図。The figure which shows the example of a user's operation | movement in the real space using a controller. 本実施形態により生成されるゲーム画像の例を示す図。The figure which shows the example of the game image produced | generated by this embodiment. コントローラを用いた実空間でのユーザの動作の例を示す図。The figure which shows the example of a user's operation | movement in the real space using a controller. 本実施形態により生成されるゲーム画像の例を示す図。The figure which shows the example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例を示す図。The figure which shows the example of the game image produced | generated by this embodiment. 本実施形態の処理例を説明するフローチャート。The flowchart explaining the process example of this embodiment. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed process example of this embodiment. 図17(A)、図17(B)は錘のストローク距離を変化させる手法の説明図。FIG. 17A and FIG. 17B are explanatory diagrams of a method for changing the stroke distance of the weight. 図18(A)、図18(B)は錘、受け部の種類を変化させる手法の説明図。18A and 18B are explanatory diagrams of a method for changing the types of weights and receiving portions. 反動又は振動の発生態様を2つの発生機構で異ならせる手法の説明図。Explanatory drawing of the method of making the generation | occurrence | production aspect of a reaction or a vibration differ by two generation | occurrence | production mechanisms.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.シミュレーションシステム
図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム、画像生成システム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステム、スポーツ競技シミュレータや運転シミュレータなどのリアルタイムシミュレーションシステム、SNSのサービスを提供するシステム、映像等のコンテンツを提供するコンテンツ提供システム、或いは遠隔作業を実現するオペレーティングシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Simulation System FIG. 1 is a block diagram illustrating a configuration example of a simulation system (a simulator, a game system, and an image generation system) according to the present embodiment. The simulation system of the present embodiment is a system that simulates virtual reality (VR), for example, a game system that provides game content, a real-time simulation system such as a sports competition simulator or a driving simulator, a system that provides an SNS service, an image The present invention can be applied to various systems such as a content providing system that provides content such as an operating system that implements remote work. Note that the simulation system of the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of the components (each unit) or adding other components are possible.

操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、ハンドル、ペダル、レバー又は音声入力装置等の種々の操作デバイスにより実現できる。   The operation unit 160 is for a user (player) to input various operation information (input information). The operation unit 160 can be realized by various operation devices such as an operation button, a direction instruction key, a joystick, a handle, a pedal, a lever, or a voice input device.

操作部160はコントローラ10(ユーザインターフェース)を含む。コントローラ10の詳細については後述する。   The operation unit 160 includes the controller 10 (user interface). Details of the controller 10 will be described later.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。   The storage unit 170 stores various types of information. The storage unit 170 functions as a work area such as the processing unit 100 or the communication unit 196. The game program and game data necessary for executing the game program are held in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (Hard Disk Drive), SSD, optical disk device, or the like. The storage unit 170 includes an object information storage unit 172 and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like. . The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an input device, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

HMD200(頭部装着型表示装置)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。   The HMD 200 (head-mounted display device) is a device that is mounted on the user's head and displays an image in front of the user's eyes. The HMD 200 is preferably a non-transmissive type, but may be a transmissive type. The HMD 200 may be a so-called glasses-type HMD.

HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、ユーザの視点位置、視線方向を特定できる。   The HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. A modification in which a light emitting element is provided in the HMD 200 is also possible. The sensor unit 210 is for realizing tracking processing such as head tracking, for example. For example, the position and direction of the HMD 200 are specified by tracking processing using the sensor unit 210. By specifying the position and direction of the HMD 200, the user's viewpoint position and line-of-sight direction can be specified.

トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する。第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでユーザの視点位置、視線方向を特定するのではなく、ユーザの視点位置、視線方向を直接に特定するトラッキング処理を採用してもよい。   Various methods can be adopted as the tracking method. In the first tracking method, which is an example of the tracking method, a plurality of light receiving elements (photodiodes and the like) are provided as the sensor unit 210, as will be described in detail with reference to FIGS. 2A and 2B described later. Then, by receiving light (laser or the like) from a light emitting element (LED or the like) provided outside by the plurality of light receiving elements, the position of the HMD 200 (user's head) in the real world three-dimensional space, Identify the direction. In the second tracking method, a plurality of light emitting elements (LEDs) are provided in the HMD 200 as will be described in detail with reference to FIGS. 3A and 3B described later. And the position and direction of HMD200 are pinpointed by imaging the light from these light emitting elements with the imaging part provided outside. In the third tracking method, a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor. The motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor. For example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD 200 in a three-dimensional space in the real world can be specified. Note that the position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method. Further, instead of specifying the user's viewpoint position and line-of-sight direction by specifying the position and direction of the HMD 200, tracking processing that directly specifies the user's viewpoint position and line-of-sight direction may be employed.

HMD200の表示部220は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部220には、ユーザの左眼の前に設定される第1のディスプレイ又は第1の表示領域と、右眼の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左眼用画像と右眼用画像を生成し、第1のディスプレイに左眼用画像を表示し、第2のディスプレイに右眼用画像を表示する。或いは1つのディスプレイの第1の表示領域に左眼用画像を表示し、第2の表示領域に右眼用画像を表示する。またHMD200には左眼用、右眼用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左眼用画像、右眼用画像に対して行われる。この補正処理は表示処理部120が行う。   The display unit 220 of the HMD 200 can be realized by, for example, an organic EL display (OEL) or a liquid crystal display (LCD). For example, the display unit 220 of the HMD 200 includes a first display or first display area set in front of the user's left eye and a second display or second display area set in front of the right eye. It is provided and stereoscopic display is possible. When performing stereoscopic display, for example, a left-eye image and a right-eye image with different parallax are generated, a left-eye image is displayed on the first display, and a right-eye image is displayed on the second display. To do. Alternatively, the left-eye image is displayed in the first display area of one display, and the right-eye image is displayed in the second display area. The HMD 200 is provided with two eyepiece lenses (fisheye lenses) for the left eye and the right eye, thereby expressing a VR space that extends over the entire perimeter of the user's field of view. Then, correction processing for correcting distortion generated in an optical system such as an eyepiece is performed on the left-eye image and the right-eye image. This correction process is performed by the display processing unit 120.

HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。   The processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. Further, the processing unit 240 may perform a three-dimensional sound (stereoscopic sound) process to realize reproduction of a three-dimensional sound direction, distance, and spread.

音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, a speaker or headphones.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。   The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC for I / F processing or the like. The portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (another apparatus) via a wired or wireless network, and functions thereof are hardware such as a communication ASIC or communication processor, or communication firmware. Can be realized.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. May be. Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、仮想空間設定処理、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。   The processing unit 100 (processor) is used for operation information from the operation unit 160, tracking information in the HMD 200 (information on at least one of the position and direction of the HMD, information on at least one of the viewpoint position and the line-of-sight direction), a program, and the like. Based on this, game processing (simulation processing), virtual space setting processing, moving body processing, virtual camera control processing, display processing, sound processing, or the like is performed.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。   Each processing (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware. For example, the processor may include hardware, and the hardware may include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, the processor can be configured by one or a plurality of circuit devices (for example, ICs) mounted on a circuit board or one or a plurality of circuit elements (for example, resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. The processor may be an ASIC hardware circuit. The processor may include an amplifier circuit, a filter circuit, and the like that process an analog signal. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor. The instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、情報取得部111、仮想空間設定部112、移動体処理部113、仮想カメラ制御部114、ゲーム処理部115、ヒット判定部116、制御部117、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The arithmetic processing unit 110 includes an information acquisition unit 111, a virtual space setting unit 112, a moving body processing unit 113, a virtual camera control unit 114, a game processing unit 115, a hit determination unit 116, a control unit 117, a display processing unit 120, and sound processing. Part 130. As described above, each process of the present embodiment executed by these units can be realized by a processor (or a processor and a memory). Various modifications such as omitting some of these components (each unit) or adding other components are possible.

入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200のセンサ部210等により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。   The input processing unit 102 performs processing for receiving operation information and tracking information, processing for reading information from the storage unit 170, and processing for receiving information via the communication unit 196 as input processing. For example, the input processing unit 102 stores, in the storage unit 170, processing for acquiring operation information input by the user using the operation unit 160, tracking information detected by the sensor unit 210 of the HMD 200, and the information specified by the read command. A process for reading data from a computer or a process for receiving information from an external device (such as a server) via a network is performed as an input process. Here, the reception process includes a process of instructing the communication unit 196 to receive information, a process of acquiring information received by the communication unit 196, and writing the information in the storage unit 170, and the like.

演算処理部110は、各種の演算処理を行う。例えば情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理(シミュレーション処理)、表示処理、或いは音処理などの演算処理を行う。   The arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as information acquisition processing, virtual space setting processing, moving body processing, virtual camera control processing, game processing (simulation processing), display processing, or sound processing is performed.

情報取得部111(情報取得処理のプログラムモジュール)は種々の情報の取得処理を行う。例えば情報取得部111は、HMD200を装着するユーザやコントローラ10の位置情報などを取得する。情報取得部111は、ユーザやコントローラ10の姿勢情報(方向情報)や動き情報などを取得してもよい。   The information acquisition unit 111 (program module for information acquisition processing) performs various information acquisition processing. For example, the information acquisition unit 111 acquires position information of the user wearing the HMD 200 and the controller 10. The information acquisition unit 111 may acquire posture information (direction information), movement information, and the like of the user and the controller 10.

仮想空間設定部112(仮想空間設定処理のプログラムモジュール)は、オブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。   The virtual space setting unit 112 (program module for virtual space setting processing) performs setting processing for a virtual space (object space) in which an object is placed. For example, various objects representing display objects such as moving objects (people, robots, cars, trains, airplanes, ships, monsters, animals, etc.), maps (terrain), buildings, auditoriums, courses (roads), trees, walls, water surfaces, etc. A process of placing and setting an object (an object composed of a primitive surface such as a polygon, a free-form surface, or a subdivision surface) in a virtual space is performed. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, in the object information storage unit 172 of the storage unit 170, object information that is information such as the position, rotation angle, moving speed, and moving direction of an object (part object) in the virtual space is associated with the object number. Is remembered. The virtual space setting unit 112 performs a process of updating the object information for each frame, for example.

移動体処理部113(移動体処理のプログラムモジュール)は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部113は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のユーザ(プレーヤ)に対応するユーザ移動体である。ユーザ移動体は、仮想空間の仮想ユーザ(仮想プレーヤ、アバター)や、或いは当該仮想ユーザが搭乗(操作)する搭乗移動体(操作移動体)などである。   The moving body processing unit 113 (moving body processing program module) performs various processes on a moving body that moves in the virtual space. For example, processing for moving the moving body in virtual space (object space, game space) and processing for moving the moving body are performed. For example, the mobile object processing unit 113 is based on operation information input by the user through the operation unit 160, acquired tracking information, a program (movement / motion algorithm), various data (motion data), and the like. Control processing for moving the model object) in the virtual space or moving the moving object (motion, animation) is performed. Specifically, a simulation for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (for example, 1/60 second). Process. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object. The moving body is, for example, a user moving body corresponding to a user (player) in real space. The user moving body is a virtual user (virtual player, avatar) in the virtual space, or a boarding moving body (operation moving body) on which the virtual user is boarded (operated).

仮想カメラ制御部114(仮想カメラ制御処理のプログラムモジュール)は、仮想カメラの制御を行う。例えば、操作部160により入力されたユーザの操作情報やトラッキング情報などに基づいて、仮想カメラを制御する処理を行う。   The virtual camera control unit 114 (virtual camera control processing program module) controls the virtual camera. For example, a process for controlling the virtual camera is performed based on user operation information, tracking information, and the like input by the operation unit 160.

例えば仮想カメラ制御部114は、ユーザの一人称視点又は三人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動するユーザ移動体の視点(一人称視点)に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。或いは、ユーザ移動体に追従する視点(三人称視点)の位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置や姿勢を制御する。   For example, the virtual camera control unit 114 controls the virtual camera set as the first-person viewpoint or the third-person viewpoint of the user. For example, by setting a virtual camera at a position corresponding to the viewpoint (first-person viewpoint) of a user moving body moving in the virtual space, and setting the viewpoint position and line-of-sight direction of the virtual camera, the position (positional coordinates) of the virtual camera And control the attitude (rotation angle around the rotation axis). Alternatively, the position and orientation of the virtual camera are controlled by setting the virtual camera at the position of the viewpoint (third-person viewpoint) following the user moving body and setting the viewpoint position and line-of-sight direction of the virtual camera.

例えば仮想カメラ制御部114は、視点トラッキングにより取得されたユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。例えば本実施形態では、ユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)が取得される。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。そして仮想カメラ制御部114は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部114は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。   For example, the virtual camera control unit 114 controls the virtual camera so as to follow the change of the user's viewpoint based on the tracking information of the user's viewpoint information acquired by the viewpoint tracking. For example, in the present embodiment, tracking information (viewpoint tracking information) of viewpoint information that is at least one of the user's viewpoint position and line-of-sight direction is acquired. This tracking information can be acquired by performing tracking processing of the HMD 200, for example. Then, the virtual camera control unit 114 changes the viewpoint position and the line-of-sight direction of the virtual camera based on the acquired tracking information (information on at least one of the user's viewpoint position and the line-of-sight direction). For example, the virtual camera control unit 114 is configured so that the viewpoint position and the line-of-sight direction (position and posture) of the virtual camera change in the virtual space according to changes in the viewpoint position and the line-of-sight direction of the user in the real space. Set up the camera. By doing in this way, a virtual camera can be controlled to follow a user's viewpoint change based on tracking information of a user's viewpoint information.

ゲーム処理部115(ゲーム処理のプログラムモジュール)は、ユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部115(シミュレーション処理部)は、ユーザが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。   The game processing unit 115 (game processing program module) performs various game processes for the user to play a game. In other words, the game processing unit 115 (simulation processing unit) executes various simulation processes for the user to experience virtual reality (virtual reality). The game process is, for example, a process for starting a game when a game start condition is satisfied, a process for advancing the started game, a process for ending a game when a game end condition is satisfied, or calculating a game result. Processing.

ヒット判定部116(ヒット判定処理のプログラムモジュール)はヒット判定処理を行う。制御部117(制御処理のプログラムモジュール)はコントローラ10についての各種の制御処理を行う。ヒット判定部116、制御部117の詳細については後述する。   The hit determination unit 116 (a program module for hit determination processing) performs hit determination processing. The control unit 117 (control processing program module) performs various control processes for the controller 10. Details of the hit determination unit 116 and the control unit 117 will be described later.

表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、仮想空間において仮想カメラ(所与の視点。左眼用、右眼用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The display processing unit 120 (display processing program module) performs display processing of a game image (simulation image). For example, a drawing process is performed based on the results of various processes (game process, simulation process) performed by the processing unit 100, thereby generating an image and displaying it on the display unit 220. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. As a result, an image that can be seen from the virtual camera (given viewpoints, the first and second viewpoints for the left eye and the right eye) in the virtual space is generated. Note that the drawing processing performed by the display processing unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。   The sound processing unit 130 (sound processing program module) performs sound processing based on the results of various processes performed by the processing unit 100. Specifically, game sounds such as music (music, BGM), sound effects, or sounds are generated, and the game sounds are output to the sound output unit 192. Note that part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.

出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。   The output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs processing for writing information in the storage unit 170 and processing for transmitting information via the communication unit 196 as output processing. For example, the output processing unit 140 performs a process of writing information specified by a write command in the storage unit 170 or a process of transmitting information to an external apparatus (server or the like) via a network. The transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information.

図1に示すように本実施形態のシミュレーションシステムは、実空間でのユーザの位置情報を取得する情報取得部111を含む。例えば情報取得部111は、ユーザの視点トラッキングなどによりユーザの位置情報を取得する。そして移動体処理部113は、取得された位置情報に基づいて、ユーザ移動体(ユーザキャラクタ、アバタ)を移動させる処理を行い、表示処理部120は、ユーザが装着するHMD200の表示画像を生成する。例えば実空間でのユーザの移動に追従するように、仮想空間でのユーザ移動体を移動させる。そして、そのユーザ移動体に対応する仮想カメラから見える画像を、HMD200の表示画像として生成する。   As shown in FIG. 1, the simulation system of the present embodiment includes an information acquisition unit 111 that acquires user position information in real space. For example, the information acquisition unit 111 acquires user position information through user viewpoint tracking or the like. Then, the moving body processing unit 113 performs processing for moving the user moving body (user character, avatar) based on the acquired position information, and the display processing unit 120 generates a display image of the HMD 200 worn by the user. . For example, the user moving body in the virtual space is moved so as to follow the movement of the user in the real space. Then, an image that can be seen from the virtual camera corresponding to the user moving object is generated as a display image of the HMD 200.

例えば情報取得部111は、視界を覆うようにHMD200を装着するユーザの位置情報を取得する。例えば情報取得部111は、HMD200のトラッキング情報などに基づいて、実空間でのユーザの位置情報を取得する。例えばHMD200の位置情報を、当該HMD200を装着するユーザの位置情報として取得する。具体的には、ユーザが実空間(現実世界)のプレイフィールド(シミュレーションフィールド、プレイエリア)に位置する場合に、そのプレイフィールドでの位置情報を取得する。なお、HMD200のトラッキング処理ではなくて、ユーザやユーザの頭部などの部位を直接にトラッキングする手法により、ユーザの位置情報を取得してもよい。   For example, the information acquisition unit 111 acquires position information of a user who wears the HMD 200 so as to cover the field of view. For example, the information acquisition unit 111 acquires the position information of the user in real space based on the tracking information of the HMD 200 and the like. For example, the position information of the HMD 200 is acquired as the position information of the user wearing the HMD 200. Specifically, when the user is located in a play field (simulation field, play area) in real space (real world), position information in the play field is acquired. Note that the position information of the user may be acquired by a method of directly tracking a part such as the user or the user's head instead of the tracking process of the HMD 200.

また仮想カメラ制御部114は、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。   Further, the virtual camera control unit 114 controls the virtual camera so as to follow the change in the user's viewpoint based on the tracking information of the user's viewpoint information.

例えば入力処理部102(入力受け付け部)は、HMD200を装着するユーザの視点情報のトラッキング情報を取得する。例えばユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)を取得する。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。なおトラッキング処理によりユーザの視点位置、視線方向を直接に取得するようにしてもよい。一例としては、トラッキング情報は、ユーザの初期視点位置からの視点位置の変化情報(視点位置の座標の変化値)、及び、ユーザの初期視線方向からの視線方向の変化情報(視線方向の回転軸回りでの回転角度の変化値)の少なくとも一方を含むことができる。このようなトラッキング情報が含む視点情報の変化情報に基づいて、ユーザの視点位置や視線方向(ユーザの頭部の位置、姿勢の情報)を特定できる。   For example, the input processing unit 102 (input reception unit) acquires tracking information of viewpoint information of the user wearing the HMD 200. For example, tracking information (viewpoint tracking information) of viewpoint information that is at least one of the user's viewpoint position and line-of-sight direction is acquired. This tracking information can be acquired by performing tracking processing of the HMD 200, for example. Note that the user's viewpoint position and line-of-sight direction may be directly acquired by tracking processing. As an example, the tracking information includes the change information of the viewpoint position from the initial viewpoint position of the user (change value of the coordinate of the viewpoint position), and the change information of the gaze direction from the initial gaze direction of the user (the rotation axis in the gaze direction). At least one of the rotation angle change values around the rotation angle). Based on the change information of the viewpoint information included in such tracking information, the user's viewpoint position and line-of-sight direction (information on the user's head position and posture) can be specified.

また本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応する仮想ユーザやその搭乗移動体などの移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。   In the present embodiment, a virtual reality simulation process is performed as the game process of the game played by the user. The virtual reality simulation process is a simulation process for simulating an event in the real space in the virtual space, and is a process for causing the user to experience the event virtually. For example, a virtual user corresponding to a user in real space or a moving body such as a boarding moving body is moved in the virtual space, or processing for causing the user to experience changes in the environment and surroundings associated with the movement is performed.

なお図1の本実施形態のシミュレーションシステムの処理は、家庭用ゲーム装置や業務用ゲーム装置などの処理装置、施設に設置されるPC等の処理装置、ユーザが背中等に装着する処理装置(バックパックPC)、或いはこれらの処理装置の分散処理などにより実現できる。或いは、本実施形態のシミュレーションシステムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。   The processing of the simulation system of this embodiment in FIG. 1 includes processing devices such as home game devices and arcade game devices, processing devices such as PCs installed in facilities, and processing devices (back Pack PC) or distributed processing of these processing devices. Or you may implement | achieve the process of the simulation system of this embodiment with a server system and a terminal device. For example, it may be realized by distributed processing of a server system and a terminal device.

2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。
2. Tracking Processing Next, an example of tracking processing will be described. FIG. 2A shows an example of the HMD 200 used in the simulation system of this embodiment. As shown in FIG. 2A, the HMD 200 is provided with a plurality of light receiving elements 201, 202, and 203 (photodiodes). The light receiving elements 201 and 202 are provided on the front side of the HMD 200, and the light receiving element 203 is provided on the right side of the HMD 200. In addition, a light receiving element (not shown) is also provided on the left side, upper surface, and the like of the HMD.

またユーザUSは、一方の手(例えば右手)でコントローラ10を持ち、他方の手(例えば左手)でコントローラ80を持っている。コントローラ10は例えば剣型のコントローラである。コントローラ80は後述する盾に対応するコントローラである。コントローラ10、80には、HMD200と同様に受光素子が設けられており、この受光素子を用いることで、HMD200の場合と同様にコントローラ10、80のトラッキング処理を実現できる。例えばコントローラ10、80の位置情報を検出できる。またコントローラ10、80に複数の受光素子を設けることで、コントローラ10、80の姿勢情報(方向情報)を検出できる。   The user US has the controller 10 with one hand (for example, the right hand) and the controller 80 with the other hand (for example, the left hand). The controller 10 is a sword-type controller, for example. The controller 80 is a controller corresponding to a shield described later. The controllers 10 and 80 are provided with light receiving elements in the same manner as the HMD 200. By using the light receiving elements, the tracking processing of the controllers 10 and 80 can be realized as in the case of the HMD 200. For example, the position information of the controllers 10 and 80 can be detected. Further, by providing the controllers 10 and 80 with a plurality of light receiving elements, the posture information (direction information) of the controllers 10 and 80 can be detected.

図2(B)に示すように、ユーザUSの周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキング処理が実現され、ユーザUSの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。例えばユーザUSの位置情報や姿勢情報(方向情報)を検出できるようになる。またコントローラ10、80に受光素子を設けることで、コントローラ10、80の位置情報や姿勢情報(方向情報)を検出できるようになる。   As shown in FIG. 2B, base stations 280 and 284 are installed around the user US. The base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286. The light emitting elements 281, 282, 285, and 286 are realized by LEDs that emit laser (infrared laser or the like), for example. The base stations 280 and 284 use these light emitting elements 281, 282, 285, and 286 to emit, for example, a laser beam radially. Then, the light receiving elements 201 to 203 and the like provided in the HMD 200 in FIG. 2A receive the lasers from the base stations 280 and 284, thereby realizing the tracking process of the HMD 200 and facing the head position of the user US. The direction (viewpoint position, line-of-sight direction) can be detected. For example, position information and posture information (direction information) of the user US can be detected. Further, by providing the controllers 10 and 80 with light receiving elements, the position information and orientation information (direction information) of the controllers 10 and 80 can be detected.

図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。   FIG. 3A shows another example of the HMD 200. In FIG. 3A, a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by, for example, LEDs. The light emitting elements 231 to 234 are provided on the front side of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in a visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors.

そして図3(B)に示す撮像部150を、ユーザUSの周囲の少なくとも1つの場所(例えば前方側、或いは前方側及び後方側など)に設置し、この撮像部150により、HMD200の発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザUSの頭部(HMD)のトラッキングを実現する。即ちユーザUSの頭部の3次元位置や向く方向(視点位置、視線方向)を検出する。   The imaging unit 150 shown in FIG. 3B is installed in at least one place around the user US (for example, the front side, the front side, the rear side, or the like). ˜236 images of light. That is, the spot light of these light emitting elements 231 to 236 is reflected in the captured image of the imaging unit 150. And the tracking of the user's US head (HMD) is implement | achieved by performing the image process of this captured image. That is, the three-dimensional position of the head of the user US and the facing direction (viewpoint position, line of sight direction) are detected.

例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザUSの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザUSの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザUSが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。   For example, as illustrated in FIG. 3B, the imaging unit 150 includes first and second cameras 151 and 152, and the first and second cameras 151 and 152 of the first and second cameras 151 and 152 are provided. By using the captured image, the position of the head of the user US in the depth direction can be detected. Further, based on the motion detection information of the motion sensor provided in the HMD 200, the rotation angle (line of sight) of the head of the user US can also be detected. Therefore, by using such an HMD 200, when the user US faces in any direction of all 360 degrees around the image, the image (the user's virtual space in the virtual space (virtual three-dimensional space)) Image viewed from a virtual camera corresponding to the viewpoint) can be displayed on the display unit 220 of the HMD 200.

なお、発光素子231〜236として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部の位置や動き等を検出するようにしてもよい。   Note that instead of visible light, infrared LEDs may be used as the light emitting elements 231 to 236. Further, the position or movement of the user's head may be detected by another method such as using a depth camera.

またコントローラ10、80に発光素子を設けることで、HMD200の場合と同様にコントローラ10、80のトラッキング処理を実現できる。例えばコントローラ10、80の位置情報を検出できる。またコントローラ10、80に複数の発光素子を設けることで、コントローラ10、80の姿勢情報(方向情報)を検出できる。   Further, by providing the light emitting elements in the controllers 10 and 80, the tracking processing of the controllers 10 and 80 can be realized as in the case of the HMD200. For example, the position information of the controllers 10 and 80 can be detected. In addition, by providing the controllers 10 and 80 with a plurality of light emitting elements, posture information (direction information) of the controllers 10 and 80 can be detected.

また、ユーザUSの位置情報、姿勢情報(視点位置、視線方向)を検出したり、コントローラ10、80の位置情報、姿勢情報を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200やコントローラ10、80に設けられたモーションセンサ等を用いて、HMD200やコントローラ10、80のトラッキング処理を行って、位置情報や姿勢情報を検出してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法を用いてもよい。   Further, tracking processing methods for detecting the position information and posture information (viewpoint position, line-of-sight direction) of the user US and detecting the position information and posture information of the controllers 10 and 80 are shown in FIGS. The method described in B) is not limited. For example, the tracking information of the HMD 200 and the controllers 10 and 80 may be performed using a motion sensor provided in the HMD 200 and the controllers 10 and 80 to detect position information and posture information. That is, tracking processing is realized without providing external devices such as the base stations 280 and 284 in FIG. 2B and the imaging unit 150 in FIG. Alternatively, various viewpoint tracking methods such as known eye tracking, face tracking, or head tracking may be used.

3.コントローラ
次に本実施形態のコントローラ10の構成例について図4〜図7を用いて説明する。図4はコントローラ10の左側面図、図5は右側面図である。図6はコントローラ10を上方から見た斜視図、図7は下方から見た斜視図である。
3. Controller Next, a configuration example of the controller 10 according to the present embodiment will be described with reference to FIGS. 4 is a left side view of the controller 10, and FIG. 5 is a right side view. 6 is a perspective view of the controller 10 as viewed from above, and FIG. 7 is a perspective view of the controller 10 as viewed from below.

なおコントローラ10の形状、構造は図4〜図7には限定されない。例えば図4〜図7は剣を模した剣型のコントローラの例であるが、コントローラ10としては、剣以外の武器を模した武器型のコントローラや、スポーツに使用される器具を模したスポーツ器具型のコントローラや、或いは楽器や楽器用具などの楽器具を模した楽器具型のコントローラなどを想定できる。剣以外の武器型のコントローラとしては、斧、槍、杖又は鞭等を模したコントローラを想定できる。スポーツ器具型のコントローラとしては、野球のバットを模したバット型のコントローラ、テニスや卓球のラケットを模したラケット型のコントローラ、ゴルフのクラブを模したクラブ型のコントローラなどを想定できる。楽器具型のコントローラとしては、例えばドラムや太鼓のスティックを模したスティック型のコントローラなどを想定できる。またコントローラ10は、武器型やスポーツ器具型や楽器具型以外のタイプのコントローラであってもよい。   In addition, the shape and structure of the controller 10 are not limited to FIGS. For example, FIG. 4 to FIG. 7 are examples of a sword-type controller imitating a sword. As the controller 10, a weapon-type controller imitating a weapon other than a sword, or a sports instrument imitating an instrument used in sports. It is possible to envisage a type controller or a musical instrument type controller imitating musical instruments such as musical instruments and musical instrument tools. As a weapon-type controller other than a sword, a controller imitating an axe, spear, wand or whip can be assumed. As a sports equipment type controller, a bat type controller imitating a baseball bat, a racket type controller imitating a tennis or table tennis racket, a club type controller imitating a golf club, and the like can be assumed. As a musical instrument type controller, for example, a stick type controller imitating a drum or drumstick can be assumed. Further, the controller 10 may be a controller of a type other than a weapon type, a sports equipment type, or a musical instrument type.

図4〜図7に示すように、本実施形態のコントローラ10(ユーザインターフェース)は、先端部と後端部の間の棒形状部分に、ユーザが把持する把持部20(持ち手)を有する。例えばコントローラ10は、少なくとも把持部20の部分が棒形状となっており、ユーザが例えば一方の手で把持できるようになっている。例えばコントローラ10の長手方向をDR1とした場合に、把持部20は、方向DR1が長手方向となる棒形状となっている。方向DR1は例えばコントローラ10の先端部と後端部を結ぶ方向でもある。なお図4〜図7では、方向DR1に直交する方向をDR2とし、方向DR1及び方向DR2に直交する方向をDR3としている。   As shown in FIGS. 4 to 7, the controller 10 (user interface) of the present embodiment has a grip portion 20 (handle) that the user grips at a bar-shaped portion between the front end portion and the rear end portion. For example, the controller 10 has at least a grip portion 20 in a bar shape so that the user can grip it with one hand, for example. For example, when the longitudinal direction of the controller 10 is DR1, the grip portion 20 has a bar shape in which the direction DR1 is the longitudinal direction. The direction DR1 is also a direction connecting the front end portion and the rear end portion of the controller 10, for example. 4 to 7, the direction orthogonal to the direction DR1 is DR2, and the direction orthogonal to the direction DR1 and the direction DR2 is DR3.

コントローラ10は、少なくとも把持部20において棒形状になっていればよく、他の部分は必ずしも棒形状になっていなくてもよい。例えばテニス等のゲームに用いられるラケット型のコントローラの場合には、ユーザが把持するグリップの部分は棒形状である一方で、ラケットフェースなどのフレーム部分は棒形状になっていなくてもよい。ゴルフのゲームに用いられるクラブ型のコントローラの場合には、グリップの部分が棒形状である一方で、ヘッドの部分は棒形状になっていなくてもよい。同様に、斧を模した武器型のコントローラの場合には、グリップ部分は棒形状である一方で、斧の刃の部分は棒形状になっていなくてもよい。また野球のバッドのように棒形状の把持部20は、グリップの太さが微妙に変化するものであってもよい。このようにコントローラ10は、少なくとも把持部20において棒形状であればよい。また棒形状の断面は円や楕円の形状には限定されず、三角形や四角形などの多角形の形状であってもよいし、バッドのように断面形状の面積が変化するようなものであってもよい。   It suffices that the controller 10 has a bar shape at least in the grip portion 20, and other parts do not necessarily have a bar shape. For example, in the case of a racket-type controller used in games such as tennis, the grip portion gripped by the user has a rod shape, while the frame portion such as a racket face does not have to have a rod shape. In the case of a club-type controller used in a golf game, the grip portion has a rod shape, while the head portion does not have to have a rod shape. Similarly, in the case of a weapon-type controller imitating an axe, the grip portion has a rod shape, while the ax blade portion does not have to have a rod shape. Further, like the baseball bud, the stick-shaped gripping portion 20 may be one in which the thickness of the grip slightly changes. As described above, the controller 10 may have a rod shape at least in the grip portion 20. The rod-shaped cross section is not limited to a circle or an ellipse, and may be a polygonal shape such as a triangle or a quadrangle. Also good.

そして本実施形態のコントローラ10は、先端部と後端部の一方の端部と把持部20との間に、反動及び振動の少なくとも一方を発生する発生機構が設けられる。例えば図4〜図7のコントローラ10では、先端部と把持部20との間に、例えば反動等を発生する発生機構30が設けられている。またコントローラ10の後端部と把持部20との間に、例えば振動等を発生する発生機構60(第2の発生機構)が設けられている。なおコントローラ10の先端部と把持部20との間に、例えば振動を発生する発生機構を設けたり、反動及び振動の両方を発生する発生機構を設けてもよい。或いは、コントローラ10の後端部と把持部20との間に、例えば反動を発生する発生機構を設けたり、反動及び振動の両方を発生する発生機構を設けてもよい。或いは、反動及び振動の少なくとも一方を発生する発生機構を、例えば把持部20の場所に設けてもよい。   In the controller 10 of this embodiment, a generating mechanism that generates at least one of reaction and vibration is provided between one end of the front end and the rear end and the grip 20. For example, in the controller 10 of FIGS. 4 to 7, a generating mechanism 30 that generates, for example, a reaction is provided between the distal end portion and the grip portion 20. Further, a generating mechanism 60 (second generating mechanism) that generates vibration or the like is provided between the rear end portion of the controller 10 and the grip portion 20. For example, a generation mechanism that generates vibration or a generation mechanism that generates both reaction and vibration may be provided between the tip of the controller 10 and the grip 20. Alternatively, for example, a generation mechanism that generates a reaction or a generation mechanism that generates both the reaction and vibration may be provided between the rear end of the controller 10 and the grip 20. Or you may provide the generating mechanism which generate | occur | produces at least one of a reaction and a vibration in the location of the holding part 20, for example.

具体的には発生機構30は、錘32と受け部34を含む。そして発生機構30は、錘32を受け部34に衝突させることで、反動(反力)を発生する。またこの反動の発生に伴い、振動も発生させることができる。反動は、例えば他に力や作用を及ぼしたときにその反作用で押し返されることなどである。例えば後述の図8〜図14で説明するように本実施形態では、ユーザが実空間において剣型のコントローラ10を持って、剣で振る動作を行う。そして仮想空間において、その剣に対応する剣のオブジェクトが敵キャラクタ等の他のオブジェクトにヒットすると、そのヒットについての仮想的な反動が、発生機構30により実現される。例えば剣がヒットした方向とは反対方向の反力が働いたかのようにユーザが感じることができる反動を、発生機構30が発生する。具体的には図4のA1に示すように錘32がスイング移動して、受け部34に衝突する。これによりA2に示すような反力があたかも生じたかのようにユーザは感じることができ、剣のヒットによる仮想的な反動の発生を実現できる。   Specifically, the generating mechanism 30 includes a weight 32 and a receiving part 34. The generating mechanism 30 generates a reaction (reaction force) by causing the weight 32 to collide with the receiving portion 34. In addition, vibration can also be generated along with the reaction. The reaction is, for example, being pushed back by the reaction when another force or action is applied. For example, as will be described later with reference to FIGS. 8 to 14, in the present embodiment, the user holds the sword-shaped controller 10 in real space and performs an operation of swinging with a sword. When a sword object corresponding to the sword hits another object such as an enemy character in the virtual space, a virtual reaction to the hit is realized by the generation mechanism 30. For example, the generating mechanism 30 generates a reaction that can be felt by the user as if a reaction force in a direction opposite to the direction in which the sword hits. Specifically, the weight 32 swings and collides with the receiving portion 34 as indicated by A1 in FIG. As a result, the user can feel as if the reaction force shown in A2 has occurred, and a virtual reaction caused by a sword hit can be realized.

例えば発生機構30の錘32は、アーム40に取り付けられている。アーム40は図7に示すようにガイド部41に設けられた開口に沿ってスイング移動する。例えばコントローラ10は基部12を有し、基部12には板状部材47が取り付けられている。アーム40の一端には錘32が取り付けられ、アーム40の他端は、取付具42(軸部材)により板状部材47に回動自在に取り付けられている。また基部12にはソレノイド50(広義には動力源、アクチュエータ)が取り付けられており、ソレノイド50は軸部材52を方向DR1に沿って移動する。アーム40の他端側は、この軸部材52のヘッド部54に対して取付具44(軸部材)により取り付けられている。また、一端が基部12に取り付けられた弾性部材46(バネ、ワイヤ等)の他端も、軸部材52のヘッド部54に対して取付具44により取り付けられている。そしてソレノイド50により軸部材52が図4のA3に示すように方向DR1に沿って移動すると、アーム40が取付具42の位置を回転中心としてA4に示すように回転する。これにより錘32がA1に示すようにスイング移動して、受け部34に衝突し、A2に示すような仮想的な反動が発生するようになる。衝突後に例えば弾性部材46の弾性力により錘32やアーム40は元の位置に戻る。   For example, the weight 32 of the generating mechanism 30 is attached to the arm 40. As shown in FIG. 7, the arm 40 swings along an opening provided in the guide portion 41. For example, the controller 10 has a base 12, and a plate-like member 47 is attached to the base 12. A weight 32 is attached to one end of the arm 40, and the other end of the arm 40 is rotatably attached to a plate-like member 47 by a fixture 42 (shaft member). Further, a solenoid 50 (power source or actuator in a broad sense) is attached to the base portion 12, and the solenoid 50 moves the shaft member 52 along the direction DR1. The other end side of the arm 40 is attached to the head portion 54 of the shaft member 52 by a fixture 44 (shaft member). The other end of the elastic member 46 (spring, wire, etc.) having one end attached to the base portion 12 is also attached to the head portion 54 of the shaft member 52 by the attachment tool 44. Then, when the shaft member 52 is moved in the direction DR1 as indicated by A3 in FIG. 4 by the solenoid 50, the arm 40 rotates as indicated by A4 with the position of the fixture 42 as the rotation center. As a result, the weight 32 swings as shown by A1, collides with the receiving portion 34, and a virtual reaction as shown by A2 occurs. After the collision, for example, the weight 32 and the arm 40 are returned to their original positions by the elastic force of the elastic member 46.

またコントローラ10の後端部と把持部20との間に設けられ、振動を発生する発生機構60は、トランスデューサー62(振動デバイス)を有する。具体的には基部12に対して板状部材64が取り付けられ、この板状部材64に対してトランスデューサー62が取り付けられている。トランスデューサー62は、音信号を変換するものであり、ハイパワーのサブウーハーに相当するものである。例えば図1の処理部100(制御部117)が音ファイルの再生処理を行うと、それによる音信号がトランスデューサー62に入力される。そして例えば音信号の低域成分に基づいて振動が発生する。なおトランスデューサー62の代わりの振動デバイスとして、振動モータを設けてもよい。振動モータは、例えば、偏芯した錘を回転させることで振動を発生する。具体的には駆動軸(ローター軸)の両端に偏心した錘を取り付けてモータ自体が揺れるようにする。   A generation mechanism 60 that is provided between the rear end of the controller 10 and the grip 20 and generates vibration includes a transducer 62 (vibration device). Specifically, a plate member 64 is attached to the base portion 12, and a transducer 62 is attached to the plate member 64. The transducer 62 converts a sound signal and corresponds to a high-power subwoofer. For example, when the processing unit 100 (control unit 117) in FIG. 1 performs a sound file reproduction process, a sound signal is input to the transducer 62. For example, vibration is generated based on a low frequency component of the sound signal. A vibration motor may be provided as a vibration device instead of the transducer 62. For example, the vibration motor generates vibration by rotating an eccentric weight. Specifically, eccentric weights are attached to both ends of the drive shaft (rotor shaft) so that the motor itself swings.

またコントローラ10にはトラッキング処理用のコントローラ70が取り付けられている。このコントローラ70は図2(A)、図3(A)においてユーザUSが手に所持しているコントローラ80と同じタイプのコントローラである。図2(A)、図2(A)のトラッキング手法の場合には、コントローラ70に対して受光素子が設けられており、この受光素子を用いたトラッキング処理により、コントローラ10(70)の位置情報や姿勢情報が検出される。図3(A)、図3(B)のトラッキング手法の場合には、コントローラ70に対して発光素子が設けられており、この発光素子を用いたトラッキング処理により、コントローラ10(70)の位置情報や姿勢情報が検出される。   A controller 70 for tracking processing is attached to the controller 10. The controller 70 is a controller of the same type as the controller 80 held by the user US in FIGS. 2 (A) and 3 (A). In the tracking method of FIGS. 2A and 2A, a light receiving element is provided for the controller 70, and the position information of the controller 10 (70) is obtained by tracking processing using the light receiving element. And posture information are detected. In the tracking method of FIGS. 3A and 3B, a light emitting element is provided for the controller 70, and the position information of the controller 10 (70) is obtained by tracking processing using the light emitting element. And posture information are detected.

4.本実施形態の手法
次に本実施形態の手法について説明する。なお、以下では、剣を用いた対戦ゲーム(以下、剣ゲーム)に本実施形態の手法を適用した場合について主に説明する。即ち、図4〜図7で説明した剣型のコントローラ10を用いた剣ゲームへの適用例について説明する。但し本実施形態の手法が適用されるゲームはこのような剣ゲームには限定されない。例えば本実施形態の手法は、剣ゲーム以外の対戦ゲームなどの種々のゲーム(仮想体験ゲーム、RPG、アクションゲーム、競争ゲーム、スポーツゲーム、ホラー体験ゲーム、電車や飛行機等の乗り物のシミュレーションゲーム、パズルゲーム、コミュニケーションゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。
4). Next, the method of this embodiment will be described. Hereinafter, a case where the method of the present embodiment is applied to a battle game using a sword (hereinafter referred to as a sword game) will be mainly described. That is, an application example to a sword game using the sword-type controller 10 described in FIGS. 4 to 7 will be described. However, the game to which the method of the present embodiment is applied is not limited to such a sword game. For example, the method of the present embodiment is a variety of games such as a battle game other than a sword game (virtual experience game, RPG, action game, competition game, sports game, horror experience game, simulation game of vehicles such as trains and airplanes, puzzles, etc. Game, communication game, music game, etc.) and can be applied to other than games.

4.1 ゲームの説明
まず図8〜図14を用いて本実施形態の手法により実現される剣ゲームについて説明する。図8に示すようにユーザUSは、視界を覆うようにHMD200を装着する。そして例えば右手で剣型のコントローラ10を持ち、左手でコントローラ80を持つ。具体的にはユーザUSは、右手で把持部20(持ち手)を持つことで、剣のようにコントローラ10を持つことになる。図4で説明した発生機構30の錘32が動く方向(A1)の反対方向が、剣型のコントローラ10の剣の刃が向く方向になる。そしてコントローラ10、80の位置情報や姿勢情報は、図2(A)〜図3(B)等で説明したトラッキング処理などにより取得される。
4.1 Description of Game First, a sword game realized by the method of this embodiment will be described with reference to FIGS. As shown in FIG. 8, the user US wears the HMD 200 so as to cover the field of view. For example, the sword-shaped controller 10 is held with the right hand and the controller 80 is held with the left hand. Specifically, the user US has the controller 10 like a sword by holding the grip 20 (hand) with the right hand. The direction opposite to the direction (A1) in which the weight 32 of the generating mechanism 30 described in FIG. 4 moves is the direction in which the blade of the sword-shaped controller 10 faces. The position information and orientation information of the controllers 10 and 80 are acquired by the tracking processing described with reference to FIGS.

図9はHMD200の表示されるゲーム画像の例である。ゲーム画像には敵キャラクタOBEや、敵キャラクタOBEが持つ剣SWE、盾SLEや、背景などのオブジェクトが表示されている。またユーザUSに対応するユーザキャラクタ(アバタ)の右の手HR、左の手HLや、右の手HRが持つ剣SWや、左の手HLが持つ盾SLなどのオブジェクトも表示されている。   FIG. 9 shows an example of a game image displayed on the HMD 200. The game image displays objects such as an enemy character OBE, a sword SWE possessed by the enemy character OBE, a shield SLE, and a background. Also displayed are objects such as the right hand HR and left hand HL of the user character (avatar) corresponding to the user US, the sword SW held by the right hand HR, and the shield SL held by the left hand HL.

例えば図8の実空間においてユーザUSが右の手で持っているコントローラ10を動かすと、その動きに連動して、図9の仮想空間での右の手HRや剣SWも動くようになる。また図8の実空間においてユーザUSが左の手で持っているコントローラ80を動かすと、その動きに連動して、図9の仮想空間での左の手HLや盾SLも動くようになる。即ち、実空間のコントローラ10は仮想空間の剣SWに対応し、実空間のコントローラ80は仮想空間の盾SLに対応することになる。   For example, when the user US moves the controller 10 held by the right hand in the real space of FIG. 8, the right hand HR and the sword SW in the virtual space of FIG. 9 also move in conjunction with the movement. When the user US moves the controller 80 held by the left hand in the real space of FIG. 8, the left hand HL and shield SL in the virtual space of FIG. 9 also move in conjunction with the movement. That is, the real space controller 10 corresponds to the virtual space sword SW, and the real space controller 80 corresponds to the virtual space shield SL.

図9は一人称視点のゲーム画像であり、実空間のユーザUSに対応する仮想空間のユーザキャラクタ(広義にはユーザ移動体)の視点での画像が表示されている。なお実際には、HMD200によりユーザUSに対して、視界の全周囲に亘って広がるVR空間の画像が表示される。   FIG. 9 is a first-person game image, in which an image from the viewpoint of a user character (user moving body in a broad sense) in a virtual space corresponding to the user US in the real space is displayed. In practice, the HMD 200 displays an image of the VR space that extends over the entire periphery of the field of view to the user US.

図10ではユーザUSは、図9の敵キャラクタOBEを剣SWで斬る操作として、剣型のコントローラ10を実際の剣のように上から下に振り下ろしている。これにより図11に示すように、仮想空間での剣SWが敵キャラクタOBEの盾SLEにヒットして、例えば火花等のエフェクトが表示される。   In FIG. 10, the user US swings down the sword-shaped controller 10 from the top to the bottom like an actual sword as an operation of cutting the enemy character OBE of FIG. 9 with the sword SW. As a result, as shown in FIG. 11, the sword SW in the virtual space hits the shield SLE of the enemy character OBE, and an effect such as a spark is displayed.

このように剣SWが盾SLE等にヒットしたと判定される場合には、図10のB1に示すように発生機構30の錘32がスイング移動して、受け部34に衝突する。例えば図4のソレノイド50(動力源、アクチュエータ)が軸部材52をA3に示すように移動することで、錘32がスイング移動して受け部34に衝突する。これにより図10のB2に示すような仮想的な反動(反力)が発生し、ユーザUSは、あたかも自身の剣が敵キャラクタOBEに実際にヒットしたかのような打感や触感を体感できる。   When it is determined that the sword SW hits the shield SLE or the like as described above, the weight 32 of the generating mechanism 30 swings and collides with the receiving portion 34 as shown by B1 in FIG. For example, when the solenoid 50 (power source, actuator) of FIG. 4 moves the shaft member 52 as indicated by A3, the weight 32 swings and collides with the receiving portion 34. As a result, a virtual reaction (reaction force) as shown in B2 of FIG. 10 occurs, and the user US can experience a hit feeling and a tactile sensation as if his / her own sword actually hit the enemy character OBE. .

この場合に本実施形態では、B2に示すヒットによる反動の発生に時間的に遅れて、B3に示すように発生機構60による振動が発生する。即ちトランスデューサー62による振動が発生する。これによりユーザUSは、剣のヒット時の大きな反動に続いて、微少な振動を手に感じることができ、仮想現実感を格段に向上できる。   In this case, in the present embodiment, the generation mechanism 60 vibrates as shown in B3 with a time delay from the occurrence of the reaction caused by the hit shown in B2. That is, vibration is generated by the transducer 62. As a result, the user US can feel a slight vibration following a large reaction at the time of a sword hit, and the virtual reality can be greatly improved.

図12ではユーザUSは更にコントローラ10を振り回して、剣による攻撃を続けており、図13に示すように仮想空間での剣SWが敵キャラクタOBEの胴体にヒットして、火花等のエフェクトが発生している。この場合にも図12のC1に示すように、発生機構30の錘32がスイング移動して受け部34に衝突することで、C2に示すような仮想的な反動(反力)が発生する。そして、この反動の発生に時間的に遅れて、C3に示すように発生機構60のトランスデューサー62による振動が発生する。そして、このような敵キャラクタOBEへの攻撃が何度か行われて、敵キャラクタOBEのヒットポイントが0になることで、図14に示すように敵キャラクタOBEを倒すことができる。   In FIG. 12, the user US further swings the controller 10 and continues the attack with the sword. As shown in FIG. 13, the sword SW in the virtual space hits the body of the enemy character OBE, and an effect such as a spark is generated. doing. Also in this case, as shown by C1 in FIG. 12, when the weight 32 of the generating mechanism 30 swings and collides with the receiving portion 34, a virtual reaction (reaction force) as shown by C2 occurs. Then, with a delay in time from the occurrence of the reaction, the transducer 62 of the generating mechanism 60 vibrates as indicated by C3. Then, when such an attack on the enemy character OBE is performed several times and the hit point of the enemy character OBE becomes 0, the enemy character OBE can be defeated as shown in FIG.

なお、図11のように盾SLEに対して剣SWがヒットした場合と、図13のように敵キャラクタOBEに対して剣SWがヒットした場合とで、発生機構30、60による反動又は振動の発生態様を異ならせることが望ましい。即ち、ヒットしたオブジェクトの種類に応じて、発生機構30、60による反動又は振動の発生態様を異ならせる。こうすることでユーザUSの仮想現実感を更に向上できるようになる。   In addition, when the sword SW hits the shield SLE as shown in FIG. 11 and when the sword SW hits the enemy character OBE as shown in FIG. It is desirable to vary the generation mode. That is, depending on the type of the hit object, the generation mode of the reaction or vibration by the generation mechanisms 30 and 60 is varied. By doing so, the virtual reality of the user US can be further improved.

4.2 反動、振動の発生
以上のような剣ゲーム等での仮想現実を実現するために、本実施形態のシミュレーションシステムは、図1に示すようにコントローラ10、情報取得部111、ゲーム処理部115、表示処理部120、制御部117を含む。またシミュレーションシステムはHMD200を含むことができる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
4.2 Generation of Reaction and Vibration In order to realize the virtual reality in the sword game as described above, the simulation system of the present embodiment includes a controller 10, an information acquisition unit 111, a game processing unit as shown in FIG. 115, a display processing unit 120, and a control unit 117. The simulation system can also include an HMD 200. Various modifications such as omitting some of these components (each unit) or adding other components are possible.

そして図4で説明したようにコントローラ10は、先端部と後端部の間の棒形状部分に、ユーザが把持する把持部20を有する。また先端部と後端部の一方の端部と把持部20との間に、反動及び振動の少なくとも一方を発生する発生機構が設けられる。図4では反動を発生する発生機構30が設けられている。   And as demonstrated in FIG. 4, the controller 10 has the holding part 20 which a user hold | grips in the rod-shaped part between a front-end | tip part and a rear-end part. A generating mechanism that generates at least one of reaction and vibration is provided between one end of the front end and the rear end and the grip 20. In FIG. 4, a generating mechanism 30 for generating a reaction is provided.

また情報取得部111は、実空間でのコントローラ10の位置情報、姿勢情報及び動き情報の少なくとも1つを取得する。例えば図2(A)〜図3(B)で説明したトラッキング処理により、コントローラ10の位置情報、姿勢情報及び動き情報の少なくとも1つを取得する。或いはコントローラ10に設けられたモーションセンサ(加速度センサ、ジャイロセンサ等)により、コントローラ10の位置情報、姿勢情報及び動き情報の少なくとも1つを取得してもよい。或いは、外部のカメラによりコントローラ10を撮影することなどにより、コントローラ10の位置情報、姿勢情報及び動き情報の少なくとも1つを取得してもよい。コントローラ10の位置情報、姿勢情報又は動き情報を取得することで、コントローラ10に対応するオブジェクトの画像を表示できるようになる。例えば図9に示すように、コントローラ10に対応するオブジェクトである剣SWの画像を表示できるようになる。またコントローラ10の位置情報、姿勢情報又は動き情報を取得することで、コントローラ10に対応するオブジェクト(剣SW等)と他のオブジェクト(敵キャラクタOBE、盾SLE又は剣SWE等)とのヒット判定が可能になる。なお情報取得部111は、コントローラ80の位置情報、姿勢情報及び動き情報の少なくとも1つを取得する。これにより、コントローラ80に対応するオブジェクト(図9の盾SL)の画像を表示したり、コントローラ80に対応するオブジェクトと他のオブジェクト(敵キャラクタOBE、盾SLE又は剣SWE等)とのヒット判定が可能になる。   The information acquisition unit 111 acquires at least one of position information, posture information, and motion information of the controller 10 in real space. For example, at least one of position information, posture information, and motion information of the controller 10 is acquired by the tracking process described with reference to FIGS. Alternatively, at least one of position information, posture information, and motion information of the controller 10 may be acquired by a motion sensor (an acceleration sensor, a gyro sensor, or the like) provided in the controller 10. Alternatively, at least one of position information, posture information, and motion information of the controller 10 may be acquired by photographing the controller 10 with an external camera. By acquiring the position information, posture information, or motion information of the controller 10, an image of an object corresponding to the controller 10 can be displayed. For example, as shown in FIG. 9, an image of a sword SW that is an object corresponding to the controller 10 can be displayed. In addition, by acquiring the position information, posture information, or movement information of the controller 10, hit determination between an object (such as a sword SW) corresponding to the controller 10 and another object (such as an enemy character OBE, shield SLE, or sword SWE) can be performed. It becomes possible. The information acquisition unit 111 acquires at least one of position information, posture information, and motion information of the controller 80. Thereby, an image of the object corresponding to the controller 80 (shield SL in FIG. 9) is displayed, or hit determination between the object corresponding to the controller 80 and another object (enemy character OBE, shield SLE, sword SWE, etc.) is performed. It becomes possible.

ゲーム処理部115はゲーム処理を行う。例えばゲームの開始処理、ゲームの進行処理、ゲームの終了処理、或いはゲーム成績の演算処理などのゲーム処理を行う。表示処理部120は、ゲーム処理の結果に基づいて、ユーザが視界を覆うように装着するHMD200(頭部装着型表示装置)の表示画像として、コントローラ10に対応するオブジェクト(剣SW等)の画像を含む画像を生成する。例えば図9、図11、図13、図14のようなゲーム画像を、HMD200の表示画像として生成する。例えば表示画像として、HMD200の表示部220に表示される立体視用の左眼用画像、右眼用画像を生成する。   The game processing unit 115 performs game processing. For example, game processing such as game start processing, game progress processing, game end processing, or game score calculation processing is performed. Based on the result of the game process, the display processing unit 120 displays an image of an object (such as a sword SW) corresponding to the controller 10 as a display image of the HMD 200 (head-mounted display device) worn by the user so as to cover the field of view. An image including is generated. For example, game images as shown in FIGS. 9, 11, 13, and 14 are generated as display images of the HMD 200. For example, a stereoscopic left eye image and right eye image displayed on the display unit 220 of the HMD 200 are generated as display images.

そして制御部117は、ユーザがプレイするゲームの状況に応じて、反動及び振動の少なくとも一方を発生する発生機構30、60を制御する。例えばゲーム状況に応じて、発生機構30、60に反動又は振動を発生させたり、ゲーム状況に応じた発生態様で、発生機構30、60に反動又は振動を発生させる。ゲーム状況は、例えばユーザのゲームプレイの状況、ゲームの進行状況、ゲームの戦闘状況、ゲームの対戦状況、ゲームでのヒット判定の状況、ゲームに登場するキャラクタ(移動体)の状況、キャラクタやユーザのステータスパラメータの状況、或いはゲームの成績の状況などであり、例えばゲームのパラメータ等で表される種々の状況である。ゲーム状況は例えばゲーム処理部115でのゲーム処理により特定される。例えばゲーム処理で使用される各種のゲームパラメータ等の情報に基づいてユーザのゲーム状況が特定される。   The control unit 117 controls the generation mechanisms 30 and 60 that generate at least one of reaction and vibration according to the situation of the game played by the user. For example, a reaction or vibration is generated in the generation mechanisms 30 and 60 according to the game situation, or a reaction or vibration is generated in the generation mechanisms 30 and 60 in a generation manner corresponding to the game situation. The game situation includes, for example, a user game play situation, a game progress situation, a game battle situation, a game battle situation, a game hit judgment situation, a character (moving body) situation in the game, a character and a user Status parameter status or game performance status, for example, various statuses represented by game parameters. The game situation is specified by, for example, game processing in the game processing unit 115. For example, the user's game situation is specified based on information such as various game parameters used in the game process.

例えば図11、図13に示すようにユーザの剣SWが敵の盾SLE、剣SWEや敵キャラクタOBEにヒットするようなゲーム状況になった場合には、発生機構30、60により反動を発生させたり、振動を発生させる。またゲーム状況に応じて、発生機構30、60での反動又は振動の発生態様を異ならせる。例えば反動又は振動の強さ、発生タイミング又は発生期間などの発生態様をゲーム状況に応じて異ならせる。例えば図11のように剣SWが敵の盾SLEにヒットするゲーム状況と、図13のように剣SWが敵キャラクタOBEにヒットするゲーム状況とで、発生機構30、60での反動又は振動の発生態様(強さ、タイミング又は期間等)を異ならせる。   For example, as shown in FIGS. 11 and 13, when a game situation occurs in which the user's sword SW hits the enemy shield SLE, the sword SWE, or the enemy character OBE, a reaction is generated by the generating mechanisms 30 and 60. Or generate vibration. In addition, depending on the game situation, the generation mode of reaction or vibration in the generation mechanisms 30 and 60 is varied. For example, the occurrence mode such as the strength of reaction or vibration, the generation timing or the generation period is varied depending on the game situation. For example, in the game situation where the sword SW hits the enemy shield SLE as shown in FIG. 11 and the game situation where the sword SW hits the enemy character OBE as shown in FIG. The generation mode (strength, timing, period, etc.) is varied.

例えば本実施形態ではユーザは視界を覆うようにHMD200を装着しており、実空間でのユーザの視界が遮断されている。このように実空間の状況が見えていないHMD200の装着状態だからこそ、剣で斬る際の反動や振動によって物体を切った感触を、コントローラ10での反動や振動の発生によりユーザは体感することが可能になる。   For example, in this embodiment, the user wears the HMD 200 so as to cover the field of view, and the user's field of view in real space is blocked. Because the HMD 200 is in a state where the real space situation is not visible in this way, the user can feel the feeling of cutting the object due to the reaction and vibration when cutting with the sword by the reaction and vibration generated by the controller 10. become.

ここで、ゲーム状況に応じてコントローラ10に反動又は振動を発生させるとは、仮想空間内のオブジェクト(敵等)と、コントローラ10に対応する剣SW等のオブジェクトとの仮想空間内での位置に基づき判定されるヒット判定処理の結果に応じて、反動又は振動を発生させることなどである。この場合に図10、図12で説明したように、発生機構30は、コントローラ10(剣)の動作方向に対して反作用の方向に反動等を発生させる。例えば図10、図12では、ユーザはコントローラ10を下側方向に振り下ろしており、この場合にはB2、C2に示すようにヒット時の反作用の方向である上側に方向に反動等を発生させる。こうすることで、剣で斬る際の反動や振動によって物体を切った感触をユーザに体感させることが可能になる。   Here, the reaction or vibration of the controller 10 depending on the game situation means that the object (enemy etc.) in the virtual space and the object such as the sword SW corresponding to the controller 10 are in the virtual space. For example, reaction or vibration is generated in accordance with the result of the hit determination process determined based on the result. In this case, as described with reference to FIGS. 10 and 12, the generation mechanism 30 generates a reaction or the like in the reaction direction with respect to the operation direction of the controller 10 (sword). For example, in FIGS. 10 and 12, the user swings down the controller 10 in the downward direction, and in this case, as shown in B2 and C2, a reaction or the like is generated in the upward direction that is the direction of the reaction at the time of hit. . By doing so, it becomes possible for the user to experience the feeling of cutting the object due to the reaction and vibration when cutting with the sword.

また図1の制御部117は、把持部20を回転中心としてコントローラ10を回転させるように、発生機構30を制御する。例えば図10、図12では、仮想空間で剣SWが他のオブジェクトにヒットしたことの反動として、把持部20を回転中心RCとしてコントローラ10を回転させるように、制御部117が発生機構30を制御する。例えば制御部117が図4のソレノイド50(動力源)を制御して、把持部20を回転中心RCとして、コントローラ10をB2、C2の方向に回転させるような反動(反力)を発生させる。こうすることで、あたかも剣SWが他のオブジェクトにヒットし、そのヒットの反動で逆方向に剣SWが押し返されたかのような仮想現実感をユーザに与えることが可能になる。   Further, the control unit 117 in FIG. 1 controls the generating mechanism 30 so as to rotate the controller 10 with the gripping unit 20 as a rotation center. For example, in FIGS. 10 and 12, the control unit 117 controls the generating mechanism 30 so that the controller 10 is rotated about the gripping unit 20 as the rotation center RC as a reaction when the sword SW hits another object in the virtual space. To do. For example, the control unit 117 controls the solenoid 50 (power source) in FIG. 4 to generate a reaction (reaction force) that rotates the controller 10 in the directions B2 and C2 with the gripping unit 20 as the rotation center RC. By doing so, it becomes possible to give the user a virtual reality as if the sword SW hit another object and the sword SW was pushed back in the opposite direction by the reaction of the hit.

なお図10、図12において、コントローラ10の後端部と把持部20の間に設けられた発生機構60を用いて上記と同様の回転を生じさせる場合には、図10、図12のB4、C4に示す方向の反動(反力)を、発生機構60に発生させればよい。これにより、把持部20を回転中心RCとして、コントローラ10をB4、C4の方向に回転させることが可能になる。こうすることによっても、あたかも剣SWが他のオブジェクトにヒットし、そのヒットの反動で逆方向に剣SWが押し返されたかのような仮想現実感をユーザに与えることができる。即ち、反動等の発生機構60が、コントローラ10の把持部20よりも後端部側にある場合には、反動等の作用方向を、B4、C4のように、B2、C2とは逆の方向に設定する。そして先端部側の刃部分においてヒットの反作用方向に反動(衝撃)が生じているかのような錯覚を、ユーザに与える。   10 and 12, when the same rotation as described above is caused by using the generating mechanism 60 provided between the rear end portion of the controller 10 and the gripping portion 20, B4 in FIGS. The generating mechanism 60 may generate a reaction (reaction force) in the direction indicated by C4. As a result, the controller 10 can be rotated in the directions of B4 and C4 with the grip 20 as the rotation center RC. By doing so, it is possible to give the user a virtual reality as if the sword SW hit another object and the sword SW is pushed back in the reverse direction by the reaction of the hit. That is, when the reaction generating mechanism 60 is located on the rear end side of the grip portion 20 of the controller 10, the direction of action of the reaction such as B4 and C4 is opposite to B2 and C2. Set to. Then, the user is given the illusion that a reaction (impact) occurs in the reaction direction of the hit in the blade portion on the tip side.

また本実施形態では、コントローラ10は剣型のコントローラであり、発生機構30は、剣型のコントローラ10の刃部分に設けられている。例えば図4において、発生機構30は、コントローラ10が模している剣の刃部分(剣の刃に対応する部分)に設けられており、把持部20よりも先端部に近い場所に設けられている。このようにすれば、仮想空間において剣SWの刃部分が敵キャラクタOBE、盾SLEなどの他のオブジェクトにヒットした場合にも、コントローラ10においても剣の刃に対応する部分において反動が発生するようになる。従って、あたかも本物の剣で物体を斬ったかのような仮想現実感をユーザに与えることが可能になる。   In the present embodiment, the controller 10 is a sword-type controller, and the generation mechanism 30 is provided on the blade portion of the sword-type controller 10. For example, in FIG. 4, the generation mechanism 30 is provided on the blade portion of the sword imitated by the controller 10 (the portion corresponding to the blade of the sword), and is provided at a location closer to the tip than the grip portion 20. Yes. In this way, even when the blade portion of the sword SW hits another object such as the enemy character OBE, shield SLE or the like in the virtual space, the controller 10 causes a reaction at the portion corresponding to the blade of the sword. become. Therefore, it is possible to give the user a virtual reality feeling as if the object was cut with a real sword.

また図1の情報取得部111は、実空間でのユーザの位置情報、姿勢情報及び動き情報の少なくとも1つを取得する。例えば図2(A)〜図3(B)で説明したような受光素子や発光素子などを用いて、実空間でのユーザの位置情報、姿勢情報又は動き情報を取得する。或いは、コントローラ10に設けられたり、ユーザに取り付けられたモーションセンサ(加速度センサ、ジャイロセンサ)などを用いて、実空間でのユーザの位置情報、姿勢情報又は動き情報を取得してもよい。そして制御部117は、ユーザの位置情報、姿勢情報及び動き情報の少なくとも1つに基づいて、ゲーム状況を判断して、発生機構30、60を制御する。ここで、ゲーム状況に応じて反動又は振動を発生するとは、コントローラ10に対応する仮想空間での剣SWが他のオブジェクトにヒットしていなくても、ゲーム状況に応じて反動又は振動が発生するような場合も含んでいる。   Also, the information acquisition unit 111 in FIG. 1 acquires at least one of user position information, posture information, and motion information in real space. For example, the user's position information, posture information, or motion information in real space is acquired using a light receiving element, a light emitting element, or the like as described with reference to FIGS. Alternatively, the position information, posture information, or motion information of the user in real space may be acquired using a motion sensor (acceleration sensor, gyro sensor) provided in the controller 10 or attached to the user. Then, the control unit 117 determines the game situation based on at least one of the user position information, posture information, and motion information, and controls the generation mechanisms 30 and 60. Here, generating reaction or vibration according to the game situation means that reaction or vibration occurs according to the game situation even if the sword SW in the virtual space corresponding to the controller 10 does not hit another object. Such cases are also included.

例えばコントローラ10(剣インターフェース)に、センサ機能(位置検出機能や、加速度、角速度などの動き検出機能を含む)を搭載し、コントローラ10の位置情報、姿勢情報又は動き情報を検出可能にする。またモーションセンサや外部装置によるユーザのモニター処理により、ユーザの位置情報、姿勢情報又は動き情報も検出可能にする。そして検出された位置情報、姿勢情報又は動き情報と、ゲーム状況に応じて、反動又は振動を発生させる。例えば仮想空間においてユーザの剣SWと他のオブジェクトがヒットしていない場合にも、コントローラ10(剣)を振る動作に応じて、反動又は振動を発生させる。こうすることで、HMD200を用いたシミュレーションシステムにおいて、これまでになく、仮想現実感の向上に効果的なユーザインターフェースを実現できる。   For example, a sensor function (including a position detection function and a motion detection function such as acceleration and angular velocity) is mounted on the controller 10 (sword interface) so that position information, posture information, or motion information of the controller 10 can be detected. In addition, the user's position information, posture information, or motion information can be detected by the user's monitor process using a motion sensor or an external device. Then, a reaction or vibration is generated according to the detected position information, posture information, or motion information and the game situation. For example, even when the user's sword SW and other objects are not hit in the virtual space, a reaction or vibration is generated according to the motion of shaking the controller 10 (sword). By doing so, in the simulation system using the HMD 200, it is possible to realize an effective user interface for improving the virtual reality than ever before.

また制御部117は、コントローラ10に対応するオブジェクトと他のオブジェクトとのヒット判定結果に応じて、発生機構30、60を制御する。コントローラ10に対応するオブジェクトは、例えば実空間でのコントローラ10の動きに応じて仮想空間において動くオブジェクト(表示物)などである。例えばコントローラ10の位置情報、姿勢情報又は動き情報に基づいて制御される仮想空間内のオブジェクトである。例えばコントローラ10に対応するオブジェクトは、図9の剣SW、盾SLなどのオブジェクトである。或いは、コントローラ10に対応するオブジェクトは、ユーザに対応する仮想空間のユーザキャラクタ(ユーザ移動体)やユーザキャラクタの手、足又は頭などの部位であってもよい。また他のオブジェクトは、コントローラ10に対応するオブジェクトとのヒット対象となるオブジェクトである。例えば他のオブジェクトは、図9の敵キャラクタOBE、盾SLE、剣SWEなどのオブジェクトである。或いは他のオブジェクトは、背景を構成する壁、ドア、建物又は道路等や、各種アイテムなどであってもよい。   Further, the control unit 117 controls the generation mechanisms 30 and 60 according to the hit determination result between the object corresponding to the controller 10 and another object. The object corresponding to the controller 10 is, for example, an object (display object) that moves in the virtual space according to the movement of the controller 10 in the real space. For example, an object in a virtual space controlled based on position information, posture information, or motion information of the controller 10. For example, objects corresponding to the controller 10 are objects such as the sword SW and the shield SL in FIG. Alternatively, the object corresponding to the controller 10 may be a user character (user moving body) in a virtual space corresponding to the user or a part such as a hand, foot, or head of the user character. The other object is an object to be hit with an object corresponding to the controller 10. For example, the other objects are objects such as the enemy character OBE, shield SLE, and sword SWE in FIG. Alternatively, the other object may be a wall, a door, a building, a road, or the like constituting the background, or various items.

コントローラ10に対応するオブジェクトと他のオブジェクトとのヒット判定処理は、図1のヒット判定部116が行う。例えばヒット判定部116は、コントローラ10に対応するオブジェクト又は当該オブジェクトを内包するヒットボリュームと、他のオブジェクト又は当該他のオブジェクトを内応するヒットボリュームとの間の交差判定処理などにより、ヒット判定処理を実現する。なお、ヒット判定処理はこのような交差判定処理には限定されず、公知の種々の判定処理を採用できる。   The hit determination process of the object corresponding to the controller 10 and other objects is performed by the hit determination unit 116 of FIG. For example, the hit determination unit 116 performs the hit determination process by, for example, an intersection determination process between an object corresponding to the controller 10 or a hit volume that contains the object and a hit volume that internally includes another object or the other object. Realize. The hit determination process is not limited to such an intersection determination process, and various known determination processes can be employed.

制御部117は、ヒット判定部116でのヒット判定結果に基づいて、発生機構30、60を制御して、コントローラ10において反動又は振動を発生させる。例えば図11、図13に示すようにユーザキャラクタの剣SWが敵の盾SLE、敵キャラクタOBE等にヒットしたと判定された場合に、図10のB2、B3、図12のC2、C3に示すように反動又は振動を発生させる。   The control unit 117 controls the generation mechanisms 30 and 60 based on the hit determination result in the hit determination unit 116 to generate a reaction or vibration in the controller 10. For example, as shown in FIGS. 11 and 13, when it is determined that the user character's sword SW hits the enemy shield SLE, the enemy character OBE, etc., B2 and B3 in FIG. 10 and C2 and C3 in FIG. As a result, reaction or vibration is generated.

HMD200を用いたシミュレーションシステムによれば、ユーザの視界の全周囲に亘って広がるVR空間が表現されるため、ユーザの仮想現実感は大幅に向上する。しかしながら、HMD200を装着しているユーザは、HMD200により視界が覆われているため、実空間の状況を視覚的に認識することができない。このような状況下で、ユーザは、HMD200により図9のような仮想空間での画像を見ながら、コントローラ10を振るなどして動かしてゲームをプレイする。このとき、図11、図13のようにユーザキャラクタの剣SWが盾SLEや敵キャラクタOBEにヒットしたのに、ユーザが手に持つコントローラ10に何ら手応えがないと、HMD200によりせっかく実現した仮想現実感が低下してしまう事態が生じる。   According to the simulation system using the HMD 200, since the VR space that extends over the entire circumference of the user's field of view is expressed, the virtual reality of the user is greatly improved. However, the user wearing the HMD 200 cannot visually recognize the situation in the real space because the field of view is covered by the HMD 200. Under such circumstances, the user plays the game by moving the controller 10 by shaking the controller 10 while viewing the image in the virtual space as shown in FIG. At this time, as shown in FIG. 11 and FIG. 13, the virtual reality realized with the HMD 200 if the user's sword SW hits the shield SLE or the enemy character OBE but the user has no response to the controller 10 in his / her hand. A situation occurs in which the feeling is reduced.

この点、本実施形態によれば、図11、図13のようにユーザキャラクタの剣SWが盾SLEや敵キャラクタOBEにヒットした際に、図10、図12で説明したように、コントローラ10の発生機構30、60が反動又は振動を発生させる。これによりユーザは、あたかも実際の剣で敵を斬ったかのような打感、触感などの手応えを体感できる。従って、実際に剣で戦っているような仮想体験が可能になるため、ユーザの仮想現実感を大幅に向上できる。   In this regard, according to the present embodiment, when the sword SW of the user character hits the shield SLE or the enemy character OBE as shown in FIGS. 11 and 13, as described in FIGS. 10 and 12, The generating mechanisms 30 and 60 generate a reaction or vibration. As a result, the user can experience a response such as a hit feeling and a tactile sensation as if the enemy had been cut with an actual sword. Therefore, a virtual experience that is actually fighting with a sword is possible, so that the virtual reality of the user can be greatly improved.

また制御部117は、コントローラ10に対応するオブジェクトが他のオブジェクトにヒットした後、他のオブジェクトが切断されたと判定された場合と、切断されなかったと判定された場合とで、発生機構30、60での反動又は振動の発生態様を異ならせてもよい。   In addition, the control unit 117 generates the generation mechanisms 30 and 60 when it is determined that the other object is disconnected after the object corresponding to the controller 10 hits another object and when the other object is not disconnected. You may vary the generation | occurrence | production aspect of the reaction or vibration in.

例えば図13において、コントローラ10に対応するオブジェクトである剣SWが、他のオブジェクトである敵キャラクタOBEにヒットしたとする。この場合に、剣SWにより敵キャラクタOBEが切断されたか否かの判定処理を行う。例えばユーザがコントローラ10を振る速度が速かったり、振りの強さが強かった場合には、敵キャラクタOBEが切断されたと判定する。例えば剣SWが敵キャラクタOBEの鎧等を貫通して、敵キャラクタOBEの体(肉体、筋肉)の少なくとも一部が切断されたと判定する。一方、ユーザがコントローラ10を振る速度が遅かったり、振りの強さが弱かった場合には、敵キャラクタOBEが切断されなかったと判定する。例えば剣SWは敵キャラクタOBEの鎧等を貫通せず、敵キャラクタOBEの体は切断されなかったと判断する。そして、敵キャラクタOBEが切断されたと判定された場合と、切断されなかったと判定された場合とで、発生機構30、60での反動又は振動の発生態様を異ならせる。例えば切断されたと判定された場合には、切断されなかったと判定された場合に比べて、発生機構30が発生する反動を強くしたり、発生機構60が発生する振動を強くする。或いは、切断されたと判定された場合と、切断されなかったと判定された場合とで、発生機構60が発生する振動(或いは発生機構30が発生する振動)の発生態様を異ならせる。例えば切断判定時用の音声ファイルと、非切断判定時用の音声ファイルを用意する。そして切断判定時には、切断判定時用の音声ファイルの音声信号をトランスデューサー62に入力して、切断時に適した振動を発生させる。一方、非切断判定時には、非切断判定時用の音声ファイルの音声信号をトランスデューサー62に入力して、非切断時に適した振動を発生させる。例えば切断時には、敵の肉体を斬ったかのように感じることができる振動を発生する。例えば振動を強くしたり、振動期間を長くして切断の余韻が長く続くようにする。   For example, in FIG. 13, it is assumed that the sword SW that is an object corresponding to the controller 10 hits an enemy character OBE that is another object. In this case, it is determined whether or not the enemy character OBE has been cut by the sword SW. For example, when the speed at which the user swings the controller 10 is high or the strength of the swing is strong, it is determined that the enemy character OBE has been cut. For example, it is determined that the sword SW has penetrated the armor or the like of the enemy character OBE and at least a part of the body (body, muscle) of the enemy character OBE has been cut. On the other hand, if the speed at which the user swings the controller 10 is slow or the swing strength is weak, it is determined that the enemy character OBE has not been cut. For example, the sword SW does not penetrate the armor or the like of the enemy character OBE, and determines that the body of the enemy character OBE has not been cut. Then, the occurrence of reaction or vibration in the generation mechanisms 30 and 60 is made different depending on whether it is determined that the enemy character OBE has been cut or not. For example, when it is determined that it has been cut, the reaction mechanism 30 generates a stronger reaction or the generation mechanism 60 generates a stronger vibration than when it is determined that it has not been cut. Alternatively, the generation mode of the vibration generated by the generation mechanism 60 (or the vibration generated by the generation mechanism 30) is made different between the case where it is determined that it has been cut and the case where it is determined that it has not been cut. For example, a sound file for cutting determination and a sound file for non-cutting determination are prepared. At the time of cutting determination, an audio signal of the audio file for cutting determination is input to the transducer 62, and vibration suitable for cutting is generated. On the other hand, at the time of non-cutting determination, the sound signal of the sound file for non-cutting determination is input to the transducer 62 to generate vibration suitable for non-cutting. For example, at the time of cutting, a vibration that can feel as if the enemy's body was cut is generated. For example, the vibration is strengthened or the vibration period is extended so that the reverberation of the cutting lasts longer.

また制御部117は、コントローラ10の種類情報、動き情報、他のオブジェクトの種類情報、動き情報の少なくとも1つに基づいて、発生機構30、60を制御する。コントローラ10の種類情報は、例えばコントローラ10により表す物についての種類情報である。剣型のコントローラ10を例にとれば、コントローラ10に対応する剣が、大きい剣なのか、小さい剣なのか、重い剣なのか、軽い剣なのか、太い剣なのか、細い剣なのかなどの情報である。或いはコントローラ10の種類情報は、剣の攻撃力などを種別するための情報であってもよい。例えば重い剣であれば、発生機構30、60により発生する反動又は振動を大きくし、軽い剣であれば、発生機構30、60により発生する反動又は振動を小さくする。また攻撃力が高い剣であれば、発生機構30、60により発生する反動又は振動を大きくし、攻撃力が低い剣であれば、発生機構30、60により発生する反動又は振動を小さくする。またコントローラ10が、剣以外の武器型のコントローラ(斧、槍、杖又は鞭等)である場合や、バット、ラケット、クラブなどのスポーツ器具型のコントローラである場合や、ドラムや太鼓のスティックを模した楽器具型のコントローラである場合も同様であり、コントローラ10の種類情報は、武器、スポーツ器具又は楽器具などについての情報(大きさ、重さ、攻撃力又は性能等)である。   The control unit 117 controls the generation mechanisms 30 and 60 based on at least one of the type information, motion information, other object type information, and motion information of the controller 10. The type information of the controller 10 is type information about an object represented by the controller 10, for example. Taking the sword-shaped controller 10 as an example, whether the sword corresponding to the controller 10 is a large sword, a small sword, a heavy sword, a light sword, a thick sword, a thin sword, etc. Information. Alternatively, the type information of the controller 10 may be information for classifying the attack power of the sword. For example, if the sword is heavy, the reaction or vibration generated by the generation mechanisms 30 and 60 is increased. If the sword is light, the reaction or vibration generated by the generation mechanisms 30 and 60 is decreased. If the sword has high attack power, the reaction or vibration generated by the generation mechanisms 30 and 60 is increased. If the sword has low attack power, the reaction or vibration generated by the generation mechanisms 30 and 60 is reduced. If the controller 10 is a weapon-type controller other than a sword (such as an axe, spear, cane, or whip), or a sports equipment-type controller such as a bat, a racket, or a club, or a drum or drumstick The same applies to an imitated musical instrument type controller, and the type information of the controller 10 is information (size, weight, attack power, performance, etc.) on a weapon, sports equipment, or musical instrument.

またコントローラ10の動き情報は、例えばコントローラ10の動作速度、動作加速度又は動作方向についての情報である。例えばコントローラ10の動作速度が速い場合には、発生機構30、60により発生する反動又は振動を大きくし、動作速度が遅い場合には、発生機構30、60により発生する反動又は振動を小さくする。またコントローラ10の動作方向に応じて、反動又は振動の発生方向や強さを変化させる。また他のオブジェクトの種類情報は、当該オブジェクトで表される物の属性等を表す情報である。例えば他のオブジェクトの種類情報は、発生機構30、60により発生する反動又は振動の強さ、発生期間又は発生タイミングなどの発生態様を特定するための情報である。他のオブジェクトの種類情報は、例えば硬い物を表すオブジェクトなのか、或いは柔らかい物を表すオブジェクトなのかなどの情報である。一例としては、硬い物を表すオブジェクトである場合には、発生機構30、60により発生する反動又は振動を大きくしたり、発生期間を短くする。一方、柔らかい物を表すオブジェクトである場合には、発生機構30、60により発生する反動又は振動を小さくしたり、発生期間を長くする。但し本実施形態はこのような発生態様には限定されない。また他のオブジェクトの動き情報は、他のオブジェクトの動作速度、動作加速度又は動作方向についての情報である。例えば図11、図13では、他のオブジェクトである盾SLE、敵キャラクタOBEなどの動作速度、動作加速度又は動作方向などを加味して、発生機構30、60により発生する反動又は振動の発生態様を制御する。例えば剣SWと他のオブジェクトとの相対速度又は相対的な方向関係に応じて反動又は振動を制御する。   Further, the movement information of the controller 10 is information about the operation speed, the operation acceleration, or the operation direction of the controller 10, for example. For example, when the operation speed of the controller 10 is high, the reaction or vibration generated by the generation mechanisms 30 and 60 is increased, and when the operation speed is low, the reaction or vibration generated by the generation mechanisms 30 and 60 is decreased. Further, the direction or intensity of reaction or vibration is changed according to the operation direction of the controller 10. Further, the type information of other objects is information representing the attributes of the object represented by the object. For example, the other object type information is information for specifying the generation mode such as the strength, reaction period, or generation timing of the reaction or vibration generated by the generation mechanisms 30 and 60. The type information of other objects is information such as whether the object represents a hard object or an object representing a soft object. As an example, in the case of an object representing a hard object, the reaction or vibration generated by the generation mechanisms 30 and 60 is increased or the generation period is shortened. On the other hand, in the case of an object representing a soft object, the reaction or vibration generated by the generation mechanisms 30 and 60 is reduced or the generation period is lengthened. However, the present embodiment is not limited to such a generation mode. Further, the movement information of other objects is information on the movement speed, movement acceleration, or movement direction of the other objects. For example, in FIG. 11 and FIG. 13, the generation mode of the reaction or vibration generated by the generation mechanisms 30 and 60 in consideration of the movement speed, the movement acceleration, or the movement direction of the other objects such as the shield SLE and the enemy character OBE. Control. For example, the reaction or vibration is controlled in accordance with the relative speed or relative direction relationship between the sword SW and another object.

また制御部117は、発生機構30、60の動力源への出力信号を制御することで、発生機構が発生する反動及び振動の少なくとも一方を制御する。図4の例では、発生機構30の動力源であるソレノイド50への出力信号(制御信号又は電源電圧等)を制御することで、発生機構30が発生する反動等の大きさ、発生期間又は発生タイミング等の発生態様を制御する。例えばソレノイド50に供給する電源電圧に基づいて、反動の強弱を制御したり、ソレノイド50に供給する制御信号に基づいて、反動の発生期間又は発生タイミングを制御する。また発生機構60の動力源であるトランスデューサー62への出力信号(音信号又は電源電圧等)を制御することで、発生機構60が発生する振動等の大きさ、発生期間又は発生タイミング等の発生態様を制御する。例えばトランスデューサー62に供給する電源電圧に基づいて、振動の強弱を制御したり、トランスデューサー62に供給する制御信号に基づいて、振動の発生期間又は発生タイミングを制御する。なお動力源は、振動モータ等のモータであってもよい。例えば錘を受け部に衝突させるなどの手法ではなく、錘を動かしたり回転させた際の慣性力などにより反動又は振動を発生してもよい。   The control unit 117 controls at least one of reaction and vibration generated by the generation mechanism by controlling an output signal to the power source of the generation mechanisms 30 and 60. In the example of FIG. 4, by controlling an output signal (control signal or power supply voltage) to the solenoid 50 that is a power source of the generation mechanism 30, the magnitude, generation period, or occurrence of the reaction generated by the generation mechanism 30. Controls the generation mode such as timing. For example, the strength of the reaction is controlled based on the power supply voltage supplied to the solenoid 50, or the reaction occurrence period or generation timing is controlled based on the control signal supplied to the solenoid 50. In addition, by controlling the output signal (sound signal or power supply voltage, etc.) to the transducer 62 that is the power source of the generation mechanism 60, the magnitude, generation period, or generation timing of vibration generated by the generation mechanism 60 is generated. Control aspects. For example, the intensity of vibration is controlled based on the power supply voltage supplied to the transducer 62, and the generation period or generation timing of vibration is controlled based on the control signal supplied to the transducer 62. The power source may be a motor such as a vibration motor. For example, instead of a method of causing the weight to collide with the receiving portion, a reaction or vibration may be generated by an inertial force or the like when the weight is moved or rotated.

図15は本実施形態の処理例を説明するフローチャートである。図15に示すように、まずユーザの位置情報、姿勢情報又は動き情報等を取得する(ステップS1)。例えば図2(A)〜図3(B)で説明したトラッキング処理や、モーションセンサなどのセンサを用いた処理により、ユーザの位置情報、姿勢情報又は動き情報等を特定して取得する。次に、ユーザの位置情報、姿勢情報又は動き情報等に基づいて、ゲーム状況を判断する(ステップS2)。例えばユーザのゲームプレイの状況、ゲームの進行状況、ゲームの戦闘状況、ゲームの対戦状況、ゲームでのヒット判定の状況、ゲームに登場するキャラクタの状況、キャラクタやユーザのステータスパラメータの状況、或いはゲームの成績の状況などを判断する。そして、ゲーム状況に応じて発生機構30、60を制御する(ステップS3)。例えばゲーム状況に応じて、発生機構30、60が発生する反動又は振動の強さ、発生期間又は発生タイミング等の発生態様を制御する。   FIG. 15 is a flowchart for explaining a processing example of this embodiment. As shown in FIG. 15, first, position information, posture information, motion information, etc. of the user are acquired (step S1). For example, the user's position information, posture information, motion information, or the like is specified and acquired by the tracking process described with reference to FIGS. 2A to 3B or a process using a sensor such as a motion sensor. Next, the game situation is determined based on the user's position information, posture information, movement information, or the like (step S2). For example, the user's game play status, game progress status, game battle status, game battle status, game hit determination status, character status appearing in the game, character or user status parameter status, or game Judging the status of the grades. Then, the generation mechanisms 30 and 60 are controlled according to the game situation (step S3). For example, the generation mode such as the strength of the reaction or vibration generated by the generation mechanisms 30 and 60, the generation period, or the generation timing is controlled according to the game situation.

図16は本実施形態の詳細な処理例を説明するフローチャートである。図16に示すように、まずユーザの位置情報、姿勢情報又は動き情報等を取得する(ステップS11)。次に、ユーザの位置情報、姿勢情報又は動き情報等に基づいて、ユーザキャラクタの剣、部位等のオブジェクトと、敵キャラクタ、盾等の他のオブジェクトとのヒット判定処理を行う(ステップS12)。即ち、図11、図13に示すように剣と他のオブジェクトのヒット(衝突)が発生したか否かを判定する。そしてヒットが発生した場合には、コントローラの種類情報、動き情報、他のオブジェクトの種類情報、動き情報等に基づいて、発生機構を制御する(ステップS13、S14)。例えば発生機構の動力源(ソレノイド、トランスデューサー又はモータ等)への出力信号を制御することで、発生機構の反動又は振動の発生態様等を制御する。   FIG. 16 is a flowchart for explaining a detailed processing example of this embodiment. As shown in FIG. 16, first, position information, posture information, motion information, and the like of the user are acquired (step S11). Next, based on the user's position information, posture information, movement information, or the like, hit determination processing is performed between the user character's object such as a sword or part and another object such as an enemy character or shield (step S12). That is, as shown in FIGS. 11 and 13, it is determined whether or not a hit (collision) between the sword and another object has occurred. When a hit occurs, the generation mechanism is controlled based on controller type information, motion information, other object type information, motion information, and the like (steps S13 and S14). For example, by controlling the output signal to the power source (solenoid, transducer, motor, etc.) of the generating mechanism, the reaction mechanism of the generating mechanism or the mode of occurrence of vibration is controlled.

また本実施形態では図17(A)に示すように、発生機構30は、錘32と、錘32の受け部34とを含み、錘32を受け部34に衝突させることで、反動を発生している。即ち発生機構30は、錘32を、動力源であるソレノイド50により移動させ、受け部34に衝突させることによって、反動(又は振動)を発生させている。このようにすれば、簡素な機構で、他のオブジェクトとのヒットによる打感等をユーザに感じさせることができる仮想的な反動の発生を実現できる。なお、発生機構30の構成は図17(A)の構成には限定されない。例えばモータを用いた回転移動などにより錘等を受け部等に打ち込むなどして、反動等の発生を実現してもよい。   In this embodiment, as shown in FIG. 17A, the generating mechanism 30 includes a weight 32 and a receiving portion 34 of the weight 32, and generates a reaction by causing the weight 32 to collide with the receiving portion 34. ing. That is, the generating mechanism 30 generates a reaction (or vibration) by moving the weight 32 by the solenoid 50 that is a power source and causing the weight 32 to collide with the receiving portion 34. In this way, it is possible to realize the occurrence of a virtual reaction that can make the user feel a hit feeling due to a hit with another object with a simple mechanism. Note that the configuration of the generating mechanism 30 is not limited to the configuration of FIG. For example, the reaction may be generated by driving a weight or the like into a receiving portion by a rotational movement using a motor.

また制御部117は、錘32のストローク距離を変化させることで、発生機構30が発生する反動及び振動の少なくとも一方を制御してもよい。例えば図17(A)では錘32のストローク距離LST(スイング移動距離)は短いが、図17(B)ではストローク距離LSTが長くなっている。ストローク距離LSTが長くなるほど、発生機構30が発生する反動又は振動の強さが強くなる。即ち、ストローク距離LSTにより反動又は振動の強弱を制御できる。例えば制御部117が、ヒット判定処理の結果(広義にはゲーム状況)に応じて、ストローク距離LSTを制御して、反動又は振動の強弱を制御する。錘32のストローク距離LSTは、ソレノイド50による軸部材52の移動距離を制御することで設定できる。例えば軸部材52のストッパー(弾性部材46等)によるアーム40の係止位置によりストローク距離LSTを設定できる。或いは、アーム40の長さの設定によりストローク距離LSTを設定してもよい。例えばアーム40の長さ又はストッパーによるアーム40の係止位置が異なる複数の発生機構を用意し、これらの複数の発生機構のいずれを使用するかを制御部117が制御することで、錘のストローク距離を変化させてもよい。   The control unit 117 may control at least one of the reaction and vibration generated by the generation mechanism 30 by changing the stroke distance of the weight 32. For example, in FIG. 17A, the stroke distance LST (swing movement distance) of the weight 32 is short, but in FIG. 17B, the stroke distance LST is long. The longer the stroke distance LST is, the stronger the reaction or vibration generated by the generating mechanism 30 is. That is, the strength of reaction or vibration can be controlled by the stroke distance LST. For example, the control unit 117 controls the stroke distance LST according to the result of the hit determination process (game situation in a broad sense) to control the strength of the reaction or vibration. The stroke distance LST of the weight 32 can be set by controlling the moving distance of the shaft member 52 by the solenoid 50. For example, the stroke distance LST can be set by the position where the arm 40 is locked by a stopper (such as the elastic member 46) of the shaft member 52. Alternatively, the stroke distance LST may be set by setting the length of the arm 40. For example, a plurality of generation mechanisms having different lengths of the arm 40 or different positions where the arm 40 is locked by a stopper are prepared, and the control unit 117 controls which of the plurality of generation mechanisms is used. The distance may be changed.

制御部117は、錘の種類及び受け部の種類の少なくとも一方を変化させる制御を行ってもよい。例えば制御部117が、ヒット判定処理の結果に応じて、錘又は受け部の種類(質量、材質等)を変化させて、反動又は振動の強弱又は質感等を調整する。   The control unit 117 may perform control to change at least one of the type of the weight and the type of the receiving unit. For example, the control unit 117 changes the type (mass, material, etc.) of the weight or the receiving part in accordance with the result of the hit determination process, and adjusts the strength of reaction or vibration, the texture, or the like.

例えば図18(A)では、複数種類の錘32A、32B、32Cを用意している。錘32A、32B、32Cは例えばその質量が互いに異なっている。或いは、反動又は振動の強弱や質感を調整するために、錘32A、32B、32Cの材質を異ならせてもよい。そして例えばヒット判定処理の結果(ゲーム状況)に応じて、錘32A、32B、32Cのいずれを使用するかを制御する。このようにすることで、ヒット判定処理の結果に応じて、反動又は振動の強弱又は質感等を調整できるようになる。   For example, in FIG. 18A, a plurality of types of weights 32A, 32B, and 32C are prepared. The weights 32A, 32B, and 32C have, for example, different masses. Alternatively, the weights 32A, 32B, and 32C may be made of different materials in order to adjust the strength or texture of the reaction or vibration. Then, for example, according to the result of the hit determination process (game situation), which of the weights 32A, 32B, and 32C is used is controlled. By doing so, it becomes possible to adjust the strength of the reaction or vibration, the texture, or the like according to the result of the hit determination process.

また図18(B)では、複数種類の受け部34A、34B、34Cを用意している。受け部34A、34B、34Cは例えばその材質が互いに異なっている。或いは、受け部34A、34B、34Cの質量等を異ならせてもよい。そして例えばヒット判定処理の結果(ゲーム状況)に応じて、受け部34A、34B、34Cのいずれを使用するかを制御する。このようにすることで、ヒット判定処理の結果に応じて、反動又は振動の強弱又は質感等を調整できるようになる。具体的には図18(B)では、円盤状部材の第1、第2、第3の領域を受け部34A、34B、34Cに設定している。そしてこの円盤状部材を、制御部117からの制御信号に基づいてE1に示すように回転することで、受け部34A、34B、34Cのいずれを使用するかを制御している。   In FIG. 18B, a plurality of types of receiving portions 34A, 34B, and 34C are prepared. The receiving portions 34A, 34B, 34C are made of, for example, different materials. Alternatively, the masses and the like of the receiving portions 34A, 34B, 34C may be varied. Then, for example, depending on the result (game situation) of the hit determination process, which of the receiving units 34A, 34B, and 34C is used is controlled. By doing so, it becomes possible to adjust the strength of the reaction or vibration, the texture, or the like according to the result of the hit determination process. Specifically, in FIG. 18B, the first, second, and third regions of the disk-shaped member are set to the receiving portions 34A, 34B, and 34C. The disc-shaped member is rotated as indicated by E1 based on a control signal from the control unit 117, thereby controlling which of the receiving units 34A, 34B, and 34C is used.

また本実施形態ではコントローラ10は、反動及び振動の少なくとも一方を発生する発生機構60(第2の発生機構)を含む。そして制御部117は、発生機構30(第1の発生機構)での反動又は振動の発生態様と、発生機構60(第2の発生機構)での反動又は振動の発生態様を異ならせる。例えば発生機構30での反動又は振動の強さ、発生期間、発生タイミング又は発生の有無等の発生態様と、発生機構60での反動又は振動の強さ、発生期間、発生タイミング又は発生の有無等の発生態様を異ならせる。例えばヒット判定処理の結果(ゲーム状況)に応じて、発生機構30の発生態様と発生機構60の発生態様を設定する。例えば発生機構30と発生機構60をどのように使い分けるかを、ヒット判定処理の結果(ゲーム状況)に応じて判断する。例えばヒット対象となる他のオブジェクトの種類(オブジェクトが表す物体の硬さ又は材質等のプロパティ)に応じて、発生機構30、60のいずれを使用するのかを判断する。   In the present embodiment, the controller 10 includes a generation mechanism 60 (second generation mechanism) that generates at least one of reaction and vibration. Then, the control unit 117 makes the reaction or vibration generation mode in the generation mechanism 30 (first generation mechanism) different from the reaction or vibration generation mode in the generation mechanism 60 (second generation mechanism). For example, the generation mode such as the strength of the reaction or vibration in the generation mechanism 30, the generation period, the generation timing or the presence / absence of occurrence, the strength of the reaction or vibration in the generation mechanism 60, the generation period, the generation timing or the presence / absence of the generation, etc. The generation mode of is different. For example, the generation mode of the generation mechanism 30 and the generation mode of the generation mechanism 60 are set according to the result of the hit determination process (game situation). For example, how to properly use the generation mechanism 30 and the generation mechanism 60 is determined according to the result (game situation) of the hit determination process. For example, it is determined which of the generation mechanisms 30 and 60 is used according to the type of another object to be hit (properties such as the hardness or material of the object represented by the object).

例えば図19では、例えば他のオブジェクト(敵キャラクタ等)とのヒットの発生の後、期間T1では発生機構30により強い反動を発生する。そして、期間T1よりも時間的に遅れた期間T2においては、発生機構60により弱い振動を発生する。期間T1では、発生する反動の強さは強いが、発生期間の長さは短くなっている。期間T2では、発生する振動の強さは弱いが、発生期間の長さは長くなっている。図19に示すように発生機構30での発生態様と発生機構60での発生態様を異ならせることで、ユーザが、よりリアルであると感じることができる反動又は振動の発生制御を実現できる。例えば剣で敵キャラクタ等を斬った際に、まず初めに発生機構30による強い反動による手応えをユーザは感じることができる。その後、その反動の余韻のような弱い振動が発生機構60により発生して、斬った後のユーザの手に伝わるようになる。従って、あたかも本物の剣で敵キャラクタを斬ったかのような仮想現実感をユーザに与えることが可能になる。   For example, in FIG. 19, for example, after a hit with another object (such as an enemy character) occurs, a strong reaction is generated by the generation mechanism 30 in the period T1. In a period T2 that is later in time than the period T1, a weak vibration is generated by the generation mechanism 60. In the period T1, the strength of the generated recoil is strong, but the length of the generation period is short. In the period T2, the intensity of the generated vibration is weak, but the length of the generation period is long. As shown in FIG. 19, by making the generation mode in the generation mechanism 30 different from the generation mode in the generation mechanism 60, it is possible to realize the reaction control or vibration generation control that allows the user to feel more realistic. For example, when an enemy character or the like is cut with a sword, the user can first feel a response due to a strong reaction by the generation mechanism 30. Thereafter, a weak vibration such as a reverberation of the reaction is generated by the generating mechanism 60 and is transmitted to the user's hand after cutting. Therefore, it is possible to give the user a virtual reality as if the enemy character was cut with a real sword.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(ゲーム状況、動力源、ユーザ移動体等)と共に記載された用語(ヒット判定処理の結果、ソレノイド・トランスデューサー・モータ、ユーザキャラクタ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またコントローラの構成、構造、発生機構の構成、構造、位置情報の取得処理、仮想空間の設定処理、移動体の移動処理、表示処理、ゲーム処理、発生機構の制御処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or the drawings, terms (hit determination process result, solenoid transducer motor, user, etc.) described together with different terms (game situation, power source, user moving body, etc.) having a broader meaning or the same meaning at least once. Character, etc.) can be replaced by the different terms anywhere in the specification or drawings. In addition, the controller configuration, structure, generation mechanism configuration, structure, position information acquisition processing, virtual space setting processing, moving body movement processing, display processing, game processing, generation mechanism control processing, etc. in this embodiment It is not limited to what was demonstrated, The method, process, and structure equivalent to these are also contained in the scope of the present invention. The present invention can be applied to various games. Further, the present invention can be applied to various simulation systems such as a business game device, a home game device, or a large attraction system in which a large number of users participate.

US ユーザ、HR、HL 手、SW、SWE 剣、SL、SLE 盾、
OBE 敵キャラクタ、LSTストローク距離、DR1、DR2、DR3 方向、
10 コントローラ、12 基部、20 把持部、
30 発生機構、32、32A〜32C 錘、34、34A〜34C 受け部、
40 アーム、41 ガイド部、42、44 取付具、46 弾性部材、
47 板状部材、50 ソレノイド(動力源)、52 軸部材、54 ヘッド部、
60 発生機構(第2の発生機構)、62 トランスデューサー、
64 板状部材、70、80 コントローラ、
100 処理部、102 入力処理部、110 演算処理部、111 情報取得部、
112 仮想空間設定部、113 移動体処理部、114 仮想カメラ制御部、
115 ゲーム処理部、116 ヒット判定部、117 制御部、
120 表示処理部、130 音処理部、
140 出力処理部、150 撮像部、151、152 カメラ、160 操作部、
170 記憶部、172 オブジェクト情報記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜203 受光素子、210 センサ部、
220 表示部、231〜236 発光素子、240 処理部、
280、284 ベースステーション、281、282、285、286 発光素子
US user, HR, HL hand, SW, SWE sword, SL, SLE shield,
OBE enemy character, LST stroke distance, DR1, DR2, DR3 direction,
10 controller, 12 base, 20 gripping part,
30 generating mechanism, 32, 32A-32C weight, 34, 34A-34C receiving part,
40 arms, 41 guide portions, 42, 44 fittings, 46 elastic members,
47 plate member, 50 solenoid (power source), 52 shaft member, 54 head part,
60 generating mechanism (second generating mechanism), 62 transducer,
64 plate member, 70, 80 controller,
100 processing units, 102 input processing units, 110 arithmetic processing units, 111 information acquisition units,
112 virtual space setting unit, 113 moving body processing unit, 114 virtual camera control unit,
115 game processing unit, 116 hit determination unit, 117 control unit,
120 display processing unit, 130 sound processing unit,
140 output processing unit, 150 imaging unit, 151, 152 camera, 160 operation unit,
170 storage unit, 172 object information storage unit, 178 drawing buffer,
180 Information storage medium, 192 sound output unit, 194 I / F unit,
195 portable information storage medium, 196 communication unit,
200 HMD (head-mounted display device), 201-203 light receiving element, 210 sensor unit,
220 display unit, 231 to 236 light emitting element, 240 processing unit,
280, 284 Base station, 281, 282, 285, 286 Light emitting element

Claims (15)

先端部と後端部の間の棒形状部分に、ユーザが把持する把持部を有し、前記先端部と前記後端部の一方の端部と前記把持部との間に、反動及び振動の少なくとも一方を発生する発生機構が設けられるコントローラと、
実空間での前記コントローラの位置情報、姿勢情報及び動き情報の少なくとも1つを取得する情報取得部と、
ゲーム処理を行うゲーム処理部と、
前記ゲーム処理の結果に基づいて、前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像として、前記コントローラに対応するオブジェクトの画像を含む画像を生成する表示処理部と、
前記ユーザがプレイするゲームの状況に応じて、反動及び振動の少なくとも一方を発生する前記発生機構を制御する制御部と、
を含むことを特徴とするシミュレーションシステム。
A rod-shaped portion between the front end portion and the rear end portion has a grip portion to be gripped by a user. Between the front end portion and one end portion of the rear end portion and the grip portion, reaction and vibration are generated. A controller provided with a generating mechanism for generating at least one of them;
An information acquisition unit that acquires at least one of position information, posture information, and motion information of the controller in real space;
A game processing unit for performing game processing;
A display processing unit that generates an image including an image of an object corresponding to the controller as a display image of a head-mounted display device worn by the user so as to cover the field of view based on the result of the game process;
A control unit that controls the generating mechanism that generates at least one of reaction and vibration according to the situation of the game played by the user;
The simulation system characterized by including.
請求項1において、
前記制御部は、
前記把持部を回転中心として前記コントローラを回転させるように、前記発生機構を制御することを特徴とするシミュレーションシステム。
In claim 1,
The controller is
A simulation system characterized in that the generation mechanism is controlled so that the controller is rotated with the gripper as a rotation center.
請求項1又は2において、
前記コントローラは剣型のコントローラであり、前記発生機構は、前記剣型のコントローラの刃部分に設けられていることを特徴とするシミュレーションシステム。
In claim 1 or 2,
The simulation system according to claim 1, wherein the controller is a sword-type controller, and the generation mechanism is provided on a blade portion of the sword-type controller.
請求項1乃至3のいずれかにおいて、
前記情報取得部は、
実空間での前記ユーザの位置情報、姿勢情報及び動き情報の少なくとも1つを取得し、
前記制御部は、
前記ユーザの前記位置情報、前記姿勢情報及び前記動き情報の少なくとも1つに基づいて、前記ゲーム状況を判断して、前記発生機構を制御することを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 3,
The information acquisition unit
Obtaining at least one of position information, posture information and motion information of the user in real space;
The controller is
The simulation system characterized by determining the game situation based on at least one of the position information, the posture information, and the movement information of the user, and controlling the generation mechanism.
請求項1乃至4のいずれかにおいて、
前記制御部は、
前記コントローラに対応するオブジェクトと他のオブジェクトとのヒット判定結果に応じて、前記発生機構を制御することを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 4,
The controller is
A simulation system, wherein the generation mechanism is controlled according to a hit determination result between an object corresponding to the controller and another object.
請求項5において、
前記制御部は、
前記コントローラに対応するオブジェクトが前記他のオブジェクトにヒットした後、前記他のオブジェクトが切断されたと判定された場合と、切断されなかったと判定された場合とで、前記発生機構での反動又は振動の発生態様を異ならせることを特徴とするシミュレーションシステム。
In claim 5,
The controller is
After the object corresponding to the controller hits the other object, when it is determined that the other object has been disconnected, and when it is determined that the object has not been disconnected, the reaction mechanism or vibration of the generation mechanism A simulation system characterized by different generation modes.
請求項5又は6において、
前記制御部は、
前記コントローラの種類情報、動き情報、前記他のオブジェクトの種類情報、動き情報の少なくとも1つに基づいて、前記発生機構を制御することを特徴とするシミュレーションシステム。
In claim 5 or 6,
The controller is
A simulation system, wherein the generation mechanism is controlled based on at least one of the controller type information, motion information, the other object type information, and motion information.
請求項1乃至7のいずれかにおいて、
前記制御部は、
前記発生機構の動力源への出力信号を制御することで、前記発生機構が発生する反動及び振動の少なくとも一方を制御することを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 7,
The controller is
A simulation system characterized by controlling at least one of reaction and vibration generated by the generating mechanism by controlling an output signal to a power source of the generating mechanism.
請求項1乃至8のいずれかにおいて、
前記発生機構は、錘と、前記錘の受け部とを含み、前記錘を前記受け部に衝突させることで、反動を発生することを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 8.
The generating system includes a weight and a receiving portion of the weight, and generates a reaction by causing the weight to collide with the receiving portion.
請求項9において、
前記制御部は、
前記錘のストローク距離を変化させることで、前記発生機構が発生する反動及び振動の少なくとも一方を制御することを特徴とするシミュレーションシステム。
In claim 9,
The controller is
A simulation system characterized by controlling at least one of reaction and vibration generated by the generating mechanism by changing a stroke distance of the weight.
請求項9又は10において、
前記制御部は、
前記錘の種類及び前記受け部の種類の少なくとも一方を変化させる制御を行うことを特徴とするシミュレーションシステム。
In claim 9 or 10,
The controller is
The simulation system characterized by performing control which changes at least one of the kind of said weight, and the kind of said receiving part.
請求項1乃至11のいずれかにおいて、
前記コントローラは、反動及び振動の少なくとも一方を発生する第2の発生機構を含み、
前記制御部は、
前記発生機構での反動又は振動の発生態様と、前記第2の発生機構での反動又は振動の発生態様を異ならせることを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 11,
The controller includes a second generation mechanism that generates at least one of reaction and vibration,
The controller is
A simulation system, wherein a generation mode of reaction or vibration in the generation mechanism is different from a generation mode of reaction or vibration in the second generation mechanism.
実空間でのコントローラの位置情報、姿勢情報及び動き情報の少なくとも1つを取得する情報取得部と、
ゲーム処理を行うゲーム処理部と、
前記ゲーム処理の結果に基づいて、前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像として、前記コントローラに対応するオブジェクトの画像を含む画像を生成する表示処理部と、
前記コントローラについての制御を行う制御部として、
コンピュータを機能させ、
前記コントローラは、先端部と後端部の間の棒形状部分に、ユーザが把持する把持部を有し、前記先端部と前記後端部の一方の端部と前記把持部との間に、反動及び振動の少なくとも一方を発生する発生機構が設けられ、
前記制御部は、
前記ユーザがプレイするゲームの状況に応じて、反動及び振動の少なくとも一方を発生する前記発生機構を制御することを特徴とするプログラム。
An information acquisition unit that acquires at least one of position information, posture information, and motion information of the controller in real space;
A game processing unit for performing game processing;
A display processing unit that generates an image including an image of an object corresponding to the controller as a display image of a head-mounted display device worn by the user so as to cover the field of view based on the result of the game process;
As a control unit for controlling the controller,
Make the computer work,
The controller has a grip portion gripped by a user in a rod-shaped portion between the front end portion and the rear end portion, and between the one end portion of the front end portion and the rear end portion and the grip portion, A generating mechanism for generating at least one of reaction and vibration is provided,
The controller is
A program for controlling the generating mechanism that generates at least one of reaction and vibration according to a situation of a game played by the user.
先端部と後端部の間の棒形状部分に設けられ、ユーザにより把持される把持部と、
前記先端部と前記後端部の一方の端部と前記把持部との間に設けられ、反動及び振動の少なくとも一方を発生する発生機構と、
を含み、
前記発生機構は、前記把持部を回転中心として前記コントローラを回転させるように、反動及び振動の少なくとも一方を発生することを特徴とするコントローラ。
A grip portion provided in a rod-shaped portion between the front end portion and the rear end portion and gripped by a user;
A generating mechanism that is provided between one end of the front end and the rear end and the grip, and generates at least one of reaction and vibration;
Including
The generating mechanism generates at least one of reaction and vibration so as to rotate the controller around the grip portion as a rotation center.
請求項14において、
前記発生機構は、
錘と、前記錘の受け部とを含み、前記錘を前記受け部に衝突させることで、反動を発生することを特徴とするコントローラ。
In claim 14,
The generation mechanism is
A controller comprising a weight and a receiving portion of the weight, wherein the reaction is caused by causing the weight to collide with the receiving portion.
JP2017021697A 2017-02-08 2017-02-08 Simulation system, program and controller Active JP6910809B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017021697A JP6910809B2 (en) 2017-02-08 2017-02-08 Simulation system, program and controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017021697A JP6910809B2 (en) 2017-02-08 2017-02-08 Simulation system, program and controller

Publications (2)

Publication Number Publication Date
JP2018126340A true JP2018126340A (en) 2018-08-16
JP6910809B2 JP6910809B2 (en) 2021-07-28

Family

ID=63172106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017021697A Active JP6910809B2 (en) 2017-02-08 2017-02-08 Simulation system, program and controller

Country Status (1)

Country Link
JP (1) JP6910809B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109865271A (en) * 2019-04-08 2019-06-11 洛阳师范学院 A kind of baseball VR training device
CN110384934A (en) * 2019-08-30 2019-10-29 重庆梦神科技有限公司 Device for virtual reality experience
WO2022091911A1 (en) * 2020-11-02 2022-05-05 ソニーグループ株式会社 Force sense device, control device of force sense device, and control method of force sense device
KR20230130955A (en) * 2022-03-04 2023-09-12 연세대학교 산학협력단 Tensable sound object system that can track object position through sound parallel output

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098869A (en) * 1998-09-21 2000-04-07 Sony Corp Virtual reality simulation device
JP2000308756A (en) * 1999-04-27 2000-11-07 Taito Corp Input controller of game device
JP2003080169A (en) * 2001-09-10 2003-03-18 Alps Electric Co Ltd Vibration generator
WO2016070201A1 (en) * 2014-10-30 2016-05-06 Cross Road Centers, Inc. Methods and apparatuses for haptic systems
JP2016067667A (en) * 2014-09-30 2016-05-09 アルプス電気株式会社 Game controller

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098869A (en) * 1998-09-21 2000-04-07 Sony Corp Virtual reality simulation device
JP2000308756A (en) * 1999-04-27 2000-11-07 Taito Corp Input controller of game device
JP2003080169A (en) * 2001-09-10 2003-03-18 Alps Electric Co Ltd Vibration generator
JP2016067667A (en) * 2014-09-30 2016-05-09 アルプス電気株式会社 Game controller
WO2016070201A1 (en) * 2014-10-30 2016-05-06 Cross Road Centers, Inc. Methods and apparatuses for haptic systems

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109865271A (en) * 2019-04-08 2019-06-11 洛阳师范学院 A kind of baseball VR training device
CN110384934A (en) * 2019-08-30 2019-10-29 重庆梦神科技有限公司 Device for virtual reality experience
CN110384934B (en) * 2019-08-30 2024-03-12 重庆梦神科技有限公司 Device for virtual reality experience
WO2022091911A1 (en) * 2020-11-02 2022-05-05 ソニーグループ株式会社 Force sense device, control device of force sense device, and control method of force sense device
KR20230130955A (en) * 2022-03-04 2023-09-12 연세대학교 산학협력단 Tensable sound object system that can track object position through sound parallel output
KR102610825B1 (en) * 2022-03-04 2023-12-05 연세대학교 산학협력단 Tangible sound object system that can track object position through sound parallel output

Also Published As

Publication number Publication date
JP6910809B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
JP6714791B2 (en) Simulation system and program
US20190329136A1 (en) Simulation system, processing method, and information storage medium
JP5996138B1 (en) GAME PROGRAM, METHOD, AND GAME SYSTEM
US20190217202A1 (en) Simulation system, process method, and information storage medium
JP6719308B2 (en) Simulation system and program
EP2255855A2 (en) Image generation system, image generation method, and computer program product
JP6910809B2 (en) Simulation system, program and controller
JP6957218B2 (en) Simulation system and program
JP6774260B2 (en) Simulation system
JP7071823B2 (en) Simulation system and program
JP2012181616A (en) Program, information storage medium, game device and server system
JP6425846B1 (en) PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD
JP6935218B2 (en) Simulation system and program
JP2018171320A (en) Simulation system and program
JP7030669B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
JP6771006B2 (en) Programs, methods and information processing equipment
JP6419268B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2010233752A (en) Program, information storage medium, and image generation system
JP2019020832A (en) Information processing method, device, and program for causing computer to execute the method
JP7121518B2 (en) Program, information processing device, and information processing method
JP6441517B1 (en) Program, information processing apparatus, and method
JP6298557B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6392953B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2019213764A (en) Simulation system
JP2019176934A (en) Simulation system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190125

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190222

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R150 Certificate of patent or registration of utility model

Ref document number: 6910809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250