JP2011024613A - Game device - Google Patents

Game device Download PDF

Info

Publication number
JP2011024613A
JP2011024613A JP2009170158A JP2009170158A JP2011024613A JP 2011024613 A JP2011024613 A JP 2011024613A JP 2009170158 A JP2009170158 A JP 2009170158A JP 2009170158 A JP2009170158 A JP 2009170158A JP 2011024613 A JP2011024613 A JP 2011024613A
Authority
JP
Japan
Prior art keywords
player character
control unit
operation object
input device
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009170158A
Other languages
Japanese (ja)
Other versions
JP5453006B2 (en
Inventor
Takashi Mizutani
崇 水谷
Yuji Yamada
裕司 山田
Tomoyuki Takahashi
智之 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2009170158A priority Critical patent/JP5453006B2/en
Priority to PCT/JP2010/001827 priority patent/WO2011010414A1/en
Priority to US13/382,041 priority patent/US8721444B2/en
Publication of JP2011024613A publication Critical patent/JP2011024613A/en
Application granted granted Critical
Publication of JP5453006B2 publication Critical patent/JP5453006B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game application using a new input device. <P>SOLUTION: An input acceptance unit acquires posture information relating to the input device comprising a light emitter. A manipulated object control unit controls the motion of a manipulated object in a virtual space. A non-manipulated object control unit controls the motion of a non-manipulated object in the virtual space. A search direction determining unit 210 determines a search direction of the non-manipulated object according to the position relating to the manipulated object and the posture information relating to the input device. An NPC (non-player character) determining unit 212 determines whether the non-manipulated object is present or not in the search direction. A lighting control unit 216 controls the lighting of the light emitter when the NPC determining unit 212 determines that the non-manipulated object is present. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ゲーム制御技術に関し、とくに、ユーザが入力デバイスを利用してゲームキャラクタを動作させるゲーム装置に関する。   The present invention relates to a game control technique, and more particularly, to a game apparatus in which a user operates a game character using an input device.

ゲーム装置の処理能力の向上に伴い、3次元的にモデリングされたゲームフィールド内でプレイヤーキャラクタおよびノンプレイヤーキャラクタを動作させるゲームが数多く登場している。また近年では、ゲームの入力デバイスとしてワイヤレス型のゲームコントローラが普及し、また、従来式のボタン操作による入力だけでなく、ユーザが動かすオブジェクトをカメラで撮像して、カメラ画像におけるオブジェクトの動きをゲームの入力として利用する技術も提案されている。   Along with the improvement of the processing capability of game devices, many games that allow player characters and non-player characters to move within a three-dimensionally modeled game field have appeared. In recent years, wireless game controllers have become widespread as game input devices. In addition to conventional input by button operation, an object moved by a user is imaged by a camera, and the movement of the object in the camera image is played by the game. There are also proposals for techniques to be used as input.

特開2002−140705号公報JP 2002-140705 A

入力デバイスとゲームは密接な関係をもち、新しい入力デバイスが登場すると、その入力デバイスの特徴を活かしたゲームアプリケーションが開発される。本発明者は、ユーザの多様化した要求を満足させるべく、ユーザが動かす入力デバイスに連動する新たなゲームアプリケーションを想到するに至った。   The input device and the game have a close relationship, and when a new input device appears, a game application utilizing the features of the input device is developed. The present inventor has come up with a new game application linked to an input device that is moved by the user in order to satisfy the diversified demands of the user.

そこで本発明は、ユーザによる入力デバイスの動きを、ゲームのオブジェクトの動作に反映させる技術を提供することを目的とする。   Accordingly, an object of the present invention is to provide a technique for reflecting the movement of an input device by a user in the operation of a game object.

上記課題を解決するために、本発明のある態様のゲーム装置は、発光体を有する入力デバイスの姿勢情報を取得する受付部と、仮想空間において操作オブジェクトの動作を制御する操作オブジェクト制御部と、仮想空間において非操作オブジェクトの動作を制御する非操作オブジェクト制御部と、操作オブジェクトの位置と、入力デバイスの姿勢情報から、非操作オブジェクトの探索方向を決定する探索方向決定部と、探索方向に非操作オブジェクトが存在するか判定する判定部と、判定部により非操作オブジェクトが存在することが判定されると、発光体の点灯を制御する点灯制御部とを備える。   In order to solve the above problems, a game device according to an aspect of the present invention includes a reception unit that acquires posture information of an input device having a light emitter, an operation object control unit that controls the operation of an operation object in a virtual space, A non-operation object control unit that controls the movement of the non-operation object in the virtual space; a search direction determination unit that determines a search direction of the non-operation object from the position information of the operation object and the attitude information of the input device; A determination unit that determines whether or not an operation object exists, and a lighting control unit that controls lighting of the light emitter when the determination unit determines that a non-operation object exists.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によると、ユーザによる入力デバイスの動きを、ゲームのキャラクタの動作に反映させる技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which reflects the motion of the input device by a user on operation | movement of the character of a game can be provided.

本発明の実施例にかかるゲームシステムの使用環境を示す図である。It is a figure which shows the use environment of the game system concerning the Example of this invention. 入力デバイスの外観構成を示す図である。It is a figure which shows the external appearance structure of an input device. 入力デバイスの内部構成を示す図である。It is a figure which shows the internal structure of an input device. ゲーム装置の構成を示す図である。It is a figure which shows the structure of a game device. アプリケーション処理部の構成を示す図である。It is a figure which shows the structure of an application process part. 探索レーダ使用中の表示画面例を示す図である。It is a figure which shows the example of a display screen in use of search radar. 探索制御部の構成を示す図である。It is a figure which shows the structure of a search control part. NPC判定部のノンプレイヤーキャラクタ検出機能を説明するための図である。It is a figure for demonstrating the non-player character detection function of an NPC determination part. 探索制御部の処理を示すフローチャートである。It is a flowchart which shows the process of a search control part. 捕獲具使用中の表示画面例を示す図である。It is a figure which shows the example of a display screen during trap use. ノンプレイヤーキャラクタの捕獲過程を示す図である。It is a figure which shows the capture process of a non-player character. 衝突制御部の構成を示す図である。It is a figure which shows the structure of a collision control part. 衝突制御部の処理を示すフローチャートである。It is a flowchart which shows the process of a collision control part. パチンコの表示画面例を示す図である。It is a figure which shows the example of a display screen of a pachinko.

本発明の実施例は、ゲームコントローラとして機能する入力デバイスの実空間における位置情報および/または姿勢情報を取得し、その情報をもとにゲームソフトウェアを実行可能なゲーム装置を提供する。   An embodiment of the present invention provides a game apparatus capable of acquiring position information and / or posture information in a real space of an input device functioning as a game controller and executing game software based on the information.

図1は、本発明の実施例にかかるゲームシステム1の使用環境を示す。ゲームシステム1は、ゲームソフトウェアを実行するゲーム装置10と、ゲーム装置10による処理結果を出力する表示装置12と、入力デバイス20と、入力デバイス20を撮像する撮像装置14を備える。   FIG. 1 shows a use environment of a game system 1 according to an embodiment of the present invention. The game system 1 includes a game device 10 that executes game software, a display device 12 that outputs a processing result by the game device 10, an input device 20, and an imaging device 14 that images the input device 20.

入力デバイス20は、ユーザが操作指示を行うための操作入力装置であり、ゲーム装置10は、入力デバイス20における操作指示をもとにゲームアプリケーションを処理して、ゲームアプリケーションの処理結果を示す画像信号を生成する処理装置である。   The input device 20 is an operation input device for a user to give an operation instruction, and the game apparatus 10 processes a game application based on the operation instruction in the input device 20 and an image signal indicating a processing result of the game application. Is a processing device for generating

入力デバイス20は、ユーザによる操作指示をゲーム装置10に伝送する機能をもち、本実施例ではゲーム装置10との間で無線通信可能な無線コントローラとして構成される。入力デバイス20とゲーム装置10は、Bluetooth(ブルートゥース)(登録商標)プロトコルを用いて無線接続を確立してもよい。なお入力デバイス20は、無線コントローラに限らず、ゲーム装置10とケーブルを介して接続される有線コントローラであってもよい。   The input device 20 has a function of transmitting an operation instruction from the user to the game apparatus 10 and is configured as a wireless controller capable of wireless communication with the game apparatus 10 in this embodiment. The input device 20 and the game apparatus 10 may establish a wireless connection using a Bluetooth (registered trademark) protocol. The input device 20 is not limited to the wireless controller, and may be a wired controller connected to the game apparatus 10 via a cable.

入力デバイス20はバッテリにより駆動され、ゲームを進行させる操作指示を行うための複数のボタンを有して構成される。ユーザが入力デバイス20のボタンを操作すると、その操作指示が無線によりゲーム装置10に送信される。ゲーム装置10は、入力デバイス20から操作指示を受信し、操作指示に応じてゲーム進行を制御して、ゲーム画像信号を生成する。生成されたゲーム画像信号は、表示装置12より出力される。   The input device 20 is driven by a battery and is configured to have a plurality of buttons for performing operation instructions for proceeding with the game. When the user operates the button of the input device 20, the operation instruction is transmitted to the game apparatus 10 by radio. The game apparatus 10 receives an operation instruction from the input device 20, controls the game progress in accordance with the operation instruction, and generates a game image signal. The generated game image signal is output from the display device 12.

撮像装置14は、CCD撮像素子またはCMOS撮像素子などから構成されるビデオカメラであり、実空間を所定の周期で撮像して、周期ごとのフレーム画像を生成する。たとえば、撮像装置14の撮像速度は30枚/秒として、表示装置12のフレームレートと一致させてもよい。撮像装置14は、USB(Universal Serial Bus)あるいはその他のインタフェースを介してゲーム装置10と接続する。   The imaging device 14 is a video camera composed of a CCD imaging device, a CMOS imaging device, or the like. The imaging device 14 images a real space at a predetermined cycle and generates a frame image for each cycle. For example, the imaging speed of the imaging device 14 may be 30 frames / second so as to match the frame rate of the display device 12. The imaging device 14 is connected to the game device 10 via a USB (Universal Serial Bus) or other interface.

表示装置12は画像を出力するディスプレイであって、ゲーム装置10において生成された画像信号を受けて、ゲーム画面を表示する。表示装置12は、ディスプレイおよびスピーカを有するテレビであってよく、またコンピュータディスプレイであってもよい。表示装置12は、ゲーム装置10に有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。   The display device 12 is a display that outputs an image. The display device 12 receives an image signal generated by the game device 10 and displays a game screen. The display device 12 may be a television having a display and a speaker, or may be a computer display. The display device 12 may be connected to the game device 10 by a wired cable, or may be wirelessly connected by a wireless local area network (LAN) or the like.

本実施例のゲームシステム1において、入力デバイス20は発光体を有する。ゲーム中、発光体は所定色で発光し、撮像装置14により撮像される。撮像装置14は入力デバイス20を撮像し、フレーム画像を生成してゲーム装置10に供給する。ゲーム装置10はフレーム画像を取得して、フレーム画像における発光体の画像の位置および大きさから、実空間における発光体の位置情報を導出する。ゲーム装置10は、位置情報をゲームの操作指示として取り扱い、プレイヤーキャラクタの動作を制御するなど、ゲームの処理に反映させる。本実施例のゲーム装置10は、入力デバイス20のボタンなどの操作入力だけでなく、取得した発光体画像の位置情報も用いてゲームアプリケーションを処理する機能をもつ。   In the game system 1 of the present embodiment, the input device 20 has a light emitter. During the game, the light emitter emits light in a predetermined color and is imaged by the imaging device 14. The imaging device 14 images the input device 20, generates a frame image, and supplies the frame image to the game device 10. The game apparatus 10 acquires a frame image, and derives position information of the light emitter in real space from the position and size of the image of the light emitter in the frame image. The game apparatus 10 treats the position information as a game operation instruction and reflects it in the game process such as controlling the movement of the player character. The game apparatus 10 according to the present embodiment has a function of processing a game application using not only an operation input such as a button of the input device 20 but also the positional information of the acquired light emitter image.

入力デバイス20の発光体は、複数色で発光可能に構成される。発光体は、ゲーム装置10からの発光指示により、発光色を変更できる。   The light emitter of the input device 20 is configured to emit light in a plurality of colors. The light emitter can change the light emission color in accordance with a light emission instruction from the game apparatus 10.

また入力デバイス20は加速度センサおよびジャイロセンサを有する。センサの検出値は、所定周期でゲーム装置10に送信され、ゲーム装置10は、センサの検出値を取得して、実空間における入力デバイス20の姿勢情報を取得する。ゲーム装置10は、姿勢情報をゲームの操作指示として取り扱い、ゲームの処理に反映させる。このように本実施例のゲーム装置10は、取得した入力デバイス20の姿勢情報も用いてゲームアプリケーションを処理する機能をもつ。   The input device 20 includes an acceleration sensor and a gyro sensor. The detection value of the sensor is transmitted to the game apparatus 10 at a predetermined cycle, and the game apparatus 10 acquires the detection value of the sensor and acquires the posture information of the input device 20 in the real space. The game apparatus 10 handles the posture information as a game operation instruction and reflects it in the game processing. As described above, the game apparatus 10 according to the present embodiment has a function of processing a game application using the acquired posture information of the input device 20.

図2は、入力デバイス20の外観構成を示す。図2(a)は、入力デバイス20の上面構成を示し、図2(b)は、入力デバイス20の下面構成を示す。入力デバイス20は、発光体22およびハンドル24を有する。発光体22は、その外側を光透過性を有する樹脂で球体に形成され、内側に発光ダイオードや電球などの発光素子を有する。内側の発光素子が発光すると、外側の球体全体が光る。ハンドル24の上面には、操作ボタン30、32、34、36、38が設けられ、下面には操作ボタン40が設けられる。ユーザはハンドル24の端部を手で把持した状態で、操作ボタン30、32、34、36、38を親指で操作し、操作ボタン40を人差し指で操作する。操作ボタン30、32、34、36、38は、押下式に構成され、ユーザは押下することで操作する。操作ボタン40は、アナログ量を入力できるものであってよい。   FIG. 2 shows an external configuration of the input device 20. FIG. 2A shows the top surface configuration of the input device 20, and FIG. 2B shows the bottom surface configuration of the input device 20. The input device 20 has a light emitter 22 and a handle 24. The light emitter 22 is formed into a sphere with a light-transmitting resin on the outside, and has a light emitting element such as a light emitting diode or a light bulb on the inside. When the inner light emitting element emits light, the entire outer sphere glows. Operation buttons 30, 32, 34, 36, and 38 are provided on the upper surface of the handle 24, and an operation button 40 is provided on the lower surface. The user operates the operation buttons 30, 32, 34, 36, and 38 with the thumb and the operation button 40 with the index finger while holding the end of the handle 24 by hand. The operation buttons 30, 32, 34, 36, and 38 are configured to be pressed, and the user operates by pressing them. The operation button 40 may be capable of inputting an analog amount.

ユーザは表示装置12に表示されるゲーム画面を見ながらゲームを行う。撮像装置14は、ゲームアプリケーションの実行中に発光体22を撮像する必要があるため、その撮像範囲が表示装置12と同じ方向を向くように配置されることが好ましい。一般にユーザは表示装置12の正面でゲームをプレイすることが多いため、撮像装置14は、その光軸の方向が表示装置12の正面方向と一致するように配置される。具体的に、撮像装置14は、表示装置12の近傍において、表示装置12の表示画面をユーザが視認可能な位置を撮像範囲に含むように配置されることが好ましい。これにより、撮像装置14は、入力デバイス20を撮像できる。   The user plays the game while watching the game screen displayed on the display device 12. Since the imaging device 14 needs to image the light emitter 22 during execution of the game application, the imaging device 14 is preferably arranged so that the imaging range faces the same direction as the display device 12. In general, since a user often plays a game in front of the display device 12, the imaging device 14 is arranged so that the direction of the optical axis thereof coincides with the front direction of the display device 12. Specifically, the imaging device 14 is preferably arranged in the vicinity of the display device 12 so that the imaging range includes a position where the user can visually recognize the display screen of the display device 12. Thereby, the imaging device 14 can image the input device 20.

図3は、入力デバイス20の内部構成を示す。入力デバイス20は、無線通信モジュール48、処理部50、発光部62および操作ボタン30、32、34、36、38、40を備える。無線通信モジュール48は、ゲーム装置10の無線通信モジュールとの間でデータを送受信する機能をもつ。処理部50は、入力デバイス20における所期の処理を実行する。   FIG. 3 shows the internal configuration of the input device 20. The input device 20 includes a wireless communication module 48, a processing unit 50, a light emitting unit 62, and operation buttons 30, 32, 34, 36, 38, and 40. The wireless communication module 48 has a function of transmitting / receiving data to / from the wireless communication module of the game apparatus 10. The processing unit 50 executes intended processing in the input device 20.

処理部50は、メイン制御部52、入力受付部54、3軸加速度センサ56、3軸ジャイロセンサ58および発光制御部60を有する。メイン制御部52は、無線通信モジュール48との間で必要なデータの送受を行う。   The processing unit 50 includes a main control unit 52, an input receiving unit 54, a triaxial acceleration sensor 56, a triaxial gyro sensor 58, and a light emission control unit 60. The main control unit 52 transmits and receives necessary data to and from the wireless communication module 48.

入力受付部54は、操作ボタン30、32、34、36、38、40からの入力情報を受け付け、メイン制御部52に送る。3軸加速度センサ56は、XYZの3軸方向の加速度成分を検出する。3軸ジャイロセンサ58は、XZ平面、ZY平面、YX平面における角速度を検出する。なお、ここでは、入力デバイス20の幅方向をX軸、高さ方向をY軸、長手方向をZ軸と設定する。3軸加速度センサ56および3軸ジャイロセンサ58は、入力デバイス20のハンドル24内に配置され、ハンドル24内の中心近傍に配置されることが好ましい。無線通信モジュール48は、操作ボタンからの入力情報とともに、3軸加速度センサ56による検出値情報、および3軸ジャイロセンサ58による検出値情報を、所定の周期でゲーム装置10の無線通信モジュールに送信する。この送信周期は、たとえば11.25m秒に設定される。   The input receiving unit 54 receives input information from the operation buttons 30, 32, 34, 36, 38, 40 and sends it to the main control unit 52. The triaxial acceleration sensor 56 detects acceleration components in the XYZ triaxial directions. The triaxial gyro sensor 58 detects angular velocities in the XZ plane, the ZY plane, and the YX plane. Here, the width direction of the input device 20 is set as the X axis, the height direction is set as the Y axis, and the longitudinal direction is set as the Z axis. The triaxial acceleration sensor 56 and the triaxial gyro sensor 58 are preferably disposed in the handle 24 of the input device 20 and are disposed in the vicinity of the center in the handle 24. The wireless communication module 48 transmits detection value information from the three-axis acceleration sensor 56 and detection value information from the three-axis gyro sensor 58 together with input information from the operation buttons to the wireless communication module of the game apparatus 10 at a predetermined cycle. . This transmission cycle is set to 11.25 milliseconds, for example.

発光制御部60は、発光部62の発光を制御する。発光部62は、赤色LED64a、緑色LED64b、青色LED64cを有し、複数色の発光を可能とする。発光制御部60は、赤色LED64a、緑色LED64b、青色LED64cの発光を調整して、発光部62を所望の色に発光させる。   The light emission control unit 60 controls the light emission of the light emitting unit 62. The light emitting unit 62 includes a red LED 64a, a green LED 64b, and a blue LED 64c, and enables light emission of a plurality of colors. The light emission control unit 60 adjusts the light emission of the red LED 64a, the green LED 64b, and the blue LED 64c, and causes the light emitting unit 62 to emit light in a desired color.

無線通信モジュール48はゲーム装置10から発光指示を受け取ると、メイン制御部52に供給し、メイン制御部52は、発光制御部60に発光指示を供給する。発光制御部60は、発光部62が発光指示により指定された色で発光するように、赤色LED64a、緑色LED64b、青色LED64cの発光を制御する。たとえば発光制御部60は、各LEDをPWM(パルス幅変調)制御で点灯制御してもよい。   When the wireless communication module 48 receives the light emission instruction from the game apparatus 10, the wireless communication module 48 supplies the light emission instruction to the main control unit 52, and the main control unit 52 supplies the light emission control unit 60 with the light emission instruction. The light emission control unit 60 controls the light emission of the red LED 64a, the green LED 64b, and the blue LED 64c so that the light emitting unit 62 emits light in the color specified by the light emission instruction. For example, the light emission control unit 60 may perform lighting control of each LED by PWM (pulse width modulation) control.

図4は、ゲーム装置10の構成を示す。ゲーム装置10は、フレーム画像取得部80、画像処理部82、デバイス情報導出部84、無線通信モジュール86、入力受付部88、出力部90およびアプリケーション処理部100を備える。本実施例におけるゲーム装置10の処理機能は、CPU、メモリ、メモリにロードされたプログラムなどによって実現され、ここではそれらの連携によって実現される構成を描いている。プログラムは、ゲーム装置10に内蔵されていてもよく、また記録媒体に格納された形態で外部から供給されるものであってもよい。したがってこれらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者に理解されるところである。なおハードウェアの構成上、ゲーム装置10は複数のCPUを有してもよい。   FIG. 4 shows the configuration of the game apparatus 10. The game apparatus 10 includes a frame image acquisition unit 80, an image processing unit 82, a device information deriving unit 84, a wireless communication module 86, an input receiving unit 88, an output unit 90, and an application processing unit 100. The processing function of the game apparatus 10 in the present embodiment is realized by a CPU, a memory, a program loaded in the memory, and the like, and here, a configuration realized by cooperation thereof is illustrated. The program may be built in the game apparatus 10 or may be supplied from the outside in a form stored in a recording medium. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. Note that the game apparatus 10 may have a plurality of CPUs due to the hardware configuration.

無線通信モジュール86は、入力デバイス20の無線通信モジュール48との間で無線通信を確立する。これにより入力デバイス20は、操作ボタンの状態情報、3軸加速度センサ56および3軸ジャイロセンサ58の検出値情報を、ゲーム装置10に所定の周期で送信できるようになる。   The wireless communication module 86 establishes wireless communication with the wireless communication module 48 of the input device 20. As a result, the input device 20 can transmit operation button state information, detection value information of the triaxial acceleration sensor 56 and triaxial gyro sensor 58 to the game apparatus 10 at a predetermined cycle.

無線通信モジュール86は、入力デバイス20から送信される操作ボタンの状態情報、およびセンサ検出値情報を受信し、入力受付部88に供給する。入力受付部88は、ボタン状態情報およびセンサ検出値情報を分離し、アプリケーション処理部100に引き渡す。アプリケーション処理部100は、ボタン状態情報およびセンサ検出値情報を、ゲームの操作指示として受け取る。アプリケーション処理部100は、センサ検出値情報を、入力デバイス20の姿勢情報として取り扱う。   The wireless communication module 86 receives the operation button state information and sensor detection value information transmitted from the input device 20 and supplies them to the input receiving unit 88. The input receiving unit 88 separates the button state information and the sensor detection value information and delivers them to the application processing unit 100. The application processing unit 100 receives button state information and sensor detection value information as game operation instructions. The application processing unit 100 handles sensor detection value information as posture information of the input device 20.

フレーム画像取得部80はUSBインタフェースとして構成され、撮像装置14から所定の撮像速度(たとえば30フレーム/秒)でフレーム画像を取得する。画像処理部82は、フレーム画像から発光体画像を抽出する。画像処理部82は、フレーム画像中の発光体画像の位置、および大きさを特定する。入力デバイス20の発光体22が、たとえばユーザ環境内で使われそうにない色で点灯することで、画像処理部82は、フレーム画像から高精度に発光体画像を抽出できる。画像処理部82は、フレーム画像データを所定の閾値を用いて2値化処理し、2値化された画像を生成してもよい。この2値化処理により、所定の閾値より大きい輝度を保持する画素の画素値が“1”に符号化され、所定の閾値以下の輝度を保持する画素の画素値が“0”に符号化される。この所定の閾値を超える輝度で発光体22を点灯させることで、画像処理部82は、2値化された画像から、発光体画像の位置および大きさを特定できる。たとえば画像処理部82は、フレーム画像における発光体画像の重心座標と、発光体画像の半径を特定する。   The frame image acquisition unit 80 is configured as a USB interface, and acquires a frame image from the imaging device 14 at a predetermined imaging speed (for example, 30 frames / second). The image processing unit 82 extracts a light emitter image from the frame image. The image processing unit 82 specifies the position and size of the light emitter image in the frame image. When the light emitter 22 of the input device 20 is lit in a color that is unlikely to be used in the user environment, for example, the image processing unit 82 can extract the light emitter image from the frame image with high accuracy. The image processing unit 82 may binarize the frame image data using a predetermined threshold value to generate a binarized image. As a result of this binarization processing, the pixel value of the pixel holding the luminance greater than the predetermined threshold is encoded as “1”, and the pixel value of the pixel holding the luminance equal to or lower than the predetermined threshold is encoded as “0”. The By illuminating the illuminator 22 with a luminance exceeding the predetermined threshold, the image processing unit 82 can specify the position and size of the illuminant image from the binarized image. For example, the image processing unit 82 specifies the barycentric coordinates of the illuminant image in the frame image and the radius of the illuminant image.

デバイス情報導出部84は、画像処理部82で特定された発光体画像の位置および大きさから、撮像装置14からみた入力デバイス20の位置情報を導出する。デバイス情報導出部84は、発光体画像の重心座標からカメラ座標における位置座標を導出し、また発光体画像の半径から、撮像装置14からの距離情報を導出する。この位置座標および距離情報は、入力デバイス20の位置情報を構成する。デバイス情報導出部84は、フレーム画像ごとに入力デバイス20の位置情報を導出し、アプリケーション処理部100に引き渡す。アプリケーション処理部100は、入力デバイス20の位置情報を、ゲームの操作指示として受け取る。   The device information deriving unit 84 derives position information of the input device 20 as viewed from the imaging device 14 from the position and size of the light emitter image specified by the image processing unit 82. The device information deriving unit 84 derives position coordinates in the camera coordinates from the barycentric coordinates of the light emitter image, and derives distance information from the imaging device 14 from the radius of the light emitter image. The position coordinates and distance information constitute position information of the input device 20. The device information deriving unit 84 derives the position information of the input device 20 for each frame image and passes it to the application processing unit 100. The application processing unit 100 receives the position information of the input device 20 as a game operation instruction.

アプリケーション処理部100は、入力デバイス20の位置情報および姿勢情報と、ボタン状態情報とからゲームを進行させて、ゲームアプリケーションの処理結果を示す画像信号を生成する。画像信号は出力部90から表示装置12に送られ、表示画像として出力される。   The application processing unit 100 progresses the game from the position information and posture information of the input device 20 and the button state information, and generates an image signal indicating the processing result of the game application. The image signal is sent from the output unit 90 to the display device 12 and output as a display image.

図5は、アプリケーション処理部100の構成を示す。アプリケーション処理部100は、操作指示受付部102、制御部110、パラメータ保持部150、3次元データ保持部152および画像生成部154を備える。   FIG. 5 shows a configuration of the application processing unit 100. The application processing unit 100 includes an operation instruction receiving unit 102, a control unit 110, a parameter holding unit 150, a three-dimensional data holding unit 152, and an image generation unit 154.

操作指示受付部102は、デバイス情報導出部84から入力デバイス20の位置情報を、入力受付部88から入力デバイス20の姿勢情報およびボタン状態情報を、それぞれ操作指示として受け付ける。制御部110は、操作指示受付部102が受け付けた操作指示にもとづいてゲームプログラムを実行し、ゲームを進行させる。パラメータ保持部150は、ゲームの進行に必要なパラメータを保持する。3次元データ保持部152は、ゲーム世界を構成するオブジェクトなどの3次元データを保持する。画像生成部154は、ゲーム空間内のカメラの視点位置と視線方向を設定し、3次元データをレンダリングして、制御部110により制御されるゲーム世界を表現した表示画面、すなわち操作オブジェクトの動作および非操作オブジェクトの動作に応じた表示画面を生成する。   The operation instruction receiving unit 102 receives the position information of the input device 20 from the device information deriving unit 84 and the posture information and button state information of the input device 20 from the input receiving unit 88 as operation instructions. The control unit 110 executes the game program based on the operation instruction received by the operation instruction receiving unit 102 and advances the game. The parameter holding unit 150 holds parameters necessary for the progress of the game. The three-dimensional data holding unit 152 holds three-dimensional data such as objects constituting the game world. The image generation unit 154 sets the viewpoint position and the line-of-sight direction of the camera in the game space, renders the three-dimensional data, and displays the game world controlled by the control unit 110, that is, the operation of the operation object and A display screen corresponding to the operation of the non-operation object is generated.

制御部110は、操作オブジェクト制御部112、アイテム決定部114、非操作オブジェクト制御部116、衝突制御部118、探索制御部120および表示制御部122を含む。   The control unit 110 includes an operation object control unit 112, an item determination unit 114, a non-operation object control unit 116, a collision control unit 118, a search control unit 120, and a display control unit 122.

操作オブジェクト制御部112は、操作指示受付部102で受け付けた操作指示に応じて、操作オブジェクトの動作を制御する。ここで操作オブジェクトは、ユーザが操作可能なオブジェクトであり、代表的にはプレイヤーキャラクタを含む。なお、ここでは、プレイヤーキャラクタが使用するアイテムも、操作オブジェクトに含まれる。アイテム決定部114は、ユーザからのボタン状態情報にしたがって、プレイヤーキャラクタが使用するアイテムを決定する。後述するが、プレイヤーキャラクタが利用するアイテムとして、探索レーダ、捕獲具、殴打武器、投擲武器などが用意されている。   The operation object control unit 112 controls the operation object according to the operation instruction received by the operation instruction reception unit 102. Here, the operation object is an object that can be operated by the user, and typically includes a player character. Here, items used by the player character are also included in the operation object. The item determination unit 114 determines an item used by the player character in accordance with button state information from the user. As will be described later, search radar, capture tools, strike weapons, throwing weapons, and the like are prepared as items used by the player character.

非操作オブジェクト制御部116は、非操作オブジェクトの動作を制御する。非操作オブジェクトは、ユーザが操作しないオブジェクトであり、代表的にはノンプレイヤーキャラクタを含む。   The non-operation object control unit 116 controls the operation of the non-operation object. The non-operation object is an object that is not operated by the user, and typically includes a non-player character.

実施例のゲーム装置10が実行するゲームでは、ユーザが操作するプレイヤーキャラクタが、アイテムの1つである探索レーダを用いて、3次元的にモデリングされたゲーム世界に存在する非操作オブジェクトを探索する。非操作オブジェクトを発見すると、プレイヤーキャラクタは、その非操作オブジェクトをロックオンして、追跡する。非操作オブジェクトは、プレイヤーキャラクタからの追跡をうけると、逃げるように動作制御される。プレイヤーキャラクタは、非操作オブジェクトに近づくと、殴打武器を用いて殴打したり、また捕獲具を用いて捕獲する。また、プレイヤーキャラクタは、投擲武器を用いて非操作オブジェクトにダメージを与えることもできる。   In the game executed by the game apparatus 10 of the embodiment, the player character operated by the user searches for a non-operation object existing in the game world three-dimensionally modeled using a search radar that is one of the items. . When a non-operation object is found, the player character locks on the non-operation object and tracks it. The non-operation object is controlled so as to escape when it is tracked by the player character. When the player character approaches the non-operation object, the player character strikes with a strike weapon or captures with a capture tool. The player character can also damage the non-operational object using the throwing weapon.

衝突制御部118は、ゲーム空間において、操作オブジェクトと非操作オブジェクトとの衝突判定を行う。この衝突判定は、たとえばプレイヤーキャラクタが殴打武器を用いてノンプレイヤーキャラクタを殴打する際、またプレイヤーキャラクタが捕獲具を用いてノンプレイヤーキャラクタを捕獲する際、またプレイヤーキャラクタが投擲武器をノンプレイヤーキャラクタに投げた際など、様々なゲームシーンにおいて実行される。   The collision control unit 118 performs a collision determination between the operation object and the non-operation object in the game space. This collision determination is performed, for example, when the player character strikes a non-player character using a strike weapon, when the player character captures a non-player character using a capture tool, and when the player character uses a throwing weapon as a non-player character. It is executed in various game scenes such as when thrown.

探索制御部120は、ゲーム空間において、探索方向に非操作オブジェクトが存在するか判定する。この探索処理は、プレイヤーキャラクタが探索レーダを用いて非操作オブジェクトを探索する際に実行される。表示制御部122は、プレイヤーキャラクタの移動に応じて、3次元のゲーム世界をレンダリングするためのカメラを制御し、画像生成部154に表示画面を生成させる。以下、各構成の動作の詳細を説明する。   The search control unit 120 determines whether a non-operation object exists in the search direction in the game space. This search process is executed when the player character searches for a non-operation object using the search radar. The display control unit 122 controls the camera for rendering the three-dimensional game world according to the movement of the player character, and causes the image generation unit 154 to generate a display screen. Details of the operation of each component will be described below.

ユーザが入力デバイス20の操作ボタン34を押下すると、入力受付部54が操作指示を受け付け、無線通信モジュール48が、ボタン状態情報としてゲーム装置10に送信する。ゲーム装置10において、無線通信モジュール86がボタン状態情報を受信し、入力受付部88が、アプリケーション処理部100に供給する。アプリケーション処理部100において操作指示受付部102は、操作ボタン34の押下操作を、探索処理の操作指示として受け付ける。アイテム決定部114は、操作ボタン34が押下されたことを示すボタン状態情報をもとに、探索レーダを、プレイヤーキャラクタが使用するアイテムとして決定する。   When the user presses the operation button 34 of the input device 20, the input reception unit 54 receives an operation instruction, and the wireless communication module 48 transmits it to the game apparatus 10 as button state information. In the game apparatus 10, the wireless communication module 86 receives the button state information, and the input receiving unit 88 supplies the application processing unit 100. In the application processing unit 100, the operation instruction receiving unit 102 receives a pressing operation of the operation button 34 as an operation instruction for search processing. The item determination unit 114 determines the search radar as an item used by the player character based on the button state information indicating that the operation button 34 has been pressed.

図6は、探索レーダ使用中の表示画面例を示す。表示画面には、プレイヤーキャラクタ200、探索レーダ202、ノンプレイヤーキャラクタ204および障害物206が表示されている。ここでプレイヤーキャラクタ200および探索レーダ202は、ユーザが操作可能な操作オブジェクトであり、ノンプレイヤーキャラクタ204は、ユーザが操作不能な非操作オブジェクトである。ゲーム空間において、ノンプレイヤーキャラクタ204は、非操作オブジェクト制御部116により動作される。障害物206は静止した非操作オブジェクトであり、3次元空間における位置は、3次元データ保持部152に保持されたデータにより定められている。表示制御部122は、ワールド座標で表現されるゲーム空間において、ユーザから入力される操作指示に応じたプレイヤーキャラクタ200の移動方向や移動量に応じて、仮想カメラの視線方向と視点位置を決定する。画像生成部154は、決定された視点位置に仮想カメラを配置し、決定された視線方向に仮想カメラの光軸を向けて、3次元データ保持部152に保持された3次元データをレンダリングし、操作オブジェクトの動作および非操作オブジェクトの動作に応じた表示画面を生成する。   FIG. 6 shows an example of a display screen during use of the search radar. On the display screen, a player character 200, a search radar 202, a non-player character 204, and an obstacle 206 are displayed. Here, the player character 200 and the search radar 202 are operation objects that can be operated by the user, and the non-player character 204 is a non-operation object that cannot be operated by the user. In the game space, the non-player character 204 is operated by the non-operation object control unit 116. The obstacle 206 is a stationary non-operation object, and the position in the three-dimensional space is determined by the data held in the three-dimensional data holding unit 152. The display control unit 122 determines the line-of-sight direction and viewpoint position of the virtual camera in the game space expressed in world coordinates, according to the movement direction and movement amount of the player character 200 according to the operation instruction input from the user. . The image generation unit 154 arranges the virtual camera at the determined viewpoint position, directs the optical axis of the virtual camera in the determined line-of-sight direction, renders the three-dimensional data held in the three-dimensional data holding unit 152, A display screen corresponding to the operation of the operation object and the operation of the non-operation object is generated.

図7は、探索制御部120の構成を示す。探索制御部120は、探索方向決定部210、ノンプレイヤーキャラクタ(以下、「NPC」とも呼ぶ)判定部212、ロックオン処理部214および点灯制御部216を有する。探索制御部120は、操作ボタン34が押下されていることを示すボタン状態情報が送信されている間、ノンプレイヤーキャラクタを探索する探索処理を実行する。したがって、ユーザは、操作ボタン34を押下することで探索処理を開始させ、操作ボタン34の押下を解除することで、探索処理を終了させることができる。   FIG. 7 shows the configuration of the search control unit 120. The search control unit 120 includes a search direction determination unit 210, a non-player character (hereinafter also referred to as “NPC”) determination unit 212, a lock-on processing unit 214, and a lighting control unit 216. The search control unit 120 executes a search process for searching for a non-player character while button state information indicating that the operation button 34 is pressed is being transmitted. Therefore, the user can start the search process by pressing the operation button 34, and can end the search process by releasing the press of the operation button 34.

探索方向決定部210は、操作指示受付部102から入力デバイス20の姿勢情報を取得し、ノンプレイヤーキャラクタを探索する方向を決定する。探索方向は、ゲーム空間において、プレイヤーキャラクタ200の位置および仮想カメラの視線方向を基準として、入力デバイス20の姿勢を用いて定められる。入力デバイス20の基準姿勢は、ゲームアプリケーションの実行前に予め登録されており、たとえば、入力デバイス20の長手方向を、ディスプレイに対して垂直とした姿勢を、実3次元空間における基準姿勢として登録しておく。このように入力デバイス20の基準姿勢を登録しておくことで、実空間における入力デバイス20の向きを、ゲーム空間における仮想カメラの視線方向に実質的に一致させることができ、入力デバイス20の向きと、ゲーム空間における探索方向とを合わせることが可能となる。   The search direction determination unit 210 acquires posture information of the input device 20 from the operation instruction reception unit 102 and determines a direction for searching for a non-player character. The search direction is determined using the attitude of the input device 20 in the game space with reference to the position of the player character 200 and the viewing direction of the virtual camera. The reference posture of the input device 20 is registered in advance before execution of the game application. For example, a posture in which the longitudinal direction of the input device 20 is perpendicular to the display is registered as a reference posture in the actual three-dimensional space. Keep it. By registering the reference posture of the input device 20 in this way, the direction of the input device 20 in the real space can be substantially matched with the viewing direction of the virtual camera in the game space. And the search direction in the game space can be matched.

探索方向決定部210は、3軸加速度センサ56および3軸ジャイロセンサ58の検出値情報から、入力デバイス20の姿勢を検出する。入力デバイス20の姿勢は、基準姿勢に対する変化量として検出され、実3次元空間におけるベクトルで表現される。探索方向決定部210は、検出した入力デバイス20の姿勢と、ゲーム世界の仮想3次元空間におけるカメラの視線方向から、プレイヤーキャラクタ200の位置における探索方向を決定する。具体的には、基準姿勢に対する変化量を、カメラの視線ベクトルに対する変化量として処理することで、探索方向が決定される。また、検出された入力デバイス20の姿勢は、ゲーム世界の仮想3次元空間において、ノンプレイヤーキャラクタを探索する方向としてそのまま利用されてもよい。NPC判定部212は、検出された探索方向にノンプレイヤーキャラクタが存在するか判定する。   The search direction determination unit 210 detects the attitude of the input device 20 from detection value information of the triaxial acceleration sensor 56 and the triaxial gyro sensor 58. The posture of the input device 20 is detected as a change amount with respect to the reference posture, and is represented by a vector in a real three-dimensional space. The search direction determination unit 210 determines the search direction at the position of the player character 200 from the detected attitude of the input device 20 and the viewing direction of the camera in the virtual three-dimensional space of the game world. Specifically, the search direction is determined by processing the amount of change with respect to the reference posture as the amount of change with respect to the line-of-sight vector of the camera. Further, the detected attitude of the input device 20 may be used as it is as a direction for searching for a non-player character in the virtual three-dimensional space of the game world. The NPC determination unit 212 determines whether a non-player character exists in the detected search direction.

図8は、NPC判定部212のノンプレイヤーキャラクタ検出機能を説明するための図である。図8は、図示の都合上、仮想2次元空間を示しているが、NPC判定部212は、実際には仮想3次元空間においてノンプレイヤーキャラクタを検出する。図8に示す空間において、フレーム領域220で切り出された領域で、図6に示す表示画面が形成されている。なお、図8に示す2次元空間では、矢印で示す方向が、基準姿勢により特定される基準方向である。   FIG. 8 is a diagram for explaining the non-player character detection function of the NPC determination unit 212. FIG. 8 shows a virtual two-dimensional space for convenience of illustration, but the NPC determination unit 212 actually detects a non-player character in the virtual three-dimensional space. In the space shown in FIG. 8, the display screen shown in FIG. 6 is formed in an area cut out by the frame area 220. In the two-dimensional space shown in FIG. 8, the direction indicated by the arrow is the reference direction specified by the reference posture.

図6に示す表示画面では、ノンプレイヤーキャラクタ204のみが表示されているが、図8に示す仮想空間においては、障害物206の裏側にノンプレイヤーキャラクタ208が存在し、プレイヤーキャラクタ200の背後にノンプレイヤーキャラクタ218が存在している。NPC判定部212は、プレイヤーキャラクタ200から見えるノンプレイヤーキャラクタ204だけでなく、プレイヤーキャラクタ200から見えないノンプレイヤーキャラクタ208、218も検出できる。   In the display screen shown in FIG. 6, only the non-player character 204 is displayed, but in the virtual space shown in FIG. 8, the non-player character 208 exists behind the obstacle 206 and the non-player character 200 is behind the player character 200. A player character 218 exists. The NPC determination unit 212 can detect not only the non-player character 204 visible from the player character 200 but also the non-player characters 208 and 218 that are not visible from the player character 200.

NPC判定部212は、探索方向にノンプレイヤーキャラクタが存在するか判定する。たとえば、NPC判定部212は、ゲーム空間内に存在するノンプレイヤーキャラクタを囲むボックス(バウンダリーボックス)を設定し、プレイヤーキャラクタ200の位置を始点として、探索方向を示す無限長のベクトルに、バウンダリーボックスが交わるか判定することで、ノンプレイヤーキャラクタの存在の有無を判定する。バウンダリーボックスは、ノンプレイヤーキャラクタを中心に配置する仮想球体であってよい。設定するバウンダリーボックスの大きさは、プレイヤーキャラクタ200の位置からの距離に比例して定められる。つまり、プレイヤーキャラクタ200とノンプレイヤーキャラクタとの距離が小さければ、そのノンプレイヤーキャラクタに設定されるバウンダリーボックスは小さく、距離が大きければバウンダリーボックスは大きく設定される。これにより、探索方向に、視野角のような角度をもたせることができ、ノンプレイヤーキャラクタの存在確認を効果的に実行できる。なお、NPC判定部212は、探索方向を示す無限長のベクトルとノンプレイヤーキャラクタとの距離を計算し、計算した距離が閾値内である場合に、ノンプレイヤーキャラクタの存在を判定してもよい。この閾値は、プレイヤーキャラクタ200からの距離に応じて大きく設定される。   The NPC determination unit 212 determines whether a non-player character exists in the search direction. For example, the NPC determination unit 212 sets a box (boundary box) that surrounds non-player characters existing in the game space, and uses the position of the player character 200 as a starting point as an infinite length vector indicating the search direction. The presence / absence of a non-player character is determined by determining whether the boxes intersect. The boundary box may be a virtual sphere arranged around the non-player character. The size of the boundary box to be set is determined in proportion to the distance from the position of the player character 200. That is, if the distance between the player character 200 and the non-player character is small, the boundary box set for the non-player character is small, and if the distance is large, the boundary box is set large. Thereby, an angle such as a viewing angle can be provided in the search direction, and the existence confirmation of the non-player character can be executed effectively. Note that the NPC determination unit 212 may calculate the distance between the infinite length vector indicating the search direction and the non-player character, and may determine the presence of the non-player character when the calculated distance is within the threshold. This threshold value is set to be large according to the distance from the player character 200.

またNPC判定部212は、プレイヤーキャラクタ200を頂点とし、探索方向を中心軸とする仮想円錐を設定し、この仮想円錐内にノンプレイヤーキャラクタが含まれる場合に、ノンプレイヤーキャラクタの存在を判定してもよい。   Further, the NPC determination unit 212 sets a virtual cone with the player character 200 as a vertex and the search direction as a central axis, and determines the presence of the non-player character when the non-player character is included in the virtual cone. Also good.

NPC判定部212は、ワールド座標で表現されるゲーム空間における探索方向の仰角に応じて、探索範囲を変化させてもよい。たとえば、プレイヤーキャラクタ200と同一面における探索範囲よりも、プレイヤーキャラクタ200から上向き方向を探索したときの探索範囲を広げてもよい。NPC判定部212は、入力デバイス20が水平よりも上向きにされたとき、たとえば水平時に設定するよりもバウンダリーボックスを大きく設定することで探索範囲を広げ、ノンプレイヤーキャラクタを発見しやすくしてもよい。このように、3次元仮想空間において、探索方向が水平面から角度をもつ場合に、探索範囲を水平面よりも広げることで、2次元空間にはない3次元ゲーム空間の特徴を有効活用することができる。   The NPC determination unit 212 may change the search range according to the elevation angle in the search direction in the game space expressed in world coordinates. For example, the search range when searching the upward direction from the player character 200 may be wider than the search range in the same plane as the player character 200. When the input device 20 is turned upward from the horizontal, the NPC determination unit 212 widens the search range by setting the boundary box larger than that set at the time of horizontal, for example, so that the non-player character can be easily found. Good. Thus, in the three-dimensional virtual space, when the search direction has an angle from the horizontal plane, it is possible to effectively utilize the characteristics of the three-dimensional game space that is not in the two-dimensional space by expanding the search range beyond the horizontal plane. .

NPC判定部212は、ノンプレイヤーキャラクタが存在することを検出すると、その旨を点灯制御部216に通知する。点灯制御部216は、その通知を受けると、入力デバイス20の発光体22の点灯を制御する。具体的に点灯制御部216は、発光体22の発光色を変更させる発光指示を生成し、無線通信モジュール86から入力デバイス20に送信させる。通常時、発光体22がたとえば青色で発光していれば、点灯制御部216は、青色とは異なる色での発光指示を生成する。NPC判定部212は、探索方向にノンプレイヤーキャラクタが存在する間、その旨を点灯制御部216に通知し続け、点灯制御部216は、その通知を受けている間、無線通信モジュール86から発光指示を送信させる。たとえば、発光指示により指定される発光色は、ユーザの注意を喚起する赤色とされる。なお、発光体22の画像認識精度を高めるために、NPC判定部212は、撮像装置14の撮像範囲に含まれる色とは異なる色を発光色として指示してもよい。たとえばNPC判定部212は、複数の発光色の候補から、最も画像認識精度の高い色、具体的には撮像装置14のフレーム画像に含まれない色を選択して、発光指示を生成してもよい。   When the NPC determination unit 212 detects the presence of a non-player character, the NPC determination unit 212 notifies the lighting control unit 216 to that effect. Upon receiving the notification, the lighting control unit 216 controls lighting of the light emitter 22 of the input device 20. Specifically, the lighting control unit 216 generates a light emission instruction for changing the light emission color of the light emitter 22 and transmits the light emission instruction from the wireless communication module 86 to the input device 20. In normal times, if the light emitter 22 emits light in blue, for example, the lighting control unit 216 generates a light emission instruction in a color different from blue. While the non-player character exists in the search direction, the NPC determination unit 212 continues to notify the lighting control unit 216 to that effect, and the lighting control unit 216 receives a light emission instruction from the wireless communication module 86 while receiving the notification. To send. For example, the light emission color designated by the light emission instruction is red to call the user's attention. In order to increase the image recognition accuracy of the light emitter 22, the NPC determination unit 212 may instruct a color different from the color included in the imaging range of the imaging device 14 as the emission color. For example, the NPC determination unit 212 may select a color with the highest image recognition accuracy from a plurality of light emission color candidates, specifically, a color that is not included in the frame image of the imaging device 14 and generate a light emission instruction. Good.

入力デバイス20において、無線通信モジュール48が発光指示を受信すると、メイン制御部52が、発光制御部60に供給する。発光制御部60は、発光指示で指定された発光色となるように、発光部62の発光を制御する。これにより、発光部62は、指定された色で発光する。   In the input device 20, when the wireless communication module 48 receives the light emission instruction, the main control unit 52 supplies the light emission control unit 60. The light emission control unit 60 controls the light emission of the light emitting unit 62 so that the light emission color designated by the light emission instruction is obtained. Thereby, the light emission part 62 light-emits by the designated color.

ユーザは、発光体22の色の変化を見て、ノンプレイヤーキャラクタを発見できたことを認識する。このときユーザが操作ボタン34の押下操作を解除すると、ロックオン処理部214が、探索処理の終了を判定して、発見したノンプレイヤーキャラクタをロックオンする。ここで「ロックオン」とは、プレイヤーキャラクタ200の進行方向を自動的にノンプレイヤーキャラクタに向けることであり、ノンプレイヤーキャラクタが逃げ回っても、ユーザが操作ボタン40を操作し続けていれば、プレイヤーキャラクタ200が、ロックオンしたノンプレイヤーキャラクタを追いかけることができる。なお、操作ボタン34の押下操作の解除時に、NPC判定部212が探索方向にノンプレイヤーキャラクタが存在していないことを判定していれば、ロックオン処理部214は、ノンプレイヤーキャラクタをロックオンできない。なお探索処理により、探索範囲に複数のノンプレイヤーキャラクタが存在していることが判定されている場合、ロックオン処理部214は、プレイヤーキャラクタ200から最も近い距離にいるノンプレイヤーキャラクタをロックオンしてもよい。   The user recognizes that the non-player character has been found by looking at the color change of the light emitter 22. When the user releases the pressing operation of the operation button 34 at this time, the lock-on processing unit 214 determines the end of the search process and locks on the found non-player character. Here, “lock-on” means that the player character 200 is automatically directed toward the non-player character, and if the user continues to operate the operation button 40 even if the non-player character runs away, The character 200 can follow the locked non-player character. If the NPC determination unit 212 determines that there is no non-player character in the search direction when the operation button 34 is released, the lock-on processing unit 214 cannot lock on the non-player character. . If it is determined by the search process that there are a plurality of non-player characters in the search range, the lock-on processing unit 214 locks on the non-player character closest to the player character 200. Also good.

なお、画像処理部82は、点灯制御部216から発光体22の発光指示を受け取り、発光体22の発光色を常に把握しておく。これにより、画像処理部82は、フレーム画像を2値化処理する際の、RGB画素のそれぞれに対する閾値を発光色に応じて再設定し、再設定した閾値をもとにフレーム画像を2値化処理することで、発光色が変化しても、発光体画像の位置および大きさの特定を継続して実行できる。   The image processing unit 82 receives a light emission instruction of the light emitter 22 from the lighting control unit 216, and always grasps the light emission color of the light emitter 22. Thereby, the image processing unit 82 resets the threshold value for each of the RGB pixels when binarizing the frame image according to the emission color, and binarizes the frame image based on the reset threshold value. By processing, even if the emission color changes, the position and size of the illuminant image can be specified continuously.

図9は、探索制御部120の処理を示すフローチャートである。操作指示受付部102が操作ボタン34の押下を示すボタン状態情報を受け付けると(S10)、探索制御部120が探索処理を開始する。探索方向決定部210は、仮想3次元空間のプレイヤーキャラクタ200の位置、入力デバイス20の姿勢情報、および仮想カメラの視線ベクトルから、ノンプレイヤーキャラクタの探索方向を決定する(S12)。NPC判定部212は、決定された探索方向にノンプレイヤーキャラクタが存在するか判定し(S14)、ノンプレイヤーキャラクタを検出すると(S14のY)、検出したことを点灯制御部216に通知する。このときNPC判定部212は、NPC検出フラグをONに設定し、このフラグ値を点灯制御部216に通知してもよい。なお、NPC検出フラグは、ノンプレイヤーキャラクタが検出されなければOFFに設定されている。点灯制御部216は、フラグON値を受け取ると、入力デバイス20の発光体22を点灯制御して、発光色を変化させる(S16)。ノンプレイヤーキャラクタが探索方向に検出されなければ(S14のN)、発光体22の発光色は変化しない。操作指示受付部102が、操作ボタン34の押下を示すボタン状態情報を受け付ける間(S18のN)、S12〜S16の処理は繰り返し実行される。   FIG. 9 is a flowchart showing the processing of the search control unit 120. When the operation instruction receiving unit 102 receives button state information indicating that the operation button 34 is pressed (S10), the search control unit 120 starts the search process. The search direction determination unit 210 determines the search direction of the non-player character from the position of the player character 200 in the virtual three-dimensional space, the posture information of the input device 20, and the line-of-sight vector of the virtual camera (S12). The NPC determination unit 212 determines whether or not a non-player character exists in the determined search direction (S14), and when a non-player character is detected (Y in S14), notifies the lighting control unit 216 of the detection. At this time, the NPC determination unit 212 may set the NPC detection flag to ON and notify the lighting control unit 216 of this flag value. Note that the NPC detection flag is set to OFF if no non-player character is detected. When the lighting control unit 216 receives the flag ON value, the lighting control unit 216 controls the lighting of the light emitter 22 of the input device 20 to change the emission color (S16). If a non-player character is not detected in the search direction (N in S14), the light emission color of the light emitter 22 does not change. While the operation instruction receiving unit 102 receives button state information indicating that the operation button 34 has been pressed (N in S18), the processes in S12 to S16 are repeatedly executed.

操作指示受付部102が、操作ボタン34の押下操作が解除されたことを示すボタン状態情報を受け付けると(S18のY)、ロックオン処理部214は、NPC検出フラグ値を参照する(S20)。NPC検出フラグ値がONであれば(S20のY)、探索方向に存在することが検出されたノンプレイヤーキャラクタにロックオン処理を実行する(S22)。なお、NPC検出フラグ値がOFFであれば(S20のN)、ロックオン処理は実行されない。以上で、探索制御部120の探索処理は終了する。   When the operation instruction receiving unit 102 receives button state information indicating that the pressing operation of the operation button 34 has been released (Y in S18), the lock-on processing unit 214 refers to the NPC detection flag value (S20). If the NPC detection flag value is ON (Y in S20), a lock-on process is executed for the non-player character detected to be present in the search direction (S22). If the NPC detection flag value is OFF (N in S20), the lock-on process is not executed. Above, the search process of the search control part 120 is complete | finished.

点灯制御部216は、ノンプレイヤーキャラクタを発見したときに、入力デバイス20の発光体22の発光色を変化させるが、このとき、発見したノンプレイヤーキャラクタのステータス情報に応じて、発光色を決定してもよい。   When the lighting control unit 216 finds a non-player character, the lighting control unit 216 changes the light emission color of the light emitter 22 of the input device 20. At this time, the lighting control unit 216 determines the light emission color according to the status information of the found non-player character. May be.

非操作オブジェクト制御部116は、ノンプレイヤーキャラクタのステータス情報を決定する。たとえばステータス情報として、ノンプレイヤーキャラクタが、プレイヤーキャラクタ200の存在に気づいているか否かの情報が設定される。ノンプレイヤーキャラクタがプレイヤーキャラクタ200の存在に気づいていることの条件としては、ノンプレイヤーキャラクタの視野角にプレイヤーキャラクタ200が含まれていること、且つ、ノンプレイヤーキャラクタとプレイヤーキャラクタ200との距離が所定値以下であること、である。非操作オブジェクト制御部116は、ノンプレイヤーキャラクタごとに、この条件が満足されているか否かを管理し、状態フラグ値として設定しておく。条件を満足していれば、状態フラグ値はONに設定され、満足していなければOFFに設定される。なお、プレイヤーキャラクタ200およびノンプレイヤーキャラクタは、互いに動いているため、この状態フラグ値は、所定の周期で更新される必要がある。   The non-operation object control unit 116 determines status information of the non-player character. For example, information indicating whether or not the non-player character is aware of the presence of the player character 200 is set as the status information. The non-player character is aware of the presence of the player character 200 as a condition that the player character 200 is included in the viewing angle of the non-player character and that the distance between the non-player character and the player character 200 is predetermined. Is less than or equal to the value. The non-operation object control unit 116 manages whether or not this condition is satisfied for each non-player character, and sets it as a state flag value. If the condition is satisfied, the status flag value is set to ON, and if not satisfied, it is set to OFF. Since the player character 200 and the non-player character are moving with each other, the state flag value needs to be updated at a predetermined cycle.

NPC判定部212は、探索方向にノンプレイヤーキャラクタが存在することを検出すると、そのノンプレイヤーキャラクタの状態フラグ値を取得して、点灯制御部216に通知する。点灯制御部216は、状態フラグ値に応じて、発光体22の発光色を決定する。これによりユーザは、発光体22の発光色を見ることで、発見したノンプレイヤーキャラクタが、プレイヤーキャラクタ200に気づいているか否かを認識できるため、ノンプレイヤーキャラクタの追いかけ方を決めることができる。たとえば、プレイヤーキャラクタ200に気づいているノンプレイヤーキャラクタをロックオンした後、普通に追いかけると、非操作オブジェクト制御部116が、そのノンプレイヤーキャラクタを猛ダッシュで逃げ回るように動作させる場合、ゆっくりと追いかけるようにすることで、ノンプレイヤーキャラクタを捕獲しやすくできる。   When the NPC determination unit 212 detects that a non-player character is present in the search direction, the NPC determination unit 212 acquires the state flag value of the non-player character and notifies the lighting control unit 216 of the state flag value. The lighting control unit 216 determines the light emission color of the light emitter 22 according to the state flag value. Accordingly, the user can recognize whether or not the discovered non-player character is aware of the player character 200 by looking at the light emission color of the light emitter 22, and thus can determine how to follow the non-player character. For example, if a non-player character that is aware of the player character 200 is locked on and then chased normally, the non-operation object control unit 116 slowly chases the non-player character so that the non-player character runs away with a furious dash. This makes it easier to capture non-player characters.

このとき非操作オブジェクト制御部116は、ノンプレイヤーキャラクタに設定された状態フラグ値をもとに、動作パターンを切り替えて、ノンプレイヤーキャラクタの動作を制御する。上記したように、あるノンプレイヤーキャラクタの状態フラグ値がONに設定されている場合、そのノンプレイヤーキャラクタにプレイヤーキャラクタ200が通常の速度で近づいてくることを検出すると、非操作オブジェクト制御部116が、動作パターンの切替を行い、ノンプレイヤーキャラクタを、プレイヤーキャラクタ200から高速で離れるように動作制御する。一方、この場合に、プレイヤーキャラクタ200がノンプレイヤーキャラクタに通常よりも遅い速度で近づいてくることを検出すると、非操作オブジェクト制御部116は、動作パターンを変更せずに、通常の動作パターンでノンプレイヤーキャラクタを動作制御する。   At this time, the non-operation object control unit 116 controls the movement of the non-player character by switching the movement pattern based on the state flag value set for the non-player character. As described above, when the state flag value of a certain non-player character is set to ON, the non-operation object control unit 116 detects that the player character 200 approaches the non-player character at a normal speed. The movement pattern is switched, and the non-player character is controlled to move away from the player character 200 at high speed. On the other hand, in this case, when it is detected that the player character 200 approaches the non-player character at a slower speed than usual, the non-operation object control unit 116 does not change the motion pattern and changes the non-operation object in the normal motion pattern. Control the movement of the player character.

なお、ノンプレイヤーキャラクタが、プレイヤーキャラクタ200の存在に気づいているか否かを特定するステータス情報について説明したが、NPC判定部212は、他のステータス情報をもとに、発光色を決定してもよい。たとえば、ステータス情報として、発見したノンプレイヤーキャラクタとプレイヤーキャラクタ200との距離情報を設定してもよく、また探索範囲で発見したノンプレイヤーキャラクタの数情報を設定してもよい。またNPC判定部212は、ステータス情報に応じて発光色を変化させるほか、たとえば点灯と消灯を繰り返させる点滅指示を生成してもよく、また複数色を周期的に切り替える多色切替指示を生成してもよい。   In addition, although the status information for specifying whether or not the non-player character is aware of the presence of the player character 200 has been described, the NPC determination unit 212 may determine the emission color based on other status information. Good. For example, distance information between the discovered non-player character and the player character 200 may be set as the status information, or information on the number of non-player characters found in the search range may be set. Further, the NPC determination unit 212 may generate a blinking instruction for repeatedly turning on and off, in addition to changing the emission color in accordance with the status information, or generate a multicolor switching instruction for periodically switching a plurality of colors. May be.

以上のようにノンプレイヤーキャラクタをロックオンすると、ユーザが、操作ボタン40を操作することで、プレイヤーキャラクタ200が、ロックオンしたノンプレイヤーキャラクタを追いかける。この処理は、操作オブジェクト制御部112により行われる。このとき、アイテム決定部114は、探索レーダを使用する前に使っていたアイテムを、プレイヤーキャラクタが使用するアイテムとして決定する。たとえば、探索レーダを使用する前に捕獲具を使用していれば、探索処理の終了後、捕獲具がアイテムとして決定される。   When the non-player character is locked on as described above, the user operates the operation button 40 so that the player character 200 follows the locked-on non-player character. This process is performed by the operation object control unit 112. At this time, the item determination unit 114 determines an item used before using the search radar as an item used by the player character. For example, if the capture tool is used before using the search radar, the capture tool is determined as an item after the search process is completed.

図10は、捕獲具使用中の表示画面例を示す。表示画面には、プレイヤーキャラクタ200、ノンプレイヤーキャラクタ222および捕獲アミ224が表示されている。捕獲アミ224は捕獲具の1つの態様であり、ノンプレイヤーキャラクタ222を捕獲アミ224に入れて、床や壁にアミのリング部分(アミ枠)を押しつけることで、捕獲が完了する。なお、捕獲が完了すると、そのノンプレイヤーキャラクタ222は捕獲アミ224の中で消滅する。   FIG. 10 shows an example of a display screen during use of the capture tool. On the display screen, a player character 200, a non-player character 222, and a catcher 224 are displayed. The catch catch 224 is one mode of the catch tool, and the catch is completed by putting the non-player character 222 into the catch catch 224 and pressing the ring ring portion (filled frame) against the floor or wall. When the capture is completed, the non-player character 222 disappears in the capture screen 224.

図11は、ノンプレイヤーキャラクタ222の捕獲過程を示す図である。図11(a)は、捕獲アミ224の中にノンプレイヤーキャラクタ222を入れた状態を示す。捕獲アミ224に入れた状態で所定時間放置すると、ノンプレイヤーキャラクタ222は、捕獲アミ224から逃げ出すことができる。また、ノンプレイヤーキャラクタ222が捕獲アミ224に入った状態で、ユーザが操作ボタン32を押下すると、ノンプレイヤーキャラクタ222を捕獲アミ224から放出することができる。このように、本ゲームアプリケーションでは、ユーザに様々な楽しみ方が提供される。   FIG. 11 is a diagram illustrating a capturing process of the non-player character 222. FIG. 11A shows a state in which the non-player character 222 is put in the catching net 224. FIG. If the player is left for a predetermined time in a state where it is placed in the catch catch 224, the non-player character 222 can escape from the catch catch 224. In addition, when the user presses the operation button 32 in a state where the non-player character 222 is in the capture screen 224, the non-player character 222 can be released from the capture screen 224. Thus, in this game application, various ways of enjoying are provided to the user.

図11(b)は、捕獲アミ224のリング部分を床226に押しつけた状態を示す。捕獲アミ224にノンプレイヤーキャラクタ222を入れた時点から所定時間内に捕獲アミ224のリング部分を床226に押しつけることで、捕獲が完了する。このときノンプレイヤーキャラクタ222は、捕獲アミ224内から消滅する。なお、リング部分を押しつける対象は、床226に限らず、壁など、ゲーム世界において固定されたオブジェクトであればよい。   FIG. 11B shows a state in which the ring portion of the catching trout 224 is pressed against the floor 226. The capture is completed by pressing the ring portion of the capture catch 224 against the floor 226 within a predetermined time from when the non-player character 222 is placed in the catch catch 224. At this time, the non-player character 222 disappears from the captured catch 224. The target for pressing the ring portion is not limited to the floor 226, but may be an object fixed in the game world such as a wall.

図12は、衝突制御部118の構成を示す。衝突制御部118は、衝突判定部230、衝突態様決定部232および動作決定部234を有する。衝突制御部118は、操作オブジェクトと、非操作オブジェクトとの衝突制御を実行する。衝突判定部230は、操作オブジェクトと非操作オブジェクトとの衝突判定を行い、衝突を検出すると、衝突態様決定部232が、衝突の態様を決定する。動作決定部234は、衝突態様に応じて、操作オブジェクトまたは非操作オブジェクトの少なくとも一方の動作を決定する。   FIG. 12 shows the configuration of the collision control unit 118. The collision control unit 118 includes a collision determination unit 230, a collision mode determination unit 232, and an operation determination unit 234. The collision control unit 118 executes collision control between the operation object and the non-operation object. When the collision determination unit 230 performs collision determination between the operation object and the non-operation object and detects a collision, the collision mode determination unit 232 determines the mode of the collision. The action determining unit 234 determines at least one action of the operation object or the non-operation object according to the collision mode.

操作オブジェクト制御部112は、操作ボタン40が操作されたことを示すボタン状態情報をもとに、プレイヤーキャラクタ200に、ロックオンしたノンプレイヤーキャラクタ222を追跡させる。プレイヤーキャラクタ200がノンプレイヤーキャラクタ222に近づくと、ユーザは操作ボタン40の押下を解除する。以後、操作オブジェクト制御部112は、入力デバイス20の位置情報および姿勢情報をもとに、プレイヤーキャラクタ200および捕獲アミ224の動作を制御する。具体的に、操作オブジェクト制御部112は、プレイヤーキャラクタ200の前後方向の動きを、フレーム画像中の発光体画像の大きさから導出される距離情報により決定し、左右方向の動きを、フレーム画像中の発光体画像の位置座標により決定する。さらに具体的には、操作ボタン40の押下が解除された時点の距離情報および位置座標からの差分値で、それぞれの動きが決定される。また操作オブジェクト制御部112は、捕獲アミ224の動きを、姿勢情報により決定する。ユーザが入力デバイス20をアミに見立てて動かすと、操作オブジェクト制御部112が、捕獲アミ224の動きを、ユーザによる入力デバイス20の動きと同じように制御する。これにより、ユーザの動きとプレイヤーキャラクタ200の動きとを連動させることができる。   The operation object control unit 112 causes the player character 200 to track the locked-on non-player character 222 based on the button state information indicating that the operation button 40 has been operated. When the player character 200 approaches the non-player character 222, the user releases the pressing of the operation button 40. Thereafter, the operation object control unit 112 controls the movements of the player character 200 and the capture catch 224 based on the position information and posture information of the input device 20. Specifically, the operation object control unit 112 determines the movement of the player character 200 in the front-rear direction based on distance information derived from the size of the light emitter image in the frame image, and determines the movement in the left-right direction in the frame image. It is determined by the position coordinates of the light emitter image. More specifically, each movement is determined by the distance information and the difference value from the position coordinates when the operation button 40 is released. In addition, the operation object control unit 112 determines the movement of the capture catch 224 based on the posture information. When the user moves the input device 20 as if it is a letter, the operation object control unit 112 controls the movement of the capture letter 224 in the same manner as the movement of the input device 20 by the user. Thereby, a user's motion and the motion of the player character 200 can be linked.

衝突判定部230は、捕獲アミ224とノンプレイヤーキャラクタ222の衝突判定を行う。衝突判定部230は、既知の衝突判定アルゴリズムを用いて、捕獲アミ224のリング部分の内側に形成される平面と、ノンプレイヤーキャラクタ222との衝突判定を行う。衝突が検出されたとき、衝突態様決定部232は、衝突の態様を決定する。   The collision determination unit 230 performs a collision determination between the captured catch 224 and the non-player character 222. The collision determination unit 230 performs a collision determination between the non-player character 222 and a plane formed inside the ring portion of the capture catch 224 using a known collision determination algorithm. When a collision is detected, the collision mode determination unit 232 determines the mode of the collision.

操作オブジェクト制御部112は、入力デバイス20から送信されるセンサ検出値情報から捕獲アミ224の移動速度を導出し、移動させる。このように操作オブジェクト制御部112は、加速度センサ検出値情報を用いて捕獲アミ224の移動速度を検出してもよい。また操作オブジェクト制御部112は、デバイス情報導出部84で導出された、フレームごとの入力デバイス20の位置情報から、捕獲アミ224の移動速度を導出してもよい。衝突判定部230が、捕獲アミ224のリング部分に形成される平面と、ノンプレイヤーキャラクタ222との衝突を判定すると、衝突態様決定部232は、衝突時の捕獲アミ224の移動速度を取得する。このとき衝突態様決定部232は、捕獲アミ224の移動速度が所定速度以下であるか判定して、その判定結果に応じて衝突態様を決定し、動作決定部234に通知する。   The operation object control unit 112 derives and moves the movement speed of the capture catch 224 from the sensor detection value information transmitted from the input device 20. As described above, the operation object control unit 112 may detect the moving speed of the capture catch 224 using the acceleration sensor detection value information. In addition, the operation object control unit 112 may derive the moving speed of the capture net 224 from the position information of the input device 20 for each frame derived by the device information deriving unit 84. When the collision determination unit 230 determines a collision between the flat surface formed in the ring portion of the captured catch 224 and the non-player character 222, the collision mode determination unit 232 acquires the moving speed of the captured catch 224 at the time of the collision. At this time, the collision mode determination unit 232 determines whether or not the moving speed of the capture catch 224 is equal to or lower than a predetermined speed, determines the collision mode according to the determination result, and notifies the operation determination unit 234 of the collision mode.

動作決定部234は、決定された衝突態様が捕獲アミ224の移動速度が所定速度以下であることを示す場合、ノンプレイヤーキャラクタ222の動作を、捕獲アミ224内から所定時間脱出できないものとして決定する。この決定された動作は非操作オブジェクト制御部116に通知され、非操作オブジェクト制御部116は、この通知を受けて、所定時間の間は、捕獲アミ224内でノンプレイヤーキャラクタ222を動かすように制御する。一方、動作決定部234は、決定された衝突態様が捕獲アミ224の移動速度が所定速度を超えていることを示す場合に、ノンプレイヤーキャラクタ222の動作を、捕獲アミ224に入ったらすぐに消滅するように決定する。この決定された動作は非操作オブジェクト制御部116に通知され、非操作オブジェクト制御部116は、この通知を受けて、捕獲アミ224内にノンプレイヤーキャラクタ222が入ったらすぐに消滅するように制御する。   The action determining unit 234 determines that the action of the non-player character 222 is not allowed to escape from the capture area 224 for a predetermined time when the determined collision mode indicates that the movement speed of the capture area 224 is equal to or lower than the predetermined speed. . The determined operation is notified to the non-operation object control unit 116, and the non-operation object control unit 116 receives this notification and controls to move the non-player character 222 within the capture area 224 for a predetermined time. To do. On the other hand, when the determined collision mode indicates that the moving speed of the capture spot 224 exceeds the predetermined speed, the action determination unit 234 disappears the action of the non-player character 222 as soon as it enters the capture spot 224. Decide to do. The determined operation is notified to the non-operation object control unit 116, and the non-operation object control unit 116 receives this notification and controls to disappear as soon as the non-player character 222 enters the capture area 224. .

このように、センサ検出値情報および/または入力デバイス20の位置情報に応じて衝突態様を決定し、その衝突態様によりノンプレイヤーキャラクタ222の動作を決定することで、入力デバイス20の特徴を活かしたゲームを実現できる。なお、衝突態様によりプレイヤーキャラクタ200の動作を決定してもよい。また移動速度により衝突態様を決定したが、加速度により衝突態様を決定してもよい。   As described above, the collision mode is determined according to the sensor detection value information and / or the position information of the input device 20, and the action of the non-player character 222 is determined based on the collision mode, thereby utilizing the characteristics of the input device 20. A game can be realized. Note that the action of the player character 200 may be determined according to the collision mode. Although the collision mode is determined based on the moving speed, the collision mode may be determined based on the acceleration.

なお、ノンプレイヤーキャラクタ222の動作が、捕獲アミ224内に所定時間とどまるように決定された場合、プレイヤーキャラクタ200が、捕獲アミ224を床や壁に押しつけることで、ノンプレイヤーキャラクタ222を消滅させることができる。衝突判定部230は、捕獲アミ224のリング部分と床や壁との衝突判定を行う。衝突が検出されたとき、衝突態様決定部232は、リング部分に形成される平面と、床平面との角度に応じて、衝突態様を決定する。平面同士の角度は、各平面の垂線同士の角度により求められる。衝突態様決定部232は、平面同士の角度が所定角度以上であるか判定して、その判定結果に応じて衝突態様を決定し、動作決定部234に通知する。   Note that when it is determined that the action of the non-player character 222 stays in the capture spot 224 for a predetermined time, the player character 200 may cause the non-player character 222 to disappear by pressing the capture spot 224 against the floor or wall. it can. The collision determination unit 230 performs a collision determination between the ring portion of the capture catch 224 and the floor or wall. When a collision is detected, the collision mode determination unit 232 determines the collision mode according to the angle between the plane formed on the ring portion and the floor plane. The angle between the planes is determined by the angle between the perpendiculars of each plane. The collision mode determination unit 232 determines whether the angle between the planes is equal to or greater than a predetermined angle, determines a collision mode according to the determination result, and notifies the motion determination unit 234 of the determination.

なお、この衝突態様は、衝突判定により決定されてもよいが、ゲーム空間内の床や壁のワールド座標と、捕獲アミ224のリング部分のワールド座標の位置関係から決定されてもよい。   This collision mode may be determined by collision determination, but may be determined from the positional relationship between the world coordinates of the floor or wall in the game space and the world coordinates of the ring portion of the catching net 224.

動作決定部234は、決定された衝突態様が平面同士の角度が所定値以上であることを示す場合、ノンプレイヤーキャラクタ222の動作を、捕獲アミ224内から脱出できるものとして決定する。この決定された動作は非操作オブジェクト制御部116に通知され、非操作オブジェクト制御部116は、この通知を受けて、捕獲アミ224にノンプレイヤーキャラクタ222が入った時点から所定時間が経過すると、捕獲アミ224から脱出するように制御する。一方、動作決定部234は、決定された衝突態様が平面同士の角度が所定値より小さいことを示す場合、ノンプレイヤーキャラクタ222の動作を、消滅するように決定する。この決定された動作は非操作オブジェクト制御部116に通知され、非操作オブジェクト制御部116は、この通知を受けて、捕獲アミ224内のノンプレイヤーキャラクタ222を消滅するように制御する。   When the determined collision mode indicates that the angle between the planes is equal to or greater than a predetermined value, the motion determining unit 234 determines the motion of the non-player character 222 as being able to escape from the captured catch 224. The determined operation is notified to the non-operation object control unit 116, and the non-operation object control unit 116 receives the notification, and when a predetermined time elapses from when the non-player character 222 enters the capture area 224, the capture is performed. Control to escape from Ami 224. On the other hand, when the determined collision mode indicates that the angle between the planes is smaller than the predetermined value, the motion determination unit 234 determines the motion of the non-player character 222 to disappear. The determined operation is notified to the non-operation object control unit 116, and the non-operation object control unit 116 receives this notification and controls the non-player character 222 in the capture catch 224 to disappear.

なお、ノンプレイヤーキャラクタ222が捕獲アミ224に捕らえられた状態で、ユーザが入力デバイス20の操作ボタン40を操作すると、非操作オブジェクト制御部116が、入力デバイス20の姿勢情報から、捕獲アミ224のリング部分に形成される平面に垂直な方向に、ノンプレイヤーキャラクタ222を放出する。このように、本ゲームでは、捕獲アミ224とノンプレイヤーキャラクタ222との衝突態様に応じて、ノンプレイヤーキャラクタ222の動作に様々なバリエーションをもたせることができる。   In addition, when the user operates the operation button 40 of the input device 20 in a state where the non-player character 222 is captured by the capture screen 224, the non-operation object control unit 116 determines the capture screen 224 from the posture information of the input device 20. The non-player character 222 is emitted in a direction perpendicular to the plane formed in the ring portion. In this way, in this game, various variations can be made to the action of the non-player character 222 in accordance with the collision mode between the capture catch 224 and the non-player character 222.

図13は、衝突制御部118の処理を示すフローチャートである。衝突判定部230は、操作オブジェクトと非操作オブジェクトとの衝突判定を行う(S30)。衝突が検出されなければ(S30のN)、この衝突制御処理は進行しない。衝突が検出されると(S30のY)、衝突態様決定部232が、衝突態様を決定する(S32)。動作決定部234は、衝突態様に応じて、操作オブジェクトまたは非操作オブジェクトの少なくとも一方の動作を決定する(S34)。   FIG. 13 is a flowchart showing the processing of the collision control unit 118. The collision determination unit 230 performs collision determination between the operation object and the non-operation object (S30). If no collision is detected (N in S30), the collision control process does not proceed. When a collision is detected (Y in S30), the collision mode determination unit 232 determines the collision mode (S32). The action determining unit 234 determines at least one action of the operation object or the non-operation object according to the collision mode (S34).

本ゲームにおいて、捕獲具はデフォルトアイテムとして設定され、探索処理の終了後は、常に捕獲具がアイテムとして決定されるが、ユーザは操作ボタン36を押下することで、プレイヤーキャラクタ200の使用アイテムを変更できる。アイテム決定部114は、殴打武器を、プレイヤーキャラクタが使用するアイテムとして決定する。   In this game, the capture tool is set as the default item, and the capture tool is always determined as the item after the end of the search process, but the user changes the item used by the player character 200 by pressing the operation button 36. it can. The item determination unit 114 determines the strike weapon as an item used by the player character.

ハリセンは殴打武器の1つの態様である。現実のハリセンは、紙を蛇腹状に折り、一方をテープなどで巻いて握りを作り、反対側を扇子状に開いて作られる。プレイヤーキャラクタ200は、ハリセンでノンプレイヤーキャラクタを叩くことができる。ハリセンの向きは、入力デバイス20の姿勢情報により定められる。衝突判定部230は、ハリセンとノンプレイヤーキャラクタの衝突判定を行う。   Harisen is an aspect of a strike weapon. Realistic Harisen is made by folding paper into a bellows shape, winding one side with tape to make a grip, and opening the other side into a fan shape. The player character 200 can hit a non-player character with a harsen. The direction of the Harrison is determined by the attitude information of the input device 20. The collision determination unit 230 determines the collision between the Harrison and the non-player character.

操作オブジェクト制御部112は、入力デバイス20から送信されるセンサ検出値情報からハリセンの移動速度を導出し、移動させる。衝突判定部230が、ハリセンと、ノンプレイヤーキャラクタとの衝突を判定すると、動作決定部234が、衝突時のハリセンの移動方向および移動速度から、ノンプレイヤーキャラクタ222が吹っ飛ぶ方向と速さを決定する。この決定された動作は非操作オブジェクト制御部116に通知され、非操作オブジェクト制御部116は、この通知を受けて、ノンプレイヤーキャラクタ222を動作させる。   The operation object control unit 112 derives the movement speed of the harsen from the sensor detection value information transmitted from the input device 20 and moves it. When the collision determination unit 230 determines the collision between the Harrison and the non-player character, the action determination unit 234 determines the direction and speed of the non-player character 222 to blow from the movement direction and movement speed of the Harrisen at the time of the collision. . The determined operation is notified to the non-operation object control unit 116, and the non-operation object control unit 116 operates the non-player character 222 in response to the notification.

なおハリセンは、殴打武器として利用されるが、蛇腹部分を団扇のようにして風を起こすように利用されてもよい。操作オブジェクト制御部112は、入力デバイス20の姿勢情報によりハリセンを動かす向きを定め、殴打武器または団扇のいずれかでハリセンを動作させる。   Harisen is used as a beating weapon, but it may be used so that the bellows part is like a fan and a wind is generated. The operation object control unit 112 determines the direction in which the harness is moved based on the posture information of the input device 20, and operates the harness with either a strike weapon or a fan.

またユーザが操作ボタン36を押下すると、アイテム決定部114が、投擲武器を、プレイヤーキャラクタが使用するアイテムとして決定してもよい。
図14(a)は、投擲武器の1つの態様であるパチンコの表示画面例を示す。ユーザが操作ボタン40を操作すると、操作オブジェクト制御部112は、パチンコ240をプレイヤーキャラクタ200にもたせる。ここでは、プレイヤーキャラクタ200の図示を省略している。操作オブジェクト制御部112は、操作ボタン40が操作された時点の入力デバイス20の位置情報および姿勢情報を、初期状態情報として取得する。操作オブジェクト制御部112は、姿勢情報から、パチンコ240の方向を定める。
When the user presses the operation button 36, the item determination unit 114 may determine the throwing weapon as an item used by the player character.
FIG. 14A shows an example of a display screen of a pachinko that is one aspect of a throwing weapon. When the user operates the operation button 40, the operation object control unit 112 places the pachinko 240 on the player character 200. Here, illustration of the player character 200 is omitted. The operation object control unit 112 acquires position information and posture information of the input device 20 at the time when the operation button 40 is operated as initial state information. The operation object control unit 112 determines the direction of the pachinko 240 from the posture information.

図14(b)は、入力デバイス20が撮像装置14から離れる方向に移動したときの表示画面例を示す。この例では、パチンコのゴム紐は、操作ボタン40を操作がされた時の位置からの移動量に応じて、引っ張られる。ゴム紐には弾がセットされ、操作ボタン40の押下操作が解除されると、図14(c)に示すように弾が投擲される。操作オブジェクト制御部112は、弾の飛距離を、初期位置からの移動量と、また操作ボタン40の押下時間に応じて定めてもよい。   FIG. 14B shows an example of a display screen when the input device 20 moves in a direction away from the imaging device 14. In this example, the pachinko rubber string is pulled according to the amount of movement from the position when the operation button 40 is operated. When a bullet is set on the rubber cord and the operation button 40 is released, the bullet is thrown as shown in FIG. The operation object control unit 112 may determine the bullet flight distance according to the amount of movement from the initial position and the pressing time of the operation button 40.

以下、本ゲームにおいて用意されるアイテムを示す。
1)トング
ユーザが操作ボタン30と操作ボタン40を同時に押すことで、プレイヤーキャラクタ200が、トングを使って非操作オブジェクトをつかむことができる。
2)おたま
プレイヤーキャラクタ200が、おたまを使って水やお湯をすくい、ノンプレイヤーキャラクタにかけることができる。非操作オブジェクト制御部116は、水やお湯の温度により、ノンプレイヤーキャラクタの動作を変化させる。
なお、入力デバイス20の特徴を活かした他のアイテムが用意されてもよい。
The items prepared in this game are shown below.
1) Tongs When the user simultaneously presses the operation button 30 and the operation button 40, the player character 200 can grab a non-operation object using the tongs.
2) Otama The player character 200 can scoop water or hot water using the Otama and put it on a non-player character. The non-operation object control unit 116 changes the motion of the non-player character according to the temperature of water or hot water.
Other items that make use of the characteristics of the input device 20 may be prepared.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

1・・・ゲームシステム、10・・・ゲーム装置、12・・・表示装置、14・・・撮像装置、20・・・入力デバイス、22・・・発光体、24・・・ハンドル、48・・・無線通信モジュール、50・・・処理部、52・・・メイン制御部、54・・・入力受付部、56・・・3軸加速度センサ、58・・・3軸ジャイロセンサ、60・・・発光制御部、62・・・発光部、80・・・フレーム画像取得部、82・・・画像処理部、84・・・デバイス情報導出部、86・・・無線通信モジュール、88・・・入力受付部、90・・・出力部、100・・・アプリケーション処理部、102・・・操作指示受付部、110・・・制御部、112・・・操作オブジェクト制御部、114・・・アイテム決定部、116・・・非操作オブジェクト制御部、118・・・衝突制御部、120・・・探索制御部、122・・・表示制御部、150・・・パラメータ保持部、152・・・3次元データ保持部、154・・・画像生成部、210・・・探索方向決定部、212・・・NPC判定部、214・・・ロックオン処理部、216・・・点灯制御部、230・・・衝突判定部、232・・・衝突態様決定部、234・・・動作決定部。 DESCRIPTION OF SYMBOLS 1 ... Game system, 10 ... Game device, 12 ... Display apparatus, 14 ... Imaging device, 20 ... Input device, 22 ... Luminescent body, 24 ... Handle, 48. ..Wireless communication module, 50... Processing unit, 52... Main control unit, 54... Input receiving unit, 56... Three-axis acceleration sensor, 58. Light emission control unit 62 ... Light emission unit 80 ... Frame image acquisition unit 82 ... Image processing unit 84 ... Device information deriving unit 86 ... Wireless communication module 88 ... Input accepting unit, 90 ... output unit, 100 ... application processing unit, 102 ... operation instruction accepting unit, 110 ... control unit, 112 ... operation object control unit, 114 ... item determination Part, 116 ... non-operational object Control unit, 118 ... collision control unit, 120 ... search control unit, 122 ... display control unit, 150 ... parameter holding unit, 152 ... three-dimensional data holding unit, 154 ... Image generation unit 210 ... Search direction determination unit 212 ... NPC determination unit 214 ... Lock-on processing unit 216 ... Lighting control unit 230 ... Collision determination unit 232 ... Collision mode determination unit, 234... Operation determination unit.

Claims (4)

発光体を有する入力デバイスの姿勢情報を取得する受付部と、
仮想空間において操作オブジェクトの動作を制御する操作オブジェクト制御部と、
仮想空間において非操作オブジェクトの動作を制御する非操作オブジェクト制御部と、
操作オブジェクトの位置と、入力デバイスの姿勢情報から、非操作オブジェクトの探索方向を決定する探索方向決定部と、
探索方向に非操作オブジェクトが存在するか判定する判定部と、
前記判定部により非操作オブジェクトが存在することが判定されると、発光体の点灯を制御する点灯制御部と、
を備えることを特徴とするゲーム装置。
A receiving unit for acquiring posture information of an input device having a light emitter;
An operation object control unit for controlling operation of the operation object in the virtual space;
A non-operation object control unit for controlling the operation of the non-operation object in the virtual space;
A search direction determination unit for determining a search direction of a non-operation object from the position of the operation object and the posture information of the input device;
A determination unit that determines whether a non-operation object exists in the search direction;
When it is determined by the determination unit that a non-operation object exists, a lighting control unit that controls lighting of the light emitter,
A game apparatus comprising:
前記判定部は、非操作オブジェクトが存在することを判定すると、非操作オブジェクトのステータス情報を取得し、
前記点灯制御部は、ステータス情報にもとづいて、発光体の点灯を制御することを特徴とする請求項1に記載のゲーム装置。
When the determination unit determines that a non-operation object exists, the determination unit acquires status information of the non-operation object,
The game device according to claim 1, wherein the lighting control unit controls lighting of the light emitter based on status information.
コンピュータに、
発光体を有する入力デバイスの姿勢情報を取得する機能と、
仮想空間において操作オブジェクトの動作を制御する機能と、
仮想空間において非操作オブジェクトの動作を制御する機能と、
操作オブジェクトの位置と、入力デバイスの姿勢情報から、非操作オブジェクトの探索方向を決定する機能と、
探索方向に非操作オブジェクトが存在するか判定する機能と、
非操作オブジェクトが存在することが判定されると、発光体の点灯を制御する機能と、
を実現させるためのプログラム。
On the computer,
A function of acquiring posture information of an input device having a light emitter;
A function for controlling the operation of the operation object in the virtual space;
A function for controlling the operation of a non-operation object in the virtual space;
A function for determining the search direction of the non-operation object from the position of the operation object and the posture information of the input device;
A function for determining whether a non-operation object exists in the search direction;
When it is determined that a non-operation object exists, a function for controlling lighting of the light emitter,
A program to realize
請求項3に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 3 is recorded.
JP2009170158A 2009-07-21 2009-07-21 Game device Active JP5453006B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009170158A JP5453006B2 (en) 2009-07-21 2009-07-21 Game device
PCT/JP2010/001827 WO2011010414A1 (en) 2009-07-21 2010-03-15 Game device
US13/382,041 US8721444B2 (en) 2009-07-21 2010-03-15 Game device for performing operation object control and non-operation object control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009170158A JP5453006B2 (en) 2009-07-21 2009-07-21 Game device

Publications (2)

Publication Number Publication Date
JP2011024613A true JP2011024613A (en) 2011-02-10
JP5453006B2 JP5453006B2 (en) 2014-03-26

Family

ID=43634089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009170158A Active JP5453006B2 (en) 2009-07-21 2009-07-21 Game device

Country Status (1)

Country Link
JP (1) JP5453006B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020518902A (en) * 2017-04-27 2020-06-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. Light emitting user input device
US11625090B2 (en) 2018-03-07 2023-04-11 Magic Leap, Inc. Visual tracking of peripheral devices
USD984982S1 (en) 2018-07-24 2023-05-02 Magic Leap, Inc. Totem controller having an illumination region
JP7493117B2 (en) 2021-12-22 2024-05-30 任天堂株式会社 GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208263A (en) * 2002-01-12 2003-07-25 Sega Corp Control device and picture processor having its mounting body
JP2007289529A (en) * 2006-04-26 2007-11-08 Sony Computer Entertainment Inc Game controller
JP2008000345A (en) * 2006-06-22 2008-01-10 Nintendo Co Ltd Game device and game program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208263A (en) * 2002-01-12 2003-07-25 Sega Corp Control device and picture processor having its mounting body
JP2007289529A (en) * 2006-04-26 2007-11-08 Sony Computer Entertainment Inc Game controller
JP2008000345A (en) * 2006-06-22 2008-01-10 Nintendo Co Ltd Game device and game program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020518902A (en) * 2017-04-27 2020-06-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. Light emitting user input device
US11573677B2 (en) 2017-04-27 2023-02-07 Magic Leap, Inc. Light-emitting user input device for calibration or pairing
JP7231556B2 (en) 2017-04-27 2023-03-01 マジック リープ, インコーポレイテッド Luminous user input device
US12067209B2 (en) 2017-04-27 2024-08-20 Magic Leap, Inc. Light-emitting user input device for calibration or pairing
US11625090B2 (en) 2018-03-07 2023-04-11 Magic Leap, Inc. Visual tracking of peripheral devices
US11989339B2 (en) 2018-03-07 2024-05-21 Magic Leap, Inc. Visual tracking of peripheral devices
USD984982S1 (en) 2018-07-24 2023-05-02 Magic Leap, Inc. Totem controller having an illumination region
JP7493117B2 (en) 2021-12-22 2024-05-30 任天堂株式会社 GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD
JP7505852B2 (en) 2021-12-22 2024-06-25 任天堂株式会社 GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD
JP7505854B2 (en) 2021-12-22 2024-06-25 任天堂株式会社 GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD
JP7545191B1 (en) 2021-12-22 2024-09-04 任天堂株式会社 GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD

Also Published As

Publication number Publication date
JP5453006B2 (en) 2014-03-26

Similar Documents

Publication Publication Date Title
JP5089078B2 (en) Game device
JP5089060B2 (en) Entertainment system and game controller
US9199166B2 (en) Game system with virtual camera controlled by pointing device
US8556716B2 (en) Image generation system, image generation method, and information storage medium
JP6532393B2 (en) Display control apparatus and display control method
US8851994B2 (en) Game device, game control method, and game control program adapted to control game by using position and posture of input device
JP6629055B2 (en) Information processing apparatus and information processing method
US10994200B2 (en) Information processing apparatus, information processing system, information processing method, program and information recording medium
JP4906391B2 (en) Game controller
JP2010104778A (en) Game program and game machine
JP2011024612A (en) Game device
JP2008272123A (en) Program, information memory medium and game apparatus
JP5453006B2 (en) Game device
WO2011010414A1 (en) Game device
JP6650739B2 (en) Light emitting device adjustment apparatus and drive current adjustment method
EP2441503B1 (en) Game device, game control method, system, and game control program
JP5600033B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND GAME CONTROL PROGRAM
JP5241789B2 (en) Program, object control method, and game apparatus
JP5276055B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND GAME CONTROL PROGRAM
JP5551675B2 (en) Game apparatus and virtual object control method
JP2012000154A (en) Game device, game control method, and game control program
JP4420933B2 (en) Information storage medium and image generation apparatus
JP2013090941A (en) Information processing program, information processing device, information processing system and information processing method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140106

R150 Certificate of patent or registration of utility model

Ref document number: 5453006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250