JP5759233B2 - Information processing program, an information processing system, an information processing method - Google Patents

Information processing program, an information processing system, an information processing method Download PDF

Info

Publication number
JP5759233B2
JP5759233B2 JP2011083453A JP2011083453A JP5759233B2 JP 5759233 B2 JP5759233 B2 JP 5759233B2 JP 2011083453 A JP2011083453 A JP 2011083453A JP 2011083453 A JP2011083453 A JP 2011083453A JP 5759233 B2 JP5759233 B2 JP 5759233B2
Authority
JP
Japan
Prior art keywords
data
direction
image
information processing
virtual world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011083453A
Other languages
Japanese (ja)
Other versions
JP2012221021A (en
Inventor
浩志 松永
浩志 松永
悠吾 林
悠吾 林
和也 洲巻
和也 洲巻
恵一 湊
恵一 湊
Original Assignee
任天堂株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 任天堂株式会社 filed Critical 任天堂株式会社
Priority to JP2011083453A priority Critical patent/JP5759233B2/en
Priority claimed from EP11185811A external-priority patent/EP2497543A3/en
Priority claimed from EP11194630.7A external-priority patent/EP2497547B1/en
Publication of JP2012221021A publication Critical patent/JP2012221021A/en
Application granted granted Critical
Publication of JP5759233B2 publication Critical patent/JP5759233B2/en
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理プログラム、情報処理システム、および情報処理方法に関し、特に例えば、ユーザの動作に基づいた処理を行う情報処理プログラム、情報処理システム、および情報処理方法に関する。 The present invention relates to an information processing program, an information processing system, and an information processing method, in particular, for example, an information processing program performs a process based on the user's operation, the information processing system, and an information processing method.

従来、ユーザの荷重に基づいてゲームを行うことができるゲームシステムがある(例えば、特許文献1参照)。 Conventionally, there is a game system capable of performing a game based on the load of the user (for example, see Patent Document 1). 例えば、上記特許文献1に記載のゲームシステムは、荷重センサを備えたボード型コントローラを含み、当該ボード型コントローラ上にユーザが乗ることによって当該荷重センサが検出した荷重値を操作データとしてゲーム装置へ送信している。 For example, the game system described in Patent Document 1 includes a board-type controller with a load sensor, to the game apparatus a load value to which the load sensor is detected by the user rides on the board type controller as the operation data It is sent. そして、上記操作データを受信したゲーム装置では、上記ボード型コントローラから送信された操作データが示す荷重値に基づいてゲーム処理が実行され、当該ゲーム装置に接続されたモニタにゲーム処理内容が表示される。 Then, the game apparatus having received the operation data, the game processing based on the load value indicated by the operation data transmitted from the board type controller is executed, the game processing content is displayed on a monitor connected to the game apparatus that.

特開2008−264195号公報 JP 2008-264195 JP

しかしながら、上記特許文献1で開示されたゲームシステムでは、上記操作データが示す荷重値に基づいたゲーム処理結果が、当該ゲーム装置に接続されたモニタに表示される。 However, in the game system disclosed in Patent Document 1, the game processing result based on the load value indicated by the operation data is displayed on a monitor connected to the game apparatus. ここで、上記モニタは、既存のテレビ受像機等を用いることが前提となっており、一般的に据置型のディスプレイが用いられる。 Here, the monitor may be used existing television receiver or the like which is a prerequisite, the generally stationary display used. 一方、ユーザが上記ボード型コントローラ上で操作する際には、ユーザ自身の動きが伴うことが多いが、上記モニタが固定的に設置されているために、ユーザ自身の動きに合わせた好適な状況でゲーム処理結果を見ることができなかった。 On the other hand, when the user operates on the board type controller, is often accompanied by movement of the user himself, to the monitor is installed fixedly, suitable conditions to suit the movement of the user's own I could not see the game processing results in.

それ故に、本発明の目的は、ユーザ自身の動作に基づいた操作を行って当該ユーザ動作に基づいた処理を行う場合に、ユーザが当該処理結果を好適な状況で見ることが可能な情報処理プログラム、情報処理システム、および情報処理方法を提供することである。 Therefore, an object of the present invention, when performing an operation based on the operation of the user himself performs the processing based on the user operation, the user can see the process results in a suitable situation information processing program is to provide an information processing system, and an information processing method.

上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。 To achieve the above object, the present invention may employ, for example, the following configurations. なお、特許請求の範囲の記載を解釈する際に、特許請求の範囲の記載によってのみその範囲が解釈されるべきであることが理解され、特許請求の範囲の記載と本欄の記載とが矛盾する場合には、特許請求の範囲の記載が優先する。 Incidentally, in interpreting the appended claims, it is understood that should the scope only by the following claims be interpreted, as described according the Honran of claims contradiction when the priority is the appended claims.

本発明の情報処理プログラムの一構成例は、可搬型表示装置に画像を表示することが可能な情報処理装置のコンピュータで実行される。 A configuration example of an information processing program of the present invention is executed by a computer of an information processing apparatus capable of displaying an image on the portable display device. 可搬型表示装置は、可搬型表示装置本体の姿勢に応じた姿勢データを少なくとも出力する。 Portable display device, at least outputs the posture data corresponding to the attitude of the portable display device main body. 情報処理プログラムは、荷重取得手段、オブジェクト移動手段、第1仮想カメラ制御手段、および表示制御手段として、コンピュータを機能させる。 Information processing program, load obtaining means, the object moving means, the first virtual camera control means, and a display control means, causes the computer to function. 荷重取得手段は、荷重検出装置に加えられた荷重に基づくデータを取得する。 Load obtaining means obtains data based on load applied to the load detection device. オブジェクト移動手段は、荷重取得手段が取得したデータに基づいて、仮想世界に配置されたオブジェクトを移動させる。 Object moving means, based on data load obtaining means has obtained, to move the object placed in a virtual world. 第1仮想カメラ制御手段は、姿勢データおよびオブジェクトの仮想世界における位置に基づいて、当該仮想世界の画像を生成するための第1仮想カメラを制御する。 First virtual camera control means, based on the position in the virtual world of the posture data and objects, and controls the first virtual camera for generating an image of the virtual world. 表示制御手段は、第1仮想カメラから見た仮想世界を示す第1画像を可搬型表示装置に表示する。 Display control means displays the first image showing the virtual world as seen from the first virtual camera to the portable display device.

なお、上記情報処理装置は、ゲーム処理を実行して当該ゲーム処理に基づいた画像を生成する装置であってもいいし、一般的なパーソナルコンピュータのような多用途の装置であってもよい。 Note that the information processing apparatus, to good An apparatus for generating an image based running game process on the game process may be a device versatile as a general personal computer. 上記可搬型表示装置は、ユーザによって持ち運び可能なサイズであればよく、典型的にはユーザが両手で把持した姿勢で当該可搬型表示装置に表示される画像を視認できるような表示装置であってもよい。 The portable display device may be any size that can be carried by a user, typically a display device, such as visible an image to be displayed on the portable display device in a posture in which the user grips with both hands it may be. また、上記可搬型表示装置は、後述する実施形態における端末装置のように、姿勢データを少なくとも出力する手段および第1画像を表示する手段以外の他の構成を備えていてもよいし、備えていなくてもよい。 Further, the portable display device, as a terminal apparatus in the embodiment described below, may be provided with other configurations other than means for displaying the unit and the first image to at least outputs the posture data, provides may or may not. 上記荷重検出装置は、一例としてユーザの身体の少なくとも一部を乗せて当該荷重検出装置に加わる荷重を検出したり、荷重に応じてオン/オフされたりする装置であり、ユーザが上面に両足裏を接面させて乗って操作するものや、ユーザが上面に片足だけを乗せて操作するものや、ユーザが他の身体の部位(例えば、手)を乗せて操作するもの等が考えられる。 The load detection device, or detects the load applied to the load detection device put at least a portion of the user's body as an example, an apparatus or is turned on / off according to the load, both feet back to the user the upper surface and those operated ride by surface contact with, what the user manipulates put only one foot on the upper surface and the site of the user other body (e.g., hand) such as those operating in carrying can be considered.

上記によれば、荷重検出装置を用いてユーザが操作を行って当該操作に基づいて仮想世界のオブジェクトを移動させる処理を行う場合に、ユーザが当該処理結果を可搬型表示装置で見ることができるため、当該可搬型表示装置を把持しながら当該可搬型表示装置に表示される画像を見ることができる。 According to the above, can be seen in the virtual in the case of performing the process of moving the object in the world, the user portable display device the processing result based on the operation the user performs an operation by using the load detection device Therefore, it is possible to see the image displayed on the portable display device while holding the portable display device. したがって、ユーザは、例えば今までにない操作環境で操作が可能であり、当該操作環境に合わせたユーザにとって好適な状況で処理結果を見ることが可能となる。 Thus, the user, for example, can be operated with no operating environment ever, it is possible to see the processing results suitable situation for users tailored to the operating environment. また、可搬型表示装置に表示される仮想世界の画像を生成するための第1仮想カメラが、当該可搬型表示装置の姿勢に基づいて制御されるため、ユーザが見たい方向へ可搬型表示装置を向けることに応じて、例えば当該向けられた方向への仮想世界の画像を当該可搬型表示装置に表示することも可能となり、可搬型表示装置を動かすことによって第1仮想カメラを操作することができる。 The first virtual camera for generating an image of a virtual world displayed on the portable display device, since it is controlled based on the attitude of the portable display device, a portable display device in a direction the user wants to view in response to a turn, for example, the virtual world of the image into the directed was direction also becomes possible to display on the portable display device, it is possible to operate the first virtual camera by moving the portable display device it can.

また、上記情報処理プログラムは、姿勢算出手段として、さらにコンピュータを機能させてもよい。 Further, the information processing program, as the posture calculation means may further cause the computer to function. 姿勢算出手段は、姿勢データに基づいて、当該可搬型表示装置の姿勢を算出する。 Orientation calculation unit, based on the orientation data, calculates the attitude of the portable display device. この場合、上記第1仮想カメラ制御手段は、姿勢算出手段が算出した可搬型表示装置の姿勢およびオブジェクト位置に基づいて、第1仮想カメラを制御してもよい。 In this case, the first virtual camera control means, based on the attitude and position of the object portable display device orientation calculation means has calculated, may control the first virtual camera.

上記によれば、姿勢データを用いて可搬型表示装置の姿勢を算出し、当該可搬型表示装置の姿勢に基づいて第1仮想カメラの制御が可能となる。 According to the above, calculates the attitude of the portable display device using the attitude data, control of the first virtual camera becomes possible based on the attitude of the portable display device.

また、上記第1仮想カメラ制御手段は、可搬型表示装置の姿勢に基づいて、仮想世界における第1仮想カメラの位置および姿勢の少なくとも一方の制御を行ってもよい。 Also, the first virtual camera control means, based on the attitude of the portable display device may perform at least one control of the position and orientation of the first virtual camera in the virtual world.

また、上記第1仮想カメラ制御手段は、可搬型表示装置の姿勢に基づいた仮想世界における第1仮想カメラの視線方向の制御によって、第1仮想カメラの位置および姿勢の少なくとも一方の制御を行ってもよい。 Also, the first virtual camera control means, the control of the first virtual camera viewing direction in the virtual world based on the attitude of the portable display device, performs at least one control of the position and orientation of the first virtual camera it may be.

また、上記姿勢算出手段は、実空間の所定方向を基準とした可搬型表示装置の姿勢を算出してもよい。 Further, the posture calculation means, and orientation may be calculated in the portable display device with respect to a predetermined direction in the real space. 上記第1仮想カメラ制御手段は、実空間の所定方向を基準とした可搬型表示装置の姿勢に基づいて、仮想世界に設定された所定方向に対応する方向を基準として第1仮想カメラの位置および姿勢の少なくとも一方の制御を行ってもよい。 The first virtual camera control means, based on the attitude of the portable display device with respect to a predetermined direction in the real space, the position of the first virtual camera based on the direction corresponding to the predetermined direction set in the virtual world and it may be carried out at least one control position.

また、上記姿勢算出手段は、実空間の重力方向を所定方向として、当該重力方向を基準とした可搬型表示装置の姿勢を算出してもよい。 Also, the orientation calculation unit, a gravitational direction in the real space as the predetermined direction, and orientation may be calculated in the portable display device relative to the said direction of gravity. 上記第1仮想カメラ制御手段は、実空間の重力方向を基準とした可搬型表示装置の姿勢に基づいて、仮想世界に設定された重力方向を基準として第1仮想カメラの位置および姿勢の少なくとも一方の制御を行ってもよい。 The first virtual camera control means, based on the attitude of the portable display device relative to the gravitational direction in the real space, at least one of the position and orientation of the first virtual camera on the basis of the set direction of gravity in the virtual world it may be carried out control of.

また、上記姿勢算出手段は、実空間の重力方向周りに可搬型表示装置が回転する姿勢を少なくとも算出してもよい。 Also, the orientation calculation unit, the portable display device may be at least calculate the attitude rotating in the direction of gravity about the real space. 上記第1仮想カメラ制御手段は、実空間の重力方向周りに可搬型表示装置が回転する姿勢に基づいて、仮想世界に設定された重力方向周りに第1仮想カメラを回転させて姿勢を制御してもよい。 The first virtual camera control means, in the direction of gravity about the real space based on the attitude of the portable display device is rotated to rotate the first virtual camera to control the attitude of the set direction of gravity around the virtual world it may be.

また、上記第1仮想カメラ制御手段は、可搬型表示装置の姿勢と同じ姿勢となるように、第1仮想カメラの姿勢を制御してもよい。 Also, the first virtual camera control means so as to have the same orientation as the orientation of the portable display device may control the attitude of the first virtual camera.

上記によれば、第1仮想カメラの姿勢や位置が可搬型表示装置の姿勢に基づいて制御されるため、ユーザが見たい方向へ可搬型表示装置を向けることに応じて、例えば当該可搬型表示装置を介して仮想世界内を覗いているような画像をユーザに提供することができ、当該ユーザに仮想世界にいるかのような感覚を与えることができる。 According to the above, since the posture and position of the first virtual camera is controlled based on the attitude of the portable display device, in response to the direct portable display device in a direction the user wants to see, for example, the portable display image as looking into the virtual world through the device can be provided to the user, it can give a feeling as if the virtual world to the user.

また、上記第1仮想カメラ制御手段は、オブジェクトが第1画像に含まれるように第1仮想カメラを制御してもよい。 Also, the first virtual camera control means may control the first virtual camera as the object is included in the first image.

上記によれば、可搬型表示装置に表示される仮想世界の画像に、ユーザが移動させるオブジェクトの画像が含まれるため、当該オブジェクトを移動させる操作が容易となる。 According to the above, the virtual world of the image displayed on the portable display device, for the user includes an image of an object moving operation for moving the object is facilitated.

また、上記オブジェクト移動手段は、第1仮想カメラの視線方向に基づく方向へ、オブジェクトを移動させてもよい。 Further, the object moving means, a direction based on the line-of-sight direction of the first virtual camera may move the object.

上記によれば、可搬型表示装置に表示されている仮想世界の方向を、オブジェクトの移動方向とすることができる。 According to the above, the direction of the virtual world displayed on the portable display device may be a moving direction of the object. したがって、ユーザは、可搬型表示装置の姿勢によってオブジェクトの移動方向を設定できるとともに、その移動方向を見た仮想世界が当該可搬型表示装置に表示されるために、移動方向を設定する操作が直感的で当該移動方向をユーザが所望する方向に合わせることが容易となる。 Thus, the user, it is possible to set the moving direction of the object by the attitude of the portable display device, for virtual world saw the movement direction is displayed on the portable display device, the operation of setting the moving direction intuition the moving direction the user can be easily adjusted to the desired direction target.

また、上記可搬型表示装置は、ジャイロセンサおよび加速度センサの少なくとも一方を含んでいてもよい。 Further, the portable display device may include at least one of a gyro sensor and an acceleration sensor. 上記姿勢算出手段は、ジャイロセンサおよび加速度センサの少なくとも一方から出力されるデータに基づいて、可搬型表示装置の姿勢を算出してもよい。 The posture calculation means, based on data output from at least one of a gyro sensor and an acceleration sensor may calculate the attitude of the portable display device.

上記によれば、ジャイロセンサから出力される可搬型表示装置に生じている角速度を示すデータおよび/または加速度センサから出力される可搬型表示装置に生じている加速度を示すデータを用いることによって、当該可搬型表示装置の姿勢を精確に算出することができる。 According to the above, by using the data indicating the acceleration generated in the portable display device that is output from the data and / or the acceleration sensor indicates an angular velocity occurs in the portable display device that is output from the gyro sensor, the it is possible to accurately calculate the orientation of the portable display device.

また、上記表示制御手段は、第1画像とは別に、第2仮想カメラから見た仮想世界を示す第2画像を、情報処理装置に接続された別の表示装置にさらに表示してもよい。 Further, the display control means, the first image separately, a second image showing the virtual world as seen from the second virtual camera may be further displayed in a separate display device connected to the information processing apparatus.

なお、上記別の表示装置は、後述する実施形態におけるモニタ2のように情報処理装置に接続された表示装置であり、上記可搬型表示装置と別体であればよく、情報処理装置によって生成された第2画像を表示することが可能なものであればどのようなものであってもよい。 Note that the further display device is a display device connected to the information processing apparatus as the monitor 2 in the embodiment described below, may be a the portable display device and separate, are generated by the information processing apparatus the second image may be any as long as it is capable of displaying the. 例えば、上記別の表示装置は、情報処理装置と一体に(1つの筐体内に)構成されるものであってもよい。 For example, the further display device, the information processing apparatus and integrally (in one housing) or may be configured.

上記によれば、荷重検出装置に加える荷重による操作および可搬型表示装置を動かす操作に基づいた処理を行う場合に、当該処理結果が可搬型表示装置だけでなく情報処理装置に接続された別の表示装置にも表示することができる。 According to the above, when performing processing based on the operation of moving the operation and portable display device according to the load applied to the load detection device, another of the processing result is connected to the information processing apparatus not only portable display device it can also be displayed on the display device. したがって、ユーザは、例えば2つの装置に表示される画像を操作状況や好みに応じて使い分けることが可能となり、ユーザ操作に好適な画像を見ることも可能となる。 Therefore, the user, for example, it is possible to selectively use in accordance with the image displayed on the two devices on the operation conditions and preferences, it is possible to view the image suitable to the user operation. また、情報処理装置に接続された別の表示装置に表示する画像を、例えばユーザとは異なる他の人が見るための画像として用いることもでき、複数の人が処理結果を見る場合にも好適な視聴環境となり得る。 Further, an image to be displayed on another display device connected to the information processing apparatus can also be used as an image for viewing different other people, for example, a user, also suitable in the case where more than one person view the processing results It can be a Do not viewing environment.

また、上記表示制御手段は、第1画像を示す画像データを可搬型表示装置へ出力してもよい。 Further, the display control means, the image data representing the first image may be output to the portable display device. この場合、上記可搬型表示装置は、画像データ取得手段および表示手段を備えてもてもよい。 In this case, the portable display device may be provided with an image data acquiring unit and a display unit. 画像データ取得手段は、情報処理装置から出力された画像データを取得する。 Image data obtaining means obtains the image data outputted from the information processing apparatus. 表示手段は、画像データ取得手段が取得した画像データが示す第1画像を表示する。 Display means displays the first image represented by the image data by the image data acquisition means has acquired.

上記によれば、可搬型表示装置が情報処理を実行しない、いわゆるシンクライアント端末として機能することができる。 According to the above, it is possible to portable display device does not perform information processing functions as a so-called thin client terminal.

また、上記情報処理プログラムは、圧縮画像生成手段として、さらにコンピュータを機能させてもよい。 Further, the information processing program, a compressed image generation unit may further cause the computer to function. 圧縮画像生成手段は、第1画像を示す画像データを圧縮して圧縮画像データを生成する。 Compressing the image generation means generates a compressed image data by compressing the image data representing the first image. この場合、上記表示制御手段は、圧縮画像生成手段が生成した圧縮画像データを可搬型表示装置へ出力してもよい。 In this case, the display control means, the compressed image data compressed image generating means has generated may be output to the portable display device. 上記画像データ取得手段は、情報処理装置から出力された圧縮画像データを取得してもよい。 The image data acquiring unit may acquire the compressed image data outputted from the information processing apparatus. 上記可搬型表示装置は、表示画像伸張手段を、さらに備えていてもよい。 The portable display device, the display image expanding unit may comprise further. 表示画像伸張手段は、圧縮画像データを伸張して第1の表示画像を示す画像データを得る。 Display image expanding unit obtains image data indicating the first display image by decompressing the compressed image data. この場合、上記表示手段は、画像データ取得手段が取得して表示画像伸長手段が伸長した画像データが示す第1画像を表示してもよい。 In this case, the display means, the image data acquisition unit acquires and displays the image decompression unit may display the first image represented by image data decompression.

上記によれば、第1画像は、圧縮されて情報処理装置から可搬型表示装置へ出力されるので、第1画像を高速に出力することができ、第1画像が生成されてから第1画像が可搬型表示装置に表示されるまでの遅延を少なくすることができる。 According to the first image, since the output is compressed from the information processing apparatus to the portable display device, the first image can be output at high speed, the first image from the first image is generated There it is possible to reduce the delay to appear on the portable display device.

また、上記情報処理プログラムは、第2仮想カメラ制御手段として、さらにコンピュータを機能させてもよい。 Further, the information processing program, a second virtual camera control means may further cause the computer to function. 第2仮想カメラ制御手段は、オブジェクトの仮想世界における位置に基づいて、当該仮想世界の画像を生成するための第2仮想カメラを、第1仮想カメラとは異なる位置で、かつ、オブジェクトが第2画像に含まれるように設定する。 Second virtual camera control means, based on the position in the virtual world object, the virtual world of the second virtual camera for generating an image, in a position different from the first virtual camera, and the object is the second set to be included in the image.

上記によれば、可搬型表示装置に表示される画像とは異なる画像が情報処理装置に接続された別の表示装置に表示されるため、例えば使用目的に応じて作成された画像を、それぞれユーザにとって好適となる表示装置に表示することが可能となる。 According to the above, since the different image from the image is displayed on another display device connected to the information processing apparatus, an image generated in accordance with the example the intended use, each user displayed on the portable display device It can be displayed on a display device as a preferred for.

また、上記第2仮想カメラ制御手段は、オブジェクトから第1仮想カメラまでの距離より当該オブジェクトから離れた位置に第2仮想カメラを設定ししてもよい。 Further, the second virtual camera control means may set the second virtual camera at a position away from the object than the distance from the object to the first virtual camera. 上記表示制御手段は、第1画像で示される仮想世界の範囲より広い範囲を、第2画像として別の表示装置に表示してもよい。 It said display control means, a range wider than the range of the virtual world indicated by the first image may be displayed on another display device as a second image.

上記によれば、可搬型表示装置に表示される仮想世界の画像より広い表示範囲の仮想世界の画像が情報処理装置に接続された別の表示装置に表示されるため、例えば仮想世界の様子をユーザに提示する際にユーザ操作において好適となる画像を、それぞれの表示装置に表示することが可能となる。 According to the above, because the virtual world image in a wide display range than the image of the virtual world displayed on the portable display device is displayed in a separate display device connected to the information processing apparatus, for example, the state of the virtual world an image to be suitable in the user operation when presented to the user, it is possible to display on the respective display device.

また、上記第2仮想カメラ制御手段は、仮想世界においてオブジェクトを鳥瞰する位置に第2仮想カメラを設定してもよい。 Further, the second virtual camera control means may set the second virtual camera in a position to bird's-eye object in the virtual world. 上記表示制御手段は、仮想世界に配置されたオブジェクトを鳥瞰した画像を、第2画像として別の表示装置に表示してもよい。 It said display control means, an image bird's-eye objects located in the virtual world, may be displayed on another display device as a second image.

上記によれば、可搬型表示装置には当該可搬型表示装置の姿勢に応じた仮想世界の画像が表示され、情報処理装置に接続された別の表示装置には当該仮想世界を鳥瞰した画像が表示されるため、例えば仮想世界の様子をユーザに提示する際にユーザ操作において好適となる画像を、それぞれの表示装置に表示することが可能となる。 According to the above, the portable display device displays an image of the virtual world in accordance with the attitude of the portable display device, the image to another display device connected to the information processing apparatus bird's the virtual world to be displayed, for example, an image to be suitable in the user operation in presenting the state of the virtual world to the user, it is possible to display on the respective display device.

また、上記第2仮想カメラ制御手段は、仮想世界における第1仮想カメラの視線方向の変化に応じて、第2仮想カメラの当該仮想世界における視線方向を変化させてもよい。 Further, the second virtual camera control means, in response to the change of the first virtual camera viewing direction in the virtual world, may change the viewing direction in the virtual world of the second virtual camera.

上記によれば、例えば可搬型表示装置に表示される仮想世界の方向が変わった場合、同様の方向に別の表示装置に表示される仮想世界の方向が変わるような表示制御が可能となる。 According to the above, for example, when the direction of the virtual world has changed to be displayed on the portable display device, it is possible to display control, such as direction of the virtual world is changed to be displayed on another display device in the same direction.

本発明の情報処理プログラムの別の構成例は、可搬型表示装置に画像を表示することが可能な情報処理装置のコンピュータで実行される情報処理プログラムである。 Another example of the configuration of the information processing program of the present invention is an information processing program executed by a computer of an information processing apparatus capable of displaying an image on the portable display device. 可搬型表示装置は、可搬型表示装置本体の姿勢に応じた姿勢データを少なくとも出力する。 Portable display device, at least outputs the posture data corresponding to the attitude of the portable display device main body. 情報処理プログラムは、荷重取得手段、姿勢算出手段、第1仮想カメラ制御手段、および表示制御手段として、コンピュータを機能させる。 Information processing program, load obtaining means, orientation calculation unit, the first virtual camera control means, and a display control means, causes the computer to function. 荷重取得手段は、荷重検出装置に加えられた荷重に基づくデータを取得する。 Load obtaining means obtains data based on load applied to the load detection device. 姿勢算出手段は、姿勢データに基づいて、当該可搬型表示装置の姿勢を算出する。 Orientation calculation unit, based on the orientation data, calculates the attitude of the portable display device. 第1仮想カメラ制御手段は、荷重取得手段が取得したデータおよび可搬型表示装置の姿勢に基づいて、当該仮想世界の画像を生成するための第1仮想カメラを制御する。 First virtual camera control means, based on the attitude data and portable display device load acquisition means has acquired, to control the first virtual camera for generating an image of the virtual world. 表示制御手段は、第1仮想カメラから見た仮想世界を示す第1画像を可搬型表示装置に表示する。 Display control means displays the first image showing the virtual world as seen from the first virtual camera to the portable display device.

上記によれば、荷重検出装置を用いてユーザが操作を行って当該操作に基づいて仮想世界の画像を表示する処理を行う場合に、ユーザが当該処理結果を可搬型表示装置で見ることができるため、当該可搬型表示装置を把持しながら当該可搬型表示装置に表示される画像を見ることができる。 According to the above, can be seen in the portable display device when performing a process of displaying an image of a virtual world, the user of the process result based on the operation the user performs an operation by using the load detection device Therefore, it is possible to see the image displayed on the portable display device while holding the portable display device. したがって、ユーザは、例えば今までにない操作環境で操作が可能であり、当該操作環境に合わせたユーザにとって好適な状況で処理結果を見ることが可能となる。 Thus, the user, for example, can be operated with no operating environment ever, it is possible to see the processing results suitable situation for users tailored to the operating environment. また、可搬型表示装置に表示される仮想世界の画像を生成するための第1仮想カメラが、荷重検出装置を用いたユーザが操作および当該可搬型表示装置の姿勢に基づいて制御されるため、ユーザが見たい方向へ可搬型表示装置を向けながら荷重検出装置を用いたユーザ操作に応じて、例えば当該向けられた方向への仮想世界の画像を当該可搬型表示装置に表示することも可能となり、可搬型表示装置を動かすことによって第1仮想カメラを操作することができる。 Further, since the first virtual camera for generating an image of a virtual world displayed on the portable display device is controlled based on the posture of the user operation and the portable display device using a load detecting device, in accordance with a user operation by the user using the load detection device while directing the portable display device to the desired direction, for example, also possible and will be displayed an image of the virtual world to the facing was direction to the portable display device , it is possible to operate the first virtual camera by moving the portable display device.

また、本発明は、上記各手段を備える情報処理システムや上記各手段で行われる動作を含む情報処理方法の形態で実施されてもよい。 Further, the present invention may be embodied in the form of the information processing method includes operations performed by the information processing system and said respective means including the above respective means.

本発明によれば、ユーザ自身の動作に基づいた操作を行って当該ユーザ動作に基づいた処理を行う場合に、ユーザが当該処理結果を好適な状況で見ることが可能となる。 According to the present invention, when performing an operation based on the operation of the user himself performs the processing based on the user operation, the user is able to view the processing results in a suitable situation.

本発明の一実施形態に係るゲームシステム1の一例を示す外観図 External view of an example of a game system 1 according to an embodiment of the present invention 図1のゲーム装置本体5の一例を示す機能ブロック図 Functional block diagram illustrating an example of the game apparatus body 5 in FIG. 1 図1の端末装置6の外観構成の一例を示す図 Diagram showing an example of the external configuration of the terminal device 6 in FIG. 1 ユーザが端末装置6を把持した様子の一例を示す図 Figure user indicates an example of a state holding the terminal device 6 図3の端末装置6の内部構成の一例を示すブロック図 Block diagram showing an example of the internal configuration of the terminal device 6 in FIG. 3 図1のボード型コントローラ9の外観の一例を示す斜視図 Perspective view showing an example of the appearance of the board type controller 9 in FIG. 1 図6に示したボード型コントローラ9のA−A断面図の一例を示すとともに、荷重センサ94が配置された隅の部分が拡大表示された一例を示す図 Shows with an example of the A-A sectional view of a board-type controller 9 shown in FIG. 6, an example in which the portion of the corner where the load sensor 94 is disposed is enlarged 図6のボード型コントローラ9の電気的な構成の一例を示すブロック図 Block diagram showing an example of the electrical configuration of a board-type controller 9 in FIG. 6 端末装置6およびボード型コントローラ9を用いて操作するユーザの様子の一例を示す図 Diagram showing an example of a state of a user operation using the terminal device 6 and the board type controller 9 第1のゲーム例において、端末装置6のLCD61に表示される画像の一例を示す図 In the first game example, illustrates an example of an image displayed on the LCD61 of the terminal device 6 第1のゲーム例において、モニタ2に表示される画像の一例を示す図 In the first game example, illustrates an example of an image displayed on the monitor 2 第1のゲーム例において、図1のゲーム装置本体5のメインメモリに記憶される主なデータおよびプログラムの一例を示す図 In the first game example, illustrates an example of main data and programs stored in the main memory of the game apparatus body 5 in FIG. 1 図1のゲーム装置本体5において実行される第1の実施形態における処理の一例を示すフローチャート Flow chart illustrating an example of processing in the first embodiment executed by the game apparatus body 5 in FIG. 1 図12におけるステップ44のゲーム制御処理の一例を示すサブルーチン Subroutine showing an example of a game control process of step 44 in FIG. 12 図13におけるステップ83のプレイヤオブジェクト設定処理の一例を示すサブルーチン Subroutine showing an example of the player object setting process in step 83 in FIG. 13 図14におけるステップ126のプレイヤオブジェクト動作設定処理の一例を示すサブルーチン Subroutine showing an example of the player object operation setting process in step 126 in FIG. 14 実空間の水平面に投影した実空間基準方向および現方向と仮想世界の水平面に投影した仮想世界基準方向および操作指示方向との関係の一例を説明するための図 Diagram for explaining an example of the relationship between the virtual world reference direction and the operation instruction direction as the real space reference direction and the current direction projected onto the horizontal plane in the real space is projected onto the horizontal plane of the virtual world 実空間の鉛直面に投影した現方向と仮想世界の鉛直面に投影した操作指示方向との関係の一例を説明するための図 Diagram for explaining an example of the relationship between the operation indication direction obtained by projecting the current direction projected on the vertical plane in the real space to the vertical plane of the virtual world 第2のゲーム例において、端末装置6のLCD61に表示される画像の一例を示す図 In the second game example, illustrates an example of an image displayed on the LCD61 of the terminal device 6 第2のゲーム例において、モニタ2に表示される画像の一例を示す図 In the second game example, illustrates an example of an image displayed on the monitor 2 第2のゲーム例において、端末装置6のLCD61に表示される画像の他の例を示す図 In the second game example, illustrates another example of an image displayed on the LCD61 of the terminal device 6 端末装置6の姿勢に応じて仮想カメラの位置および姿勢が変化する一例を説明するための概要図 Schematic diagram for explaining an example of the position and attitude of the virtual camera is changed according to the attitude of the terminal device 6 第2のゲーム例において、ゲーム装置本体5のメインメモリに記憶される主なデータおよびプログラムの一例を示す図 In the second game example, illustrates an example of main data and programs stored in the main memory of the game apparatus body 5 ゲーム装置本体5において実行される第2の実施形態におけるプレイヤオブジェクト設定処理の一例を示すサブルーチン Subroutine showing an example of the player object setting process in the second embodiment executed by the game apparatus body 5 図22におけるステップ165のジャンプ動作設定処理の一例を示すサブルーチン Subroutine showing an example of the jump operation setting process in step 165 in FIG. 22 合計荷重値の変化に対してしゃがみ判定および伸び判定された一例を説明するための図 Diagram for explaining an example of the determination and elongation determined squatting with respect to the change of the total load value 第3のゲーム例において、端末装置6のLCD61に表示される画像の一例を示す図 In the third game example, illustrates an example of an image displayed on the LCD61 of the terminal device 6 第3のゲーム例において、モニタ2に表示される画像の一例を示す図 In the third game example, illustrates an example of an image displayed on the monitor 2 端末装置6の姿勢に応じた第1プレイヤオブジェクトPo1および第2プレイヤオブジェクトPo2の動作の一例を説明するための概要図 Schematic diagram for explaining an example of the operation of the first player object Po1 and second player object Po2 corresponding to the attitude of the terminal device 6 第3のゲーム例において、ゲーム装置本体5のメインメモリに記憶される主なデータおよびプログラムの一例を示す図 In the third game example, illustrates an example of main data and programs stored in the main memory of the game apparatus body 5 ゲーム装置本体5において実行される第3の実施形態におけるプレイヤオブジェクト設定処理の一例を示すサブルーチン Subroutine showing an example of the player object setting process in the third embodiment executed by the game apparatus body 5 図28におけるステップ201の操作指示方向算出処理の一例を示すサブルーチン Subroutine showing an example of an operation instruction direction calculation processing in step 201 in FIG. 28

(第1の実施形態) (First Embodiment)
図1を参照して、本発明の第1の実施形態に係る情報処理プログラムを実行する情報処理装置および当該情報処理装置を含む情報処理システムについて説明する。 Referring to FIG. 1, description will be made of an information processing system including an information processing apparatus and the information processing apparatus executes the information processing program according to the first embodiment of the present invention. 以下、説明を具体的にするために、当該情報処理装置の一例として据置型のゲーム装置本体5を用い、ゲーム装置本体5を含むゲームシステムを用いて説明する。 Hereinafter, in order to give a specific description, using the game apparatus body 5 stationary as an example of the information processing apparatus will be described with reference to a game system including a game apparatus body 5. なお、図1は、据置型のゲーム装置3を含むゲームシステム1の一例を示す外観図である。 Incidentally, FIG. 1 is an external view showing an example of the game system 1 including a stationary game apparatus 3. 図2は、ゲーム装置本体5の一例を示すブロック図である。 Figure 2 is a block diagram showing an example of the game apparatus body 5. 以下、当該ゲームシステム1について説明する。 Hereinafter, the game system 1 will be described.

図1において、ゲームシステム1は、表示手段の一例である家庭用テレビジョン受像機(以下、モニタと記載する)2と、モニタ2に接続コードを介して接続する据置型のゲーム装置3とから構成される。 1, the game system 1 includes a home television receiver is an example of a display unit (hereinafter referred to as a monitor) 2, from the stationary game apparatus 3 connected to the monitor 2 via a connection cord constructed. モニタ2は、ゲーム装置3から出力された音声信号を音声出力するためのスピーカ2aを備える。 The monitor 2 includes a speaker 2a for audio output audio signal outputted from the game apparatus 3. また、ゲーム装置3は、本願発明の情報処理プログラムの一例となるプログラム(例えば、ゲームプログラム)を記録した光ディスク4と、光ディスク4のプログラムを実行してゲーム画面をモニタ2に表示出力させるためのコンピュータを搭載したゲーム装置本体5と、端末装置6と、表示画面に表示されたオブジェクト等を操作するために必要な操作情報をゲーム装置本体5に与えるためのコントローラ7と、ボード型コントローラ9とを含む。 The game device 3, a program which is an example of an information processing program of the present invention (e.g., a game program) and the optical disc 4 for recording, for displaying a game screen on the monitor 2 by executing the program of the optical disc 4 the game apparatus body 5 provided with a computer, a terminal device 6, a controller 7 for giving operation information necessary for manipulating objects or the like displayed on the display screen in the game apparatus body 5, the-board controller 9 including. ゲームシステム1は、端末装置6、コントローラ7、およびボード型コントローラ9の少なくとも1つを用いたゲーム操作に基づいて、ゲーム装置本体5においてゲーム処理を実行し、ゲーム処理によって得られるゲーム画像をモニタ2および/または端末装置6に表示するものである。 The game system 1 includes a monitor terminal device 6, the controller 7, and based on at least one of a game operation using the board type controller 9 executes a game process by the game apparatus body 5, a game image obtained by the game process it is intended to be displayed on the 2 and / or the terminal device 6. なお、ゲーム装置本体5と端末装置6、コントローラ7、およびボード型コントローラ9とは、無線によって無線通信可能に接続される。 The game apparatus body 5 and the terminal device 6, the controller 7 and the board type controller 9, is wirelessly communicably connected by the wireless. 例えば、上記無線通信は、Bluetooth(登録商標)規格やIEEE802.11n規格に従って実行されるが、赤外線など他の規格に従って実行されてもよい。 For example, the wireless communication is executed according to Bluetooth (registered trademark) standard and IEEE802.11n standards, it may be executed by other standards such as infrared.

ゲーム装置本体5には、当該ゲーム装置本体5に対して交換可能に用いられる情報記憶媒体の一例である光ディスク4が脱着可能に挿入される。 The game apparatus body 5, the optical disc 4 typifying an information storage medium exchangeably used for the game apparatus body 5, is detachably inserted. 光ディスク4には、ゲーム装置本体5において実行されるための情報処理プログラム(典型的にはゲームプログラム)が記憶されている。 The optical disk 4, an information processing program to be executed by the game apparatus body 5 (typically a game program) is stored. ゲーム装置本体5の前面には、光ディスク4の挿入口が設けられている。 On the front surface of the game apparatus body 5, the insertion opening of the optical disc 4 is provided. ゲーム装置本体5は、挿入口に挿入された光ディスク4に記憶されている情報処理プログラムを読み出して実行することによってゲーム処理を実行する。 The game apparatus body 5 executes the game processing by reading and executing the information processing program stored in the optical disc 4 which is inserted into the insertion slot.

ゲーム装置本体5には、モニタ2が接続コードを介して接続される。 The game apparatus body 5, the monitor 2 is connected via a connection cord. モニタ2は、ゲーム装置本体5において実行されるゲーム処理によって得られるゲーム画像を表示する。 The monitor 2 displays a game image obtained by the game processing executed by the game apparatus body 5. モニタ2はスピーカ2aを有しており、スピーカ2aは、上記ゲーム処理の結果得られるゲーム音声を出力する。 Monitor 2 has a speaker 2a, the speaker 2a outputs a game sound obtained as a result of the game process. なお、他の実施形態においては、ゲーム装置本体5と据置型の表示装置とは一体となっていてもよい。 Note that in other embodiments, may be integrated to the game apparatus body 5 and the stationary display device. また、ゲーム装置本体5とモニタ2との通信は無線通信であってもよい。 The communication with the game apparatus body 5 and the monitor 2 may be wireless communication.

ゲーム装置本体5には、セーブデータ等のデータを固定的に記憶するバックアップメモリとして機能するフラッシュメモリ17(図2参照)が搭載される。 The game apparatus body 5, the flash memory 17 (see FIG. 2) is mounted that acts as a backup memory for fixedly storing saved data or the like. ゲーム装置本体5は、光ディスク4に記憶されたゲームプログラム等を実行することによって、その結果をゲーム画像としてモニタ2および/または端末装置6に表示する。 The game apparatus body 5 executes the game program stored on the optical disc 4, and displays the result as a game image on the monitor 2 and / or the terminal device 6. ゲームプログラム等は、光ディスク4に限らず、フラッシュメモリ17に予め記録されたものを実行するようにしてもよい。 Game program and the like is not limited to the optical disc 4, may be executed what has been previously recorded in the flash memory 17. また、ゲーム装置本体5は、フラッシュメモリ17に記憶されたセーブデータを用いて、過去に実行されたゲーム状態を再現して、ゲーム画像をモニタ2および/または端末装置6に表示することもできる。 The game apparatus body 5 can use the save data stored in the flash memory 17, to reproduce a game state which was executed in the past, also display the game image on the monitor 2 and / or the terminal device 6 . そして、ゲーム装置3のユーザは、モニタ2および/または端末装置6に表示されたゲーム画像を見ながら、端末装置6、コントローラ7、およびボード型コントローラ9の少なくとも1つを操作することによって、ゲーム進行を楽しむことができる。 Then, the user of the game apparatus 3, while watching the game image displayed on the monitor 2 and / or the terminal device 6, by operating at least one of the terminal device 6, the controller 7 and the board type controller 9, the game it is possible to enjoy the progress.

コントローラ7およびボード型コントローラ9は、コントローラ通信モジュール19を内蔵するゲーム装置本体5へ、例えばBluetoothの技術を用いて操作情報等の送信データをそれぞれ無線送信する。 Controller 7 and the board type controller 9, to the game apparatus body 5 incorporating a controller communication module 19, for example, each wirelessly transmits transmission data such as operation information using Bluetooth technology. コントローラ7は、主にモニタ2の表示画面に表示された選択肢の選択等をするための操作手段である。 The controller 7 is operation means for mainly selection of options displayed on the display screen of the monitor 2 or the like. コントローラ7は、片手で把持可能な程度の大きさのハウジングと、当該ハウジングの表面に露出して設けられた複数個の操作ボタン(十字キー等を含む)とが設けられている。 The controller 7 has a magnitude level of the housing grippable, a plurality of operation buttons exposed provided on the surface of the housing (including a cross key or the like) is provided with one hand. また、後述により明らかとなるが、コントローラ7は、コントローラ7から見た画像を撮像する撮像情報演算部を備えている。 Also, will become apparent by later, the controller 7 includes an imaging information calculation unit for taking an image viewed from the controller 7. そして、撮像情報演算部の撮像対象の一例として、モニタ2の表示画面近傍(図1では画面の上側)に2つのLEDモジュール(以下、マーカと記載する)8Lおよび8Rが設置される。 Then, as an example of an imaging target of the imaging information calculation section, the two LED modules in the vicinity of the display screen of the monitor 2 (upper side of the screen in FIG. 1) (hereinafter referred to as markers) 8L and 8R are provided. 詳細は後述するが、ユーザ(プレイヤ)は、コントローラ7を動かすゲーム操作を行うことができ、マーカ8は、コントローラ7の動きや位置や姿勢等をゲーム装置本体5が算出するために用いられる。 As will be described in detail later, the user (player) can perform a game operation of moving the controller 7, the marker 8 may be used to the movement and position and attitude of the controller 7 game apparatus body 5 calculates. マーカ8は、その両端に2つのマーカ8Lおよび8Rを備えている。 Marker 8 is provided with two markers 8L and 8R at both ends thereof. マーカ8R(マーカ8Lも同様)は、具体的には1以上の赤外LED(Light Emitting Diode)であり、モニタ2の前方に向かって赤外光を出力する。 Marker 8R (the markers 8L as well) is specifically composed of one or more infrared LED (Light Emitting Diode), and outputs infrared light forward from the monitor 2. マーカ8はゲーム装置本体5に接続されており、ゲーム装置本体5はマーカ8が備える各赤外LEDの点灯を制御することが可能である。 Marker 8 is connected to the game apparatus body 5, the game apparatus body 5 is capable of controlling lighting of each infrared LED of the marker 8. なお、マーカ8は可搬型であり、ユーザはマーカ8を自由な位置に設置することができる。 Incidentally, the marker 8 is portable, the user can install the marker 8 to the free position. 図1ではマーカ8がモニタ2の上に設置された態様を表しているが、マーカ8を設置する位置および向きは任意である。 Marker 8 in FIG. 1 represents the installed manner on the monitor 2, but the position and orientation placing the marker 8 is optional. また、コントローラ7は、ゲーム装置本体5のコントローラ通信モジュール19から無線送信された送信データを通信部で受信して、当該送信データに応じた音や振動を発生させることもできる。 The controller 7 receives the transmission data which is wirelessly transmitted from the controller communication module 19 of the game apparatus body 5 by the communication unit, it is also possible to generate a sound or vibration based on the transmission data.

なお、他の実施形態においてはコントローラ7および/またはボード型コントローラ9とゲーム装置本体5とは有線で接続されてもよい。 It may be connected by wire to the controller 7 and / or board type controller 9 and the game apparatus body 5 in other embodiments. また、本実施形態では、ゲームシステム1に含まれるコントローラ7およびボード型コントローラ9はそれぞれ1つとするが、ゲーム装置本体5は複数のコントローラ7および複数のボード型コントローラ9と通信可能であり、所定台数のコントローラ7およびボード型コントローラ9をそれぞれ同時に使用することによって複数人でゲームをプレイすることが可能である。 Further, in the present embodiment, the controller 7 and the board type controller 9 included in the game system 1 with one each, but the game apparatus body 5 can communicate with a plurality of controllers 7 and a plurality of board-type controller 9, a predetermined it is possible to play a game a plurality of people by using simultaneously the number of the controller 7 and the board type controller 9, respectively.

コントローラ7は、例えばプラスチック成型によって形成されたハウジングを有しており、当該ハウジングに複数の操作部(操作ボタン)が設けられている。 The controller 7 includes a housing formed by plastic molding, a plurality of operation portions in the housing (operation buttons) are provided. そして、コントローラ7は、操作部に対する入力状態(各操作ボタンが押下されたか否か)を示す操作データをゲーム装置本体5に送信する。 Then, the controller 7 transmits operation data representing an input state of the operation unit (whether the operation button is pressed) to the game apparatus body 5.

また、コントローラ7は、撮像手段が撮像した画像データを解析してその中で輝度が高い領域を判別することによってその領域の重心位置やサイズなどを算出する撮像情報演算部を有している。 Further, the controller 7, the imaging means has an imaging information calculation section for calculating the centroid and the size the area by determining an area higher luminance therein by analyzing the captured image data. 例えば、撮像情報演算部は、コントローラ7のハウジングに固設された撮像手段を有し、端末装置6のマーカ部65および/またはマーカ8等の赤外光を出力するマーカを撮像対象としている。 For example, the imaging information calculation section includes an imaging means which is fixed to the housing of the controller 7, are imaged marker for outputting infrared light such marker section 65 and / or the marker 8 of the terminal device 6. そして、撮像情報演算部は、撮像手段が撮像した撮像画像内における撮像対象の位置を算出し、算出された位置を示すマーカ座標データをゲーム装置本体5に送信する。 The imaging information calculation section calculates the position of the imaging target in the taken image by the imaging means has captured, it transmits the marker coordinate data representing the calculated position to the game apparatus body 5. このマーカ座標データは、コントローラ7自体の向き(傾斜角度)や位置に対応して変化するので、ゲーム装置本体5はこのマーカ座標データを用いてコントローラ7の向きや位置を算出することができる。 The marker coordinate data, since changes in accordance with the direction (inclination angle) and the position of the controller 7 itself, the game apparatus body 5 can calculate the direction or position of the controller 7 using the marker coordinate data.

さらに、コントローラ7は、加速度センサおよび/またはジャイロセンサを内蔵している。 Furthermore, the controller 7 incorporates an acceleration sensor and / or a gyro sensor. 加速度センサは、コントローラ7に生じる加速度(重力加速度を含む)を検出し、検出した加速度を示す加速度データをゲーム装置本体5に送信する。 The acceleration sensor detects an acceleration (including a gravitational acceleration) generated in the controller 7, it transmits the acceleration data indicating the detected acceleration to the game apparatus body 5. 加速度センサが検出した加速度は、コントローラ7自体の向き(傾斜角度)や動きに対応して変化するので、ゲーム装置本体5は取得された加速度データを用いてコントローラ7の向きや動きを算出することができる。 Acceleration acceleration sensor is detected, because changes in response to the controller 7 itself orientation (inclination angle) and movement, the game apparatus body 5 to calculate the orientation and movement of the controller 7 using the acceleration data acquired can. ジャイロセンサは、コントローラ7に設定された3軸回りの角速度をそれぞれ検出し、検出した角速度を示す角速度データをゲーム装置本体5に送信する。 Gyroscopes, set 3 about the axis of the angular velocity respectively detected in the controller 7, it transmits the angular velocity data indicating the detected angular velocity to the game apparatus body 5. ジャイロセンサが検出した角速度は、コントローラ7自体の向き(傾斜角度)や動きに対応して変化するので、ゲーム装置本体5は取得された角速度データを用いてコントローラ7の向きや動きを算出することができる。 Angular velocity gyro sensor is detected, because changes in response to the controller 7 itself orientation (inclination angle) and movement, the game apparatus body 5 to calculate the orientation and movement of the controller 7 by using the angular velocity data acquired can. このように、ユーザは、コントローラ7に設けられた操作部を押下すること、およびコントローラ7自体を動かしてその位置や姿勢(傾き)を変えることによってゲーム操作を行うことができる。 Thus, the user can perform a game operation by changing pressing an operation unit provided in the controller 7, and its position and orientation by moving the controller 7 itself (slope).

コントローラ7には、スピーカおよびバイブレータが設けられている。 The controller 7, a speaker and a vibrator is provided. コントローラ7は、ゲーム装置本体5から送信されたサウンドデータを処理し、当該サウンドデータに応じた音声をスピーカから出力させる。 The controller 7 processes the sound data transmitted from the game apparatus body 5, and outputs sounds corresponding to the sound data from the speaker. また、コントローラ7は、ゲーム装置本体5から送信された振動データを処理し、当該振動データに応じてバイブレータを作動させて振動を発生させる。 Further, the controller 7 processes the vibration data transmitted from the game apparatus body 5, to generate vibrations by actuating the vibrator in accordance with the vibration data. なお、後述する本発明の実施形態においては、コントローラ7を用いることなくゲームをプレイすることが可能である。 In the embodiment of the present invention to be described later, it is possible to play the game without using the controller 7. ボード型コントローラ9の詳細な構成については後述する。 Later detailed configuration of the board-type controller 9.

端末装置6は、ユーザが把持可能な程度の大きさであり、ユーザは端末装置6を手に持って動かしたり、あるいは、端末装置6を自由な位置に配置したりして使用することが可能な可搬型の装置である。 The terminal device 6 is large enough user can grip, the user or move in his hand the terminal device 6, or may be used as or to place the terminal device 6 in any position such a device portable. 詳細な構成は後述するが、端末装置6は、表示手段であるLCD(Liquid Crystal Display:液晶表示装置)61、および入力手段(後述するタッチパネル62やジャイロセンサ604等)を備える。 Detailed configuration will be described later, the terminal device 6, a display unit LCD: comprises (Liquid Crystal Display) 61, and an input unit (such as a touch panel 62, a gyro sensor 604 to be described later). 端末装置6とゲーム装置本体5(端末通信モジュール28(図2参照))とは無線(有線であってもよい)によって通信可能である。 The terminal device 6 and the game apparatus body 5 (terminal communication module 28 (see FIG. 2)) which can communicate by radio (may be wired). 端末装置6は、ゲーム装置本体5で生成された画像(例えばゲーム画像)のデータをゲーム装置本体5から受信し、当該データが示す画像をLCD61に表示する。 Terminal device 6 receives the data of the game device an image generated by the body 5 (for example, a game image) from the game apparatus body 5 displays the image in which the data is shown in LCD 61. なお、本実施形態では表示装置としてLCDを用いているが、端末装置6は、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を有していてもよい。 Incidentally, in the present embodiment an LCD is used as a display device, the terminal device 6, for example, EL: display device or the like using a (Electro Luminescence) may have any other display device . また、端末装置6は、端末通信モジュール28を内蔵するゲーム装置本体5へ、自機に対して行われた操作の内容を表す操作データを送信する。 The terminal device 6, to the game apparatus body 5 incorporating the terminal communication module 28 transmits operation data representing the content of an operation performed on the ship.

次に、図2を参照して、ゲーム装置本体5の内部構成について説明する。 Next, with reference to FIG. 2, the internal configuration of the game apparatus body 5. 図2は、ゲーム装置本体5の構成の一例を示すブロック図である。 Figure 2 is a block diagram showing an example of the configuration of the game apparatus body 5. ゲーム装置本体5は、CPU(Central Processing Unit)10、システムLSI(Large Scale Integration)11、外部メインメモリ12、ROM/RTC(Read Only Memory/Real Time Clock)13、ディスクドライブ14、およびAV−IC(Audio Video−Integrated Circuit)15等を有する。 The game apparatus body 5, CPU (Central Processing Unit) 10, a system LSI (Large Scale Integration) 11, an external main memory 12, ROM / RTC (Read Only Memory / Real Time Clock) 13, disk drive 14, and AV-IC having (Audio Video-Integrated Circuit) 15 or the like.

CPU10は、光ディスク4に記憶されたプログラムを実行することによって処理を実行するものであり、ゲームプロセッサとして機能する。 CPU10 is for executing the processing by executing a program stored in the optical disc 4, and functions as a game processor. CPU10は、システムLSI11に接続される。 CPU10 is connected to the system LSI 11. システムLSI11には、CPU10の他、外部メインメモリ12、ROM/RTC13、ディスクドライブ14、およびAV−IC15が接続される。 The system LSI 11, other CPU 10, the external main memory 12, ROM / RTC 13, disc drive 14, and AV-IC 15 are connected. システムLSI11は、それに接続される各構成要素間のデータ転送の制御、表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。 System LSI11, the control of data transfer between the elements, the generation of an image to be displayed, and acquisition of data from an external apparatus connected thereto. なお、システムLSI11の内部構成については、後述する。 Incidentally, the internal configuration of the system LSI11 will be described later. 揮発性の外部メインメモリ12は、光ディスク4から読み出されたプログラムや、フラッシュメモリ17から読み出されたプログラムを記憶したり、各種データを記憶したりするものであり、CPU10のワーク領域やバッファ領域として用いられる。 The volatile external main memory 12, a program and read from the optical disc 4, and stores the program read from the flash memory 17 is intended to stores various data, CPU 10 of the work area and a buffer used as an area. ROM/RTC13は、ゲーム装置本体5の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC)とを有する。 ROM / RTC 13 includes a ROM (so-called boot ROM) that the game apparatus body 5 incorporating a program for booting, and a clock circuit for counting time (RTC). ディスクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出し、後述する内部メインメモリ35または外部メインメモリ12に読み出したデータを書き込む。 The disc drive 14 reads program data and texture data from the optical disc 4, and writes the read data into an internal main memory 35 or the external main memory 12 will be described later.

システムLSI11には、入出力プロセッサ(I/Oプロセッサ)31、GPU(Graphics Processor Unit)32、DSP(Digital Signal Processor)33、VRAM(Video RAM)34、および内部メインメモリ35が設けられる。 The system LSI 11, input-output processor (I / O processor) 31, GPU (Graphics Processor Unit) 32, DSP (Digital Signal Processor) 33, VRAM (Video RAM) 34, and the internal main memory 35, is provided. 図示は省略するが、これらの構成要素31〜35は、内部バスによって互いに接続される。 Although not shown, these components 31 to 35 are connected to each other via an internal bus.

GPU32は、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(作画命令)に従って画像を生成する。 GPU32, which is a part of rendering means, generates an image in accordance with a graphics command from the CPU 10 (draw command). VRAM34は、GPU32がグラフィクスコマンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)を記憶する。 VRAM34 is, GPU 32 stores data (data such as polygon data and texture data) necessary for executing the graphics command. 画像が生成される際には、GPU32は、VRAM34に記憶されたデータを用いて画像データを作成する。 When an image is generated, the GPU 32 creates the image data by using the data stored in the VRAM 34. なお、本実施形態においては、ゲーム装置本体5は、モニタ2に表示するゲーム画像と、端末装置6に表示するゲーム画像との両方を生成することがある。 In the present embodiment, the game apparatus body 5 may generate the game image displayed on the monitor 2, both the game image to be displayed on the terminal device 6. 以下では、モニタ2に表示されるゲーム画像を「モニタ用ゲーム画像」と呼び、端末装置6に表示されるゲーム画像を「端末用ゲーム画像」と呼ぶことがある。 Hereinafter, the game image displayed on the monitor 2 may be referred to as a "monitor game image", the game image displayed on the terminal device 6 may be referred to as a "terminal game image".

DSP33は、オーディオプロセッサとして機能し、内部メインメモリ35や外部メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。 DSP33 functions as an audio processor, sound data and sound waveform stored in the internal main memory 35 or the external main memory 12 (tone quality) data using, generates audio data. なお、本実施形態においては、ゲーム音声についてもゲーム画像と同様、モニタ2のスピーカ2aから出力するゲーム音声と、端末装置6のスピーカから出力するゲーム音声との両方が生成されることがある。 In the present embodiment, similarly to the game image also game sound, sometimes both the game sound output from the speaker 2a of the monitor 2, the game sound output from the speaker of the terminal device 6 is generated. 以下では、モニタ2から出力されるゲーム音声を「モニタ用ゲーム音声」と呼び、端末装置6から出力されるゲーム音声を「端末用ゲーム音声」と呼ぶことがある。 Hereinafter, the game sound output from the monitor 2 may be referred to as a "monitor game audio", the game sound output from the terminal device 6 may be referred to as a "terminal game sound".

上記のようにゲーム装置本体5において生成される画像および音声のうち、モニタ2に出力される画像データおよび音声のデータは、AV−IC15によって読み出される。 Among the images and sounds generated by the game apparatus body 5 as described above, the image data and audio data is output to the monitor 2 are read by the AV-IC 15. AV−IC15は、AVコネクタ16を介して、読み出した画像データをモニタ2に出力するとともに、読み出した音声データをモニタ2に内蔵されるスピーカ2aに出力する。 AV-IC 15, via an AV connector 16, and outputs the read image data to the monitor 2, and outputs to the speaker 2a built the read audio data to the monitor 2. これによって、モニタ2に画像が表示されるとともにスピーカ2aから音が出力される。 Thus, the sound from the speaker 2a an image is displayed on the monitor 2 is output.

また、ゲーム装置本体5において生成される画像および音声のうち、端末装置6に出力される画像データおよび音声のデータは、入出力プロセッサ31等によって端末装置6へ送信される。 Also, among the images and sounds generated by the game apparatus body 5, image data and audio data is output to the terminal device 6 is transmitted to the terminal device 6 by the input-output processor 31 and the like. 入出力プロセッサ31等による端末装置6へのデータの送信については後述する。 It will be described later transmission of data to the terminal device 6 by the input-output processor 31 and the like.

入出力プロセッサ31は、それに接続される構成要素との間でデータの送受信を実行したり、外部装置からのデータのダウンロードを実行したりする。 Input-output processor 31 executes transmission and reception of data between the components connected thereto, or downloads data from an external device. 入出力プロセッサ31は、フラッシュメモリ17、ネットワーク通信モジュール18、コントローラ通信モジュール19、拡張コネクタ20、メモリカード用コネクタ21、コーデックLSI27に接続される。 Input-output processor 31, a flash memory 17, a network communication module 18, a controller communication module 19, an extension connector 20, a memory card connector 21 are connected to the codec LSI 27. また、ネットワーク通信モジュール18にはアンテナ22が接続される。 Also, the network communication module 18 antenna 22 is connected. コントローラ通信モジュール19にはアンテナ23が接続される。 Antenna 23 is connected to the controller communication module 19. コーデックLSI27は端末通信モジュール28に接続され、端末通信モジュール28にはアンテナ29が接続される。 Codec LSI27 is connected to the terminal communication module 28, an antenna 29 is connected to the terminal communication module 28.

ゲーム装置本体5は、インターネット等のネットワークに接続して外部情報処理装置(例えば他のゲーム装置や、各種サーバ等)と通信を行うことが可能である。 The game apparatus body 5, the external information processing apparatus connected to a network such as the Internet (for example, other game device, various servers, etc.) that it is possible to perform communication. すなわち、入出力プロセッサ31は、ネットワーク通信モジュール18およびアンテナ22を介してネットワークに接続し、ネットワークに接続される外部情報処理装置と通信することができる。 That is, the input-output processor 31 is connected to a network via the network communication module 18 and the antenna 22 can communicate with external information processing apparatus connected to the network. 入出力プロセッサ31は、定期的にフラッシュメモリ17にアクセスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データがある場合には、ネットワーク通信モジュール18およびアンテナ22を介して当該データをネットワークに送信する。 Input-output processor 31 periodically accesses the flash memory 17, when detecting the presence or absence of data that needs to be transmitted to the network, there is the data, the data via the network communication module 18 and the antenna 22 and it transmits to the network. また、入出力プロセッサ31は、外部情報処理装置から送信されてくるデータやダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22、およびネットワーク通信モジュール18を介して受信し、受信したデータをフラッシュメモリ17に記憶する。 Furthermore, the input-output processor 31, the data or data downloaded from a download server transmitted from the external information processing apparatus, the network, the antenna 22, and received via the network communication module 18, the received data flash memory 17 and stores it in. CPU10は、プログラムを実行することにより、フラッシュメモリ17に記憶されたデータを読み出してプログラムで利用する。 CPU10 executes the program, utilized in reading out the program data stored in the flash memory 17. フラッシュメモリ17には、ゲーム装置本体5と外部情報処理装置との間で送受信されるデータの他、ゲーム装置本体5を利用してプレイしたゲームのセーブデータ(処理の結果データまたは途中データ)が記憶されてもよい。 The flash memory 17, other data transmitted and received between the game apparatus body 5 and the external information processing device, game device game save data is played using the body 5 (result data or proceeding data of the process) it may be stored. また、フラッシュメモリ17には、ゲームプログラム等のプログラムが記憶されてもよい。 Further, the flash memory 17, a program such as a game program may be stored.

また、ゲーム装置本体5は、コントローラ7および/またはボード型コントローラ9からの操作データを受信することが可能である。 The game apparatus body 5, it is possible to receive the operation data from the controller 7 and / or board type controller 9. すなわち、入出力プロセッサ31は、アンテナ23およびコントローラ通信モジュール19を介して、コントローラ7および/またはボード型コントローラ9から送信される操作データ等を受信し、内部メインメモリ35または外部メインメモリ12のバッファ領域に記憶(一時記憶)する。 That is, the input-output processor 31 receives, via the antenna 23 and the controller communication module 19 receives the operation data or the like transmitted from the controller 7 and / or board type controller 9, the buffer of the internal main memory 35 or the external main memory 12 storage (temporarily) in the area. なお、内部メインメモリ35には、外部メインメモリ12と同様に、光ディスク4から読み出されたプログラムや、フラッシュメモリ17から読み出されたプログラムを記憶したり、各種データを記憶したりしてもよく、CPU10のワーク領域やバッファ領域として用いられてもかまわない。 Note that the internal main memory 35, as with the external main memory 12, a program and read from the optical disc 4, and stores the program read from the flash memory 17, even if stores various data well, and it may be used as CPU10 a work area and a buffer area.

また、ゲーム装置本体5は、端末装置6との間で画像や音声等のデータを送受信することが可能である。 The game apparatus body 5 is capable of transmitting and receiving data such as images and audio with the terminal device 6. 入出力プロセッサ31は、端末装置6へゲーム画像(端末用ゲーム画像)を送信する場合、GPU32が生成したゲーム画像のデータをコーデックLSI27へ出力する。 Input-output processor 31, when transmitting the game image to the terminal device 6 (terminal game image), and outputs the data of the game image GPU32 has generated to the codec LSI 27. コーデックLSI27は、入出力プロセッサ31からの画像データに対して所定の圧縮処理を行う。 Codec LSI27 performs predetermined compression processing on the image data from the input-output processor 31. 端末通信モジュール28は、端末装置6との間で無線通信を行う。 Terminal communication module 28 performs wireless communication between the terminal device 6. したがって、コーデックLSI27によって圧縮された画像データは、端末通信モジュール28によってアンテナ29を介して端末装置6へ送信される。 Thus, the image data compressed by the codec LSI27 is transmitted to the terminal device 6 via the antenna 29 by the terminal communication module 28. なお、本実施形態では、ゲーム装置本体5から端末装置6へ送信される画像データはゲームに用いるものであり、ゲームにおいては表示される画像に遅延が生じるとゲームの操作性に悪影響が出る。 In the present embodiment, the image data transmitted from the game apparatus body 5 to the terminal device 6 is intended to be used in the game, adverse effect on the game operability when the delay in the image to be displayed occurs in the game. そのため、ゲーム装置本体5から端末装置6への画像データの送信に関しては、できるだけ遅延が生じないようにすることが好ましい。 Therefore, with respect to the transmission of image data from the game apparatus body 5 to the terminal device 6, it is preferable that as much as possible the delay does not occur. したがって、本実施形態では、コーデックLSI27は、例えばH. Therefore, in the present embodiment, the codec LSI27, for example H. 264規格といった高効率の圧縮技術を用いて画像データを圧縮する。 Compressing the image data using a high efficiency compression technology such as H.264 standard. なお、それ以外の圧縮技術を用いてもよいし、通信速度が十分である場合には無圧縮で画像データを送信する構成であってもよい。 Incidentally, it may be used other compression techniques, when the communication speed is sufficient may be configured to transmit the image data without compression. また、端末通信モジュール28は、例えばWi−Fiの認証を受けた通信モジュールであり、例えばIEEE802.11n規格で採用されるMIMO(Multiple Input Multiple Output)の技術を用いて端末装置6との間の無線通信を高速に行うようにしてもよいし、他の通信方式を用いてもよい。 The terminal communication module 28 is, for example, a communication module certified Wi-Fi, a between the terminal device 6 by using the technology of MIMO (Multiple Input Multiple Output) is employed for example, in IEEE802.11n standard it wireless communication may be performed at high speed, or may use other communication methods.

また、ゲーム装置本体5は、画像データの他、音声データを端末装置6へ送信する。 The game apparatus body 5, other image data, transmits the voice data to the terminal device 6. すなわち、入出力プロセッサ31は、DSP33が生成した音声データを、コーデックLSI27を介して端末通信モジュール28へ出力する。 That is, the input-output processor 31, the audio data DSP33 has generated, is output via the codec LSI27 to the terminal communication module 28. コーデックLSI27は、音声データに対しても画像データと同様に圧縮処理を行う。 Codec LSI27 performs a compression process similar to the image data with respect to audio data. 音声データに対する圧縮の方式は、どのような方式であってもよいが、圧縮率が高く、音声の劣化が少ない方式が好ましい。 Method of compression for audio data, any method may be, but the compression ratio is high, preferably less system deterioration of speech. また、他の実施形態においては、音声データは圧縮されずに送信されてもよい。 Also, in other embodiments, the audio data may be transmitted without being compressed. 端末通信モジュール28は、圧縮された画像データおよび音声データを、アンテナ29を介して端末装置6へ送信する。 Terminal communication module 28, the compressed image data and sound data, and transmits to the terminal device 6 via the antenna 29.

さらに、ゲーム装置本体5は、上記画像データおよび音声データの他に、必要に応じて各種の制御データを端末装置6へ送信する。 Further, the game apparatus body 5, in addition to the image data and audio data, and transmits various control data to the terminal device 6 if necessary. 制御データは、端末装置6が備える構成要素に対する制御指示を表すデータであり、例えばマーカ部(図5に示すマーカ部65)の点灯を制御する指示や、カメラ(図5に示すカメラ66)の撮像を制御する指示等を表す。 Control data is data representing the control instruction for the component terminal device 6 is provided, for example, instructions and to control the lighting of the marker section (marker section 65 shown in FIG. 5), the camera (camera 66 shown in FIG. 5) It represents an instruction for controlling the imaging. 入出力プロセッサ31は、CPU10の指示に応じて制御データを端末装置6へ送信する。 Input-output processor 31 transmits the control data in accordance with the CPU10 of the instruction to the terminal device 6. なお、この制御データに関して、本実施形態ではコーデックLSI27はデータの圧縮処理を行わないが、他の実施形態においては圧縮処理を行うようにしてもよい。 Regarding the control data, the codec LSI27 in this embodiment does not perform compression processing of the data, it may be performed a compression process in other embodiments. なお、ゲーム装置本体5から端末装置6へ送信される上述のデータは、必要に応じて暗号化がされていてもよいし、されていなくてもよい。 Incidentally, the above-described data transmitted from the game apparatus body 5 to the terminal device 6 may be encrypted if necessary, may not be.

また、ゲーム装置本体5は、端末装置6から各種データを受信可能である。 The game apparatus body 5 is capable of receiving various data from the terminal device 6. 詳細は後述するが、本実施形態では、端末装置6は、操作データ、画像データ、および音声データを送信する。 Although details will be described later, in the present embodiment, the terminal device 6 transmits the operation data, image data, and audio data. 端末装置6から送信される各データは、アンテナ29を介して端末通信モジュール28によって受信される。 Each data transmitted from the terminal device 6 is received by the terminal communication module 28 via the antenna 29. ここで、端末装置6からの画像データおよび音声データは、ゲーム装置本体5から端末装置6への画像データおよび音声データと同様の圧縮処理が施されている。 Here, the image data and audio data from the terminal device 6, the same compression processing and image data and audio data from the game apparatus body 5 to the terminal device 6 is applied. したがって、これら画像データおよび音声データについては、端末通信モジュール28からコーデックLSI27に送られ、コーデックLSI27によって伸張処理が施されて入出力プロセッサ31に出力される。 Therefore, for these image data and audio data, transmitted from the terminal communication module 28 to the codec LSI 27, expansion processing by the codec LSI 27 is output to the input-output processor 31 is given. 一方、端末装置6からの操作データに関しては、画像や音声に比べてデータ量が少ないので、圧縮処理が施されていなくともよい。 On the other hand, as for the operation data from the terminal device 6, since the small amount of data compared to the image and audio compression process it may not have been subjected. また、必要に応じて暗号化がされていてもよいし、されていなくてもよい。 Further, it may be encrypted as required, it may not be. したがって、操作データは、端末通信モジュール28で受信された後、コーデックLSI27を介して入出力プロセッサ31に出力される。 Therefore, the operation data are received by the terminal communication module 28, and output to the input-output processor 31 via the codec LSI 27. 入出力プロセッサ31は、端末装置6から受信したデータを、内部メインメモリ35または外部メインメモリ12のバッファ領域に記憶(一時記憶)する。 Input-output processor 31, the data received from the terminal device 6, stored in the buffer area of ​​the internal main memory 35 or the external main memory 12 (temporary storage) to.

また、ゲーム装置本体5は、他の機器や外部記憶媒体に接続することが可能である。 The game apparatus body 5 can be connected to other devices or external storage medium. すなわち、入出力プロセッサ31には、拡張コネクタ20およびメモリカード用コネクタ21が接続される。 That is, the input-output processor 31 is connected to the extension connector 20 and the memory card connector 21 are connected. 拡張コネクタ20は、USBやSCSIのようなインタフェースのためのコネクタであり、外部記憶媒体のようなメディアを接続したり、他のコントローラのような周辺機器を接続したり、有線の通信用コネクタを接続することによってネットワーク通信モジュール18に替えてネットワークとの通信を行ったりすることができる。 Extension connector 20 is a connector for interfaces, such as USB and SCSI, and is connected to a medium such as an external storage medium, or to connect a peripheral device such as another controller, a wired communication connector or it can communicate with the network instead of the network communication module 18 by connections. メモリカード用コネクタ21は、メモリカードのような外部記憶媒体を接続するためのコネクタである。 Memory card connector 21 is a connector for connecting an external storage medium such as a memory card. 例えば、入出力プロセッサ31は、拡張コネクタ20やメモリカード用コネクタ21を介して、外部記憶媒体にアクセスし、データを保存したり、データを読み出したりすることができる。 For example, the input-output processor 31 via the extension connector 20 or the memory card connector 21, accesses the external storage medium to store data, or reads data.

ゲーム装置本体5(例えば、前部主面)には、電源ボタン24、リセットボタン25、光ディスク4を脱着する投入口、およびゲーム装置本体5の投入口から光ディスク4を取り出すイジェクトボタン26等が設けられている。 Game apparatus body 5 (for example, on the front main surface), the power button 24, a reset button 25, inlet desorbing the optical disc 4, and a game apparatus eject button 26 takes out the optical disk 4 from the inlet of the main body 5 or the like is provided It is. 電源ボタン24およびリセットボタン25は、システムLSI11に接続される。 The power button 24 and the reset button 25 are connected to the system LSI 11. 電源ボタン24がオンされると、ゲーム装置本体5の各構成要素に対して電力が供給される。 When the power button 24 is turned on, power is supplied to each component of the game apparatus body 5. リセットボタン25が押されると、システムLSI11は、ゲーム装置本体5の起動プログラムを再起動する。 When the reset button 25 is pressed, the system LSI11 restarts the activation program of the game apparatus body 5. イジェクトボタン26は、ディスクドライブ14に接続される。 The eject button 26 is connected to the disk drive 14. イジェクトボタン26が押されると、ディスクドライブ14から光ディスク4が排出される。 When the eject button 26 is pressed, the optical disc 4 is ejected from the disc drive 14.

なお、他の実施形態においては、ゲーム装置本体5が備える各構成要素のうちでいくつかの構成要素は、ゲーム装置本体5とは別体の拡張機器として構成されてもよい。 Note that in other embodiments, some components among the components included in the game apparatus body 5, the game apparatus body 5 may be constructed as a separate extension device. このとき、拡張機器は、例えば拡張コネクタ20を介してゲーム装置本体5と接続されるようにしてもよい。 At this time, expansion device, for example, may be connected with the game apparatus body 5 via the extension connector 20. 具体的には、拡張機器は、例えばコーデックLSI27、端末通信モジュール28、およびアンテナ29の各構成要素を備えており、拡張コネクタ20に対して着脱可能であってもよい。 Specifically, expansion device, for example the codec LSI 27, the terminal communication module 28, and includes the components of the antenna 29 may be detachable from the expansion connector 20. これによれば、上記各構成要素を備えていないゲーム装置本体に対して上記拡張機器を接続することによって、当該ゲーム装置本体を端末装置6と通信可能な構成とすることができる。 According to this, by connecting the extension device to the game apparatus body which is not provided with the above components, it is possible to make the game apparatus main body and capable of communicating configuration as the terminal device 6.

次に、図3〜図5を参照して、端末装置6の構成について説明する。 Next, with reference to FIGS. 3 to 5, the configuration of the terminal device 6. なお、図3は、端末装置6の外観構成の一例を示す図である。 Incidentally, FIG. 3 is a diagram showing an example of the external configuration of the terminal device 6. 図3の(a)部は端末装置6の正面図であり、(b)部は上面図であり、(c)部は右側面図であり、(d)部は下面図である。 (A) portion of FIG. 3 is a front view of the terminal device 6, (b) unit is a top view, the (c) unit is a right side view, (d) part is a bottom view. 図4は、ユーザが端末装置6を把持した様子の一例を示す図である。 Figure 4 is a diagram showing an example of a state where the user holds the terminal device 6.

図3に示されるように、端末装置6は、大略的には横長の長方形の板状形状であるハウジング60を備える。 As shown in FIG. 3, the terminal device 6, the generally-comprise a housing 60 which is horizontally long rectangular plate shape. ハウジング60は、ユーザが把持することができる程度の大きさである。 The housing 60 is large enough that the user can grip. したがって、ユーザは、端末装置6を持って動かしたり、端末装置6の配置位置を変更したりすることができる。 Thus, the user can move with the terminal device 6, and can change the position of the terminal device 6.

端末装置6は、ハウジング60の表面にLCD61を有する。 The terminal device 6 has a LCD61 on the surface of the housing 60. LCD61は、ハウジング60の表面の中央付近に設けられる。 LCD61 is provided near the center of the surface of the housing 60. したがって、ユーザは、図4に示すようにLCD61の両側部分のハウジング60を持つことによって、LCD61の画面を見ながら端末装置6を持って動かすことができる。 Therefore, the user, by having the housing 60 in the end parts of the LCD 61 as shown in FIG. 4 can be moved with the terminal device 6 while watching the screen of the LCD 61. なお、図4では、ユーザがLCD61の左右両側の部分のハウジング60を持つことで端末装置6を横持ちで持つ(すなわち、長辺方向を横にして端末装置6を持つ)例を示しているが、端末装置6を縦持ちで持つ(すなわち、長辺方向を縦にして端末装置6を持つ)ことも可能である。 In FIG. 4, the user has the terminal device 6 in held horizontally by having the housing 60 of the left and right side portions of the LCD61 shows an example (i.e., with the terminal device 6 and the long side direction laterally) but with the terminal device 6 in portrait position (i.e., with the terminal device 6 and the long side direction vertically) it is also possible.

図3の(a)部に示すように、端末装置6は、操作手段として、LCD61の画面上にタッチパネル62を有する。 As shown in (a) portion of FIG. 3, the terminal device 6 includes, as operation means, having a touch panel 62 on the screen of the LCD 61. 本実施形態では、タッチパネル62は、抵抗膜方式のタッチパネルである。 In the present embodiment, the touch panel 62 is a resistive touch panel. ただし、タッチパネル62は、抵抗膜方式に限らず、例えば静電容量方式等、任意の方式のタッチパネルを用いることができる。 However, the touch panel 62 is not limited to the resistive film type, it can be used, for example a capacitive type, etc., a touch panel of an arbitrary method. また、タッチパネル62は、シングルタッチ方式でもよいし、マルチタッチ方式であってもよい。 The touch panel 62 may be a single touch manner, or may be a multi-touch method. 本実施形態では、タッチパネル62として、LCD61の解像度と同解像度(検出精度)のものを利用する。 In the present embodiment, the touch panel 62, to utilize those LCD61 of the same resolution (detection accuracy). ただし、必ずしもタッチパネル62の解像度とLCD61の解像度とが一致している必要はない。 However, it is not necessary to the resolution of the resolution and LCD61 of the touch panel 62 matches. タッチパネル62に対する入力は、通常タッチペンを用いて行われるが、タッチペンに限らずユーザの指でタッチパネル62に対する入力をすることも可能である。 Input on the touch panel 62 is usually performed using the touch pen, it is also possible to input to the touch panel 62 by the user's finger is not limited to the touch pen. なお、ハウジング60には、タッチパネル62に対する操作を行うために用いられるタッチペンを収納するための収納穴が設けられていてもよい。 Note that the housing 60 may have housing hole is provided for accommodating the touch pen used for performing an operation on the touch panel 62. このように、端末装置6がタッチパネル62を備えているため、ユーザは、端末装置6を動かしながらタッチパネル62を操作することができる。 Since the terminal device 6 is provided with a touch panel 62, the user can operate the touch panel 62 while moving the terminal device 6. つまり、ユーザは、LCD61の画面を動かしつつ、その画面に対して直接(タッチパネル62によって)入力を行うことができる。 That is, the user while moving the screen LCD 61, (the touch panel 62) directly to the screen can be inputted.

図3に示すように、端末装置6は、操作手段として、2つのアナログスティック63Aおよび63Bと、複数の操作ボタン64A〜64Lとを備えている。 3, the terminal device 6, as operation means, and two analog sticks 63A and 63B, and a plurality of operation buttons 64A~64L. 各アナログスティック63Aおよび63Bは、方向を指示するデバイスである。 The analog sticks 63A and 63B are a device for indicating a direction. 各アナログスティック63Aおよび63Bは、ユーザの指で操作されるスティック部がハウジング60の表面に対して任意の方向(上下左右および斜め方向の任意の角度)にスライドまたは傾倒することができるように構成されている。 The analog sticks 63A and 63B are configured to be able to stick that is operated by the user's finger slides or tilting in any direction (any angle vertical and horizontal and oblique directions) with respect to the surface of the housing 60 It is. また、左アナログスティック63Aは、LCD61の画面の左側に、右アナログスティック63Bは、LCD61の画面の右側にそれぞれ設けられる。 Further, the left analog stick 63A is on the left side of the screen of the LCD 61, the right analog stick 63B are respectively provided on the right side of the screen of the LCD 61. したがって、ユーザは、左右いずれの手でもアナログスティック63Aまたは63Bを用いて方向を指示する入力を行うことができる。 Thus, the user can perform an input for indicating a direction by using an analog stick 63A or 63B in left or right hand. また、図4に示すように、各アナログスティック63Aおよび63Bは、ユーザが端末装置6の左右部分を把持した状態で操作可能な位置に設けられるので、ユーザは、端末装置6を持って動かす場合においても各アナログスティック63Aおよび63Bを容易に操作することができる。 Further, as shown in FIG. 4, the analog sticks 63A and 63B, since the user is provided in operable position while gripping the left and right portions of the terminal device 6, when the user moves with the terminal device 6 also it is possible to operate the respective analog stick 63A and 63B easily in.

各操作ボタン64A〜64Lは、所定の入力を行うための操作手段である。 Each operation buttons 64A~64L is operation means for performing a predetermined input. 以下に示すように、各操作ボタン64A〜64Lは、ユーザが端末装置6の左右部分を把持した状態で操作可能な位置に設けられる(図4参照)。 As shown below, each of the operation buttons 64A~64L the user is provided operable position while gripping the left and right portions of the terminal device 6 (see FIG. 4). したがって、ユーザは、端末装置6を持って動かす場合においてもこれらの操作手段を容易に操作することができる。 Thus, the user can operate these operation means easily even when moving with the terminal device 6.

図3の(a)部に示すように、ハウジング60の表面には、各操作ボタン64A〜64Lのうち、十字ボタン(方向入力ボタン)64Aと、操作ボタン64B〜64Hとが設けられる。 As shown in (a) portion of FIG. 3, on the surface of the housing 60, among the operation buttons 64A~64L, a cross button (direction input button) 64A, and an operation button 64B~64H provided. これらの操作ボタン64A〜64Gは、ユーザの親指で操作可能な位置に配置されている(図4参照)。 These operation buttons 64A~64G is positioned so as to be operated by the user's thumb (see FIG. 4).

十字ボタン64Aは、LCD61の左側であって、左アナログスティック63Aの下側に設けられる。 The cross button 64A is a left LCD 61, provided on the lower side of the left analog stick 63A. つまり、十字ボタン64Aは、ユーザの左手で操作可能な位置に配置されている。 That is, the cross button 64A is positioned so as to be operated by the left hand of the user. 十字ボタン64Aは、十字の形状を有しており、上下左右の方向を指示することが可能なボタンである。 The cross button 64A has a cross shape, a button capable of directing the vertical and horizontal directions. また、操作ボタン64B〜64Dは、LCD61の下側に設けられる。 The operation buttons 64B~64D is provided on the lower side of the LCD 61. これら3つの操作ボタン64B〜64Dは、左右両方の手で操作可能な位置に配置されている。 These three operation buttons 64B~64D is positioned so as to be operated by both left and right hands. また、4つの操作ボタン64E〜64Hは、LCD61の右側であって、右アナログスティック63Bの下側に設けられる。 The four operation buttons 64E~64H is a right LCD 61, provided on the lower side of the right analog stick 63B. つまり、4つの操作ボタン64E〜64Hは、ユーザの右手で操作可能な位置に配置されている。 In other words, the four operation buttons 64E~64H is positioned so as to be operated by the right hand of the user. さらに、4つの操作ボタン64E〜64Hは、(4つの操作ボタン64E〜64Hの中心位置に対して)上下左右の位置関係となるように配置されている。 Furthermore, four operation buttons 64E~64H is arranged so that (relative to the center position of the four operating buttons 64E~64H) vertical and lateral positional relationship. したがって、端末装置6は、ユーザに上下左右の方向を指示させるためのボタンとして4つの操作ボタン64E〜64Hを機能させることも可能である。 Therefore, the terminal device 6, it is possible to function the four operation buttons 64E~64H as buttons for instructing vertical and horizontal directions to the user.

また、図3の(a)部、(b)部、および(c)部に示すように、第1Lボタン64Iおよび第1Rボタン64Jは、ハウジング60の斜め上部分(左上部分および右上部分)に設けられる。 Further, (a) portion of FIG. 3, (b) section, and (c) as shown in part, the 1L button 64I and the 1R button 64J is obliquely upper portion of the housing 60 (the upper left portion and upper right portion) It is provided. 具体的には、第1Lボタン64Iは、板状のハウジング60における上側の側面の左端に設けられ、上側および左側の側面から突設されている。 Specifically, the 1L button 64I is provided at the left of the upper side of the plate-shaped housing 60, it is protruded from the upper and left sides. また、第1Rボタン64Jは、ハウジング60における上側の側面の右端に設けられ、上側および右側の側面から突設されている。 Further, the 1R button 64J is provided at the right end of the upper side surface of the housing 60, it is protruded from the upper side and right side. このように、第1Lボタン64Iは、ユーザの左手人差し指で操作可能な位置に配置され、第1Rボタン64Jは、ユーザの右手人差し指で操作可能な位置に配置される(図4参照)。 Thus, the 1L button 64I is positioned so as to be operated by the left hand index finger of the user, the 1R button 64J is positioned so as to be operated by the right hand forefinger of the user (see FIG. 4).

また、図3の(b)部および(c)部に示すように、第2Lボタン64Kおよび第2Rボタン64Lは、板状のハウジング60の裏面(すなわちLCD61が設けられる表面の反対側の面)に突出して設けられた足部68Aおよび68Bにそれぞれ突設される。 Also, the (b) unit and 3 as shown in part (c), the 2L button 64K and the 2R button 64L is (surface opposite to the surface i.e. LCD61 is provided) the back surface of the plate-shaped housing 60 respectively projecting from the leg portion 68A and 68B provided to protrude. 具体的には、第2Lボタン64Kは、ハウジング60の裏面の左側(表面側から見たときの左側)のやや上方に設けられ、第2Rボタン64Lは、ハウジング60の裏面の右側(表面側から見たときの右側)のやや上方に設けられる。 Specifically, the 2L button 64K is slightly provided above (on the left as viewed from the surface side) left of the rear surface of the housing 60, the 2R button 64L from the right side (the surface side of the rear surface of the housing 60 provided slightly above the right) when viewed. 換言すれば、第2Lボタン64Kは、表面に設けられる左アナログスティック63Aの概ね反対側の位置に設けられ、第2Rボタン64Lは、表面に設けられる右アナログスティック63Bの概ね反対側の位置に設けられる。 In other words, the 2L button 64K is provided in a generally opposite the position of the left analog stick 63A provided on a surface, the 2R button 64L is disposed in a generally opposite the position of the right analog stick 63B provided on the surface It is. 第2Lボタン64Kは、ユーザの左手中指で操作可能な位置に配置され、第2Rボタン64Lは、ユーザの右手中指で操作可能な位置に配置される(図4参照)。 The 2L button 64K is positioned so as to be operated by the left hand middle finger of the user, the 2R button 64L is positioned so as to be operated by the right hand middle finger of the user (see FIG. 4). また、第2Lボタン64Kおよび第2Rボタン64Lは、図3の(c)部に示すように、上記足部68Aおよび68Bの斜め上方を向く面に設けられ、斜め上方を向くボタン面を有する。 Further, the 2L button 64K and the 2R button 64L, as shown in (c) portion of FIG. 3, provided on the surface facing obliquely upward of the foot 68A and 68B, has a button surface facing obliquely upward. ユーザが端末装置6を把持した場合には、中指が上下方向に動くと考えられるので、ボタン面を上方に向けることで、ユーザは第2Lボタン64Kおよび第2Rボタン64Lを押下しやすくなる。 If the user holds the terminal device 6, it is considered that the middle finger is moved in the vertical direction, by directing the button face upward, the user can easily presses the first 2L button 64K and the 2R button 64L. また、ハウジング60の裏面に足部68Aおよび68Bが設けられることにより、ユーザはハウジング60を把持しやすくなり、かつ、足部68Aおよび68Bに操作ボタンが設けられることで、ハウジング60を把持したまま操作しやすくなる。 Further, by the foot sections 68A and 68B are provided on the rear surface of the housing 60, while the user is likely to grip the housing 60, and, by the operation button is provided on the foot portion 68A and 68B, holding the housing 60 operation was likely.

なお、図3に示す端末装置6に関しては、第2Lボタン64Kおよび第2Rボタン64Lが裏面に設けられるので、LCD61の画面(ハウジング60の表面)が上を向いた状態で端末装置6を載置させる場合、画面が完全に水平にはならない場合がある。 Regarding the terminal device 6 shown in FIG. 3, since the 2L button 64K and the 2R button 64L is provided on a rear surface, placing the terminal device 6 in a state where LCD61 screen (the surface of the housing 60) faces upward case of, in some cases the screen is not completely horizontal. そのため、他の実施形態においては、ハウジング60の裏面に3つ以上の足部が形成されてもよい。 Therefore, in other embodiments, three or more legs on the rear surface of the housing 60 may be formed. これによれば、LCD61の画面が上を向いた状態では3つ以上の足部が床面と接するように端末装置6を載置できるので、画面が水平になるように端末装置6を載置することができる。 According to this, placed so three or more legs in the state where the screen of the LCD61 is facing up can place the terminal device 6 in contact with the floor surface, the terminal device 6 such screen is horizontal can do. また、着脱可能な足部を装着することで端末装置6を水平に載置可能にしてもよい。 It is also possible to allow placing the terminal device 6 horizontally by attaching the detachable foot.

各操作ボタン64A〜64Lには、ゲームプログラムに応じた機能が適宜割り当てられる。 Each operation buttons 64A~64L, functions in accordance with the game program appropriately assigned. 例えば、十字ボタン64Aおよび操作ボタン64E〜64Hは、方向指示操作や選択操作等に用いられてもよいし、各操作ボタン64B〜64Eは、決定操作やキャンセル操作等に用いられてもよい。 For example, the cross button 64A and the operation buttons 64E~64H may be used in a direction instruction operation and a selection operation, the operation buttons 64B~64E may be used in the determination operation, a cancellation operation, and the like.

なお、図示しないが、端末装置6は、端末装置6の電源をオン/オフするための電源ボタンを有している。 Although not shown, the terminal device 6 includes a power button for turning on / off the terminal device 6. また、端末装置6は、LCD61の画面表示をオン/オフするための操作ボタンや、ゲーム装置本体5との接続設定(ペアリング)を行うための操作ボタンや、スピーカ(図5に示すスピーカ607)の音量を調節するための操作ボタンを有していてもよい。 The terminal device 6, a screen and an operation button for the on / off display of the LCD 61, and an operation button for performing connection setting with the game apparatus body 5 (pairing), a speaker (speaker 607 shown in FIG. 5 volume may have an operation button for adjusting the).

図3の(a)部に示すように、端末装置6は、マーカ65Aおよびマーカ65Bからなるマーカ部(図5に示すマーカ部65)をハウジング60の表面に備えている。 As shown in (a) portion of FIG. 3, the terminal device 6 is provided with a marker unit consisting of the markers 65A and the marker 65B (the marker section 65 shown in FIG. 5) on the surface of the housing 60. 一例として、マーカ部65は、LCD61の上側に設けられる。 As an example, the marker portion 65 is provided on the upper side of the LCD 61. マーカ65Aおよびマーカ65Bは、マーカ8のマーカ8Lおよび8Rと同様、それぞれ1以上の赤外LEDで構成される。 Markers 65A and the marker 65B is similar to the markers 8L and 8R of the marker 8, and a respective one or more infrared LED. マーカ部65は、上述したマーカ8と同様、マーカ部65に対するコントローラ7の動き等をゲーム装置本体5が算出するために用いられる。 The marker section 65 is similar to the marker 8 described above is used for the game apparatus body 5 to the motion of the controller 7 calculates for the marker portion 65. また、ゲーム装置本体5は、マーカ部65が備える各赤外LEDの点灯を制御することが可能である。 The game apparatus body 5 is capable of controlling lighting of each infrared LED included in the marker section 65.

端末装置6は、撮像手段であるカメラ66を備えている。 The terminal device 6 is provided with a camera 66 is an imaging means. カメラ66は、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。 The camera 66 includes an imaging device having a predetermined resolution (eg, CCD image sensor or a CMOS image sensor), and a lens. 例えば、カメラ66は、ハウジング60の表面に設けられる。 For example, the camera 66 is provided on the surface of the housing 60. したがって、カメラ66は、端末装置6を持っているユーザの顔を撮像することができ、一例としてLCD61を見ながらゲームを行っている状態におけるユーザを撮像することができる。 Accordingly, the camera 66 can image the face of the user has the terminal device 6, it is possible to image the user in a state in which playing the game while watching the LCD61 as an example.

なお、端末装置6は、音声入力手段であるマイク(図5に示すマイク609)を備えている。 The terminal device 6 includes a microphone (microphone 609 shown in FIG. 5) is a sound input means. ハウジング60の表面には、マイクロフォン用孔60bが設けられる。 On the surface of the housing 60, a microphone hole 60b is provided. マイク609は、マイクロフォン用孔60bの内側となるハウジング60内部に設けられる。 Microphone 609 is provided inside the housing 60 comprising the inner microphone hole 60b. マイク609は、ユーザの音声等、端末装置6の周囲の音を検出する。 Microphone 609, the voice of the user, detects the ambient sound of the terminal device 6.

端末装置6は、音声出力手段であるスピーカ(図5に示すスピーカ607)を備えている。 The terminal device 6, a speaker (speaker 607 shown in FIG. 5) is a sound output unit. 図3の(d)部に示すように、ハウジング60の下側側面にはスピーカ孔60aが設けられる。 As shown in (d) of FIG. 3, the speaker holes 60a are provided on the lower side of the housing 60. スピーカ607の出力音は、スピーカ孔60aから出力される。 Output sound of the speaker 607 is output from the speaker holes 60a. 本実施形態では、端末装置6は、2つのスピーカを備えており、左スピーカおよび右スピーカのそれぞれの位置にスピーカ孔60aが設けられる。 In the present embodiment, the terminal device 6 is provided with two speakers, speaker hole 60a is provided in each of the positions of the left speaker and right speaker.

また、端末装置6は、他の装置を端末装置6に接続するための拡張コネクタ67を備えている。 The terminal device 6 includes an extension connector 67 for connecting other devices to the terminal device 6. 本実施形態においては、図3の(d)部に示すように、拡張コネクタ67は、ハウジング60の下側側面に設けられる。 In the present embodiment, as shown in (d) of FIG. 3, the expansion connector 67 is provided on the lower side of the housing 60. なお、拡張コネクタ67に接続される他の装置はどのようなものであってもよく、例えば、特定のゲームに用いるコントローラ(銃型のコントローラ等)やキーボード等の入力装置であってもよい。 Incidentally, it may Whatever other device connected to the extension connector 67, for example, may be an input device of the controller (gun-shaped controller, etc.) and a keyboard for use in a particular game. 他の装置を接続する必要がなければ、拡張コネクタ67は設けられていなくともよい。 If you do not need to connect another device, the expansion connector 67 may not be provided.

なお、図3に示した端末装置6に関して、各操作ボタンやハウジング60の形状や、各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。 Regarding the terminal device 6 shown in FIG. 3, the shape of each operation button and the housing 60, the number and the positions of the components are merely an example, other shapes, a number, and the installation position it may be.

次に、図5を参照して、端末装置6の内部構成について説明する。 Next, referring to FIG. 5 describes the internal structure of the terminal device 6. 図5は、端末装置6の内部構成の一例を示すブロック図である。 Figure 5 is a block diagram showing an example of the internal configuration of the terminal device 6. 図5に示すように、端末装置6は、図3に示した構成の他、タッチパネルコントローラ601、磁気センサ602、加速度センサ603、ジャイロセンサ604、ユーザインタフェースコントローラ(UIコントローラ)605、コーデックLSI606、スピーカ607、サウンドIC608、マイク609、無線モジュール610、アンテナ611、赤外線通信モジュール612、フラッシュメモリ613、電源IC614、電池615、およびバイブレータ619を備える。 As shown in FIG. 5, the terminal device 6, another configuration shown in FIG. 3, the touch panel controller 601, a magnetic sensor 602, an acceleration sensor 603, a gyro sensor 604, a user interface controller (UI controller) 605, a codec LSI 606, a speaker 607, the sound IC 608, comprises a microphone 609, a wireless module 610, an antenna 611, an infrared communication module 612, a flash memory 613, a power supply IC 614, a battery 615, and the vibrator 619. これらの電子部品は、電子回路基板上に実装されてハウジング60内に収納される。 These electronic components are mounted on an electronic circuit board accommodated in the housing 60.

UIコントローラ605は、各種の入出力部に対するデータの入出力を制御するための回路である。 UI controller 605 is a circuit for controlling the input and output of data to various input and output unit. UIコントローラ605は、タッチパネルコントローラ601、アナログスティック63(アナログスティック63Aおよび63B)、操作ボタン64(各操作ボタン64A〜64L)、マーカ部65、磁気センサ602、加速度センサ603、ジャイロセンサ604、およびバイブレータ619に接続される。 UI controller 605, touch panel controller 601, the analog stick 63 (the analog sticks 63A and 63B), the operation button 64 (the operation buttons 64A~64L), the marker section 65, the magnetic sensor 602, an acceleration sensor 603, a gyro sensor 604, and a vibrator It is connected to the 619. また、UIコントローラ605は、コーデックLSI606と拡張コネクタ67とに接続される。 Also, UI controller 605 is connected to the codec LSI606 and extension connector 67. また、UIコントローラ605には電源IC614が接続され、UIコントローラ605を介して各部に電力が供給される。 Further, the power IC614 is connected to the UI controller 605, power is supplied to each section via the UI controller 605. 電源IC614には内蔵の電池615が接続され、電力が供給される。 Built-in battery 615 is connected to the power supply IC 614, power is supplied. また、電源IC614には、コネクタ等を介して外部電源から電力を取得可能な充電器616またはケーブルを接続することが可能であり、端末装置6は、充電器616またはケーブルを用いて外部電源からの電力供給と充電とを行うことができる。 Further, the power IC614 is possible to connect the obtainable charger 616 or cable power from an external power source through a connector or the like, the terminal device 6, the external power source using a charger 616 or cable it is possible to perform power supply and the charging. なお、端末装置6は、図示しない充電機能を有するクレイドルに端末装置6を装着することで充電を行うようにしてもよい。 The terminal device 6 may be performed charged by mounting the terminal device 6 to the cradle having a not shown charging function.

タッチパネルコントローラ601は、タッチパネル62に接続され、タッチパネル62の制御を行う回路である。 Touch panel controller 601 is connected to the touch panel 62 is a circuit for controlling the touch panel 62. タッチパネルコントローラ601は、タッチパネル62からの信号に基づいて所定の形式のタッチ位置データを生成してUIコントローラ605へ出力する。 Touch panel controller 601 outputs to the UI controller 605 generates a predetermined form of touch position data based on a signal from the touch panel 62. タッチ位置データは、タッチパネル62の入力面において入力が行われた位置の座標を表す。 The touch position data indicates the position of the coordinate input is performed on the input surface of the touch panel 62. なお、タッチパネルコントローラ601は、タッチパネル62からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。 The touch panel controller 601 reads a signal from the touch panel 62 and generates touch position data every predetermined time. また、UIコントローラ605からタッチパネルコントローラ601へは、タッチパネル62に対する各種の制御指示が出力される。 Further, from the UI controller 605 to the touch panel controller 601, various control instruction to the touch panel 62 is outputted.

アナログスティック63は、ユーザの指で操作されるスティック部がスライドした(または傾倒した)方向および量を表すスティックデータをUIコントローラ605へ出力する。 The analog stick 63 outputs a stick data representing (or tilting the) direction and amount in which the stick is slid to be operated with a finger of the user to the UI controller 605. また、操作ボタン64は、各操作ボタン64A〜64Lに対する入力状況(押下されたか否か)を表す操作ボタンデータをUIコントローラ605へ出力する。 The operation buttons 64 outputs operation button data representing an input state (whether or not pressed) of each of the operation buttons 64A~64L to the UI controller 605.

磁気センサ602は、磁界の大きさおよび方向を検知することで方位を検出する。 The magnetic sensor 602 detects the azimuth by detecting the magnitude and direction of the magnetic field. 検出された方位を示す方位データは、UIコントローラ605へ出力される。 Orientation data representing the detected orientation is outputted to the UI controller 605. また、UIコントローラ605から磁気センサ602へは、磁気センサ602に対する制御指示が出力される。 Also, the magnetic sensor 602 from the UI controller 605, a control instruction for the magnetic sensor 602 is output. 磁気センサ602に関しては、MI(磁気インピーダンス)素子、フラックスゲートセンサ、ホール素子、GMR(巨大磁気抵抗)素子、TMR(トンネル磁気抵抗)素子、あるいはAMR(異方性磁気抵抗)素子等を用いたセンサがあるが、方位を検出することができればどのようなものが用いられてもよい。 For the magnetic sensor 602, it was used MI (magnetic impedance) element, a flux gate sensor, a Hall element, GMR (giant magnetoresistive) element, TMR (tunnel magnetoresistance) element or AMR (anisotropic magnetoresistive) element or the like, there are sensors, but may be any ones employed if it is possible to detect the orientation. なお、厳密には、地磁気以外に磁界が発生している場所においては、得られた方位データは方位を示さないことになるが、そのような場合であっても、端末装置6が動いた場合には方位データが変化するため、端末装置6の姿勢の変化を算出することができる。 Strictly speaking, if in the area where a magnetic field other than geomagnetism is generated, the orientation data obtained is will not exhibit orientation, even in such a case, the terminal device 6 is moved since the orientation data changes, it is possible to calculate the change in the attitude of the terminal device 6 in.

加速度センサ603は、ハウジング60の内部に設けられ、3軸(図3の(a)部に示すxyz軸)方向に沿った直線加速度の大きさを検出する。 The acceleration sensor 603 is provided inside the housing 60, it detects the three axes (xyz axes shown in part (a) of FIG. 3) the magnitude of the linear acceleration along the direction. 具体的には、加速度センサ603は、ハウジング60の長辺方向をx軸、ハウジング60の短辺方向をy軸、ハウジング60の表面に対して垂直な方向をz軸として、各軸の直線加速度の大きさを検出する。 Specifically, the acceleration sensor 603, x-axis and the long side direction of the housing 60, y-axis and the short side direction of the housing 60, as z axis direction perpendicular to the surface of the housing 60, the linear acceleration in each axis to detect the size. 検出された加速度を表す加速度データはUIコントローラ605へ出力される。 Acceleration data representing the detected acceleration is outputted to the UI controller 605. また、UIコントローラ605から加速度センサ603へは、加速度センサ603に対する制御指示が出力される。 Further, from the UI controller 605 to the acceleration sensor 603, the control instruction for the acceleration sensor 603 is outputted. 加速度センサ603は、本実施形態では例えば静電容量式のMEMS型加速度センサであるとするが、他の実施形態においては他の方式の加速度センサを用いるようにしてもよい。 The acceleration sensor 603 is an in the present embodiment is a MEMS acceleration sensor, for example an electrostatic capacitance type, may be used an acceleration sensor of another type in another embodiment. また、加速度センサ603は1軸または2軸方向を検出する加速度センサであってもよい。 The acceleration sensor 603 may be an acceleration sensor for detecting a uniaxial or biaxial direction.

ジャイロセンサ604は、ハウジング60の内部に設けられ、上記x軸、y軸、およびz軸の3軸周りの角速度をそれぞれ検出する。 The gyro sensor 604 is provided inside the housing 60, the x-axis to detect the y-axis, and the angular velocities around the three axes of the z-axis, respectively. 検出された角速度を表す角速度データは、UIコントローラ605へ出力される。 Angular velocity data representing the detected angular velocity is output to the UI controller 605. また、UIコントローラ605からジャイロセンサ604へは、ジャイロセンサ604に対する制御指示が出力される。 Also, the gyro sensor 604 from the UI controller 605, a control instruction for the gyro sensor 604 is output. なお、3軸の角速度を検出するために用いられるジャイロセンサの数および組み合わせはどのようなものであってもよく、ジャイロセンサ604は、2軸ジャイロセンサと1軸ジャイロセンサとで構成されてもよい。 The three number and combination of the gyro sensor used for detecting the angular velocity of the shaft may be of any type, the gyro sensor 604 be composed of a 2-axis gyroscope and one-axis gyro-sensor good. また、ジャイロセンサ604は1軸または2軸方向を検出するジャイロセンサであってもよい。 Also, the gyro sensor 604 may be a gyro sensor for detecting the uniaxial or biaxial direction.

バイブレータ619は、例えば振動モータやソレノイドであり、UIコントローラ605と接続される。 Vibrator 619 is, for example, a vibration motor or a solenoid, and is connected to the UI controller 605. UIコントローラ605からバイブレータ619へ出力される制御指示に応じて、バイブレータ619が作動することによって端末装置6に振動が発生する。 In response to a control instruction outputted from the UI controller 605 to the vibrator 619, vibrator 619 is vibrated in the terminal device 6 by actuating. これによって、端末装置6を把持しているユーザの手にその振動が伝達される、いわゆる振動対応ゲームを実現することができる。 Therefore, the vibration is transmitted to the user's hand holding the terminal device 6, it is possible to realize a so-called vibration-feedback game.

UIコントローラ605は、上記の各構成要素から受け取ったタッチ位置データ、スティックデータ、操作ボタンデータ、方位データ、加速度データ、および角速度データを含む操作データをコーデックLSI606に出力する。 UI controller 605 outputs touch position data received from each of the above components, the stick data, operation button data, the orientation data, the acceleration data, and the operation data containing the angular velocity data to the codec LSI 606. なお、拡張コネクタ67を介して端末装置6に他の装置が接続される場合には、当該他の装置に対する操作を表すデータが上記操作データにさらに含まれていてもよい。 If another device is connected to the terminal device 6 via the extension connector 67, data representing the operation to the other device may be further included in the operation data.

コーデックLSI606は、ゲーム装置本体5へ送信するデータに対する圧縮処理、およびゲーム装置本体5から送信されたデータに対する伸張処理を行う回路である。 Codec LSI606 is compression process on data to be transmitted to the game apparatus body 5, and a circuit for performing decompression processing for the data transmitted from the game apparatus body 5. コーデックLSI606には、LCD61、カメラ66、サウンドIC608、無線モジュール610、フラッシュメモリ613、および赤外線通信モジュール612が接続される。 The codec LSI 606, LCD 61, a camera 66, the sound IC 608, a wireless module 610, flash memory 613 and the infrared communication module 612, is connected. また、コーデックLSI606は、CPU617と内部メモリ618とを含む。 Further, the codec LSI606 includes a CPU617 and the internal memory 618. 例えば、端末装置6は、ゲーム処理自体を行わない構成であるが、端末装置6の管理や通信のための最小限のプログラムを実行する必要がある。 For example, the terminal device 6 is a configuration that does not perform a game process itself, it is necessary to perform the minimum program for management and communication of the terminal device 6. 一例として、電源投入時にフラッシュメモリ613に格納されたプログラムを内部メモリ618に読み出してCPU617が実行することで、端末装置6が起動する。 As an example, by CPU617 reads the program stored in the flash memory 613 when the power is turned on in the internal memory 618 is executed, the terminal device 6 is activated. また、内部メモリ618の一部の領域は、LCD61のためのVRAMとして使用される。 A part of the area of ​​the internal memory 618 is used as a VRAM for the LCD 61.

カメラ66は、ゲーム装置本体5からの指示に従って画像を撮像し、撮像した画像データをコーデックLSI606へ出力する。 The camera 66 captures an image in accordance with an instruction from the game apparatus body 5, and outputs the captured image data to the codec LSI 606. また、コーデックLSI606からカメラ66へは、画像の撮像指示等、カメラ66に対する制御指示が出力される。 Further, from the codec LSI606 to a camera 66, an imaging instruction of the image, the control instruction for the camera 66 is output. なお、カメラ66は、動画の撮影も可能である。 In addition, the camera 66, the video of the shooting is also possible. すなわち、カメラ66は、繰り返し撮像を行って画像データをコーデックLSI606へ繰り返し出力することも可能である。 That is, the camera 66, it is possible to repeatedly output the image data to the codec LSI606 performed repeatedly captured.

サウンドIC608は、スピーカ607およびマイク609に接続され、スピーカ607およびマイク609への音声データの入出力を制御する回路である。 Sound IC608 is connected to a speaker 607 and a microphone 609, a circuit for controlling input and output of the audio data to the speaker 607 and microphone 609. すなわち、コーデックLSI606から音声データを受け取った場合、サウンドIC608は、当該音声データに対してD/A変換を行って得られる音声信号をスピーカ607へ出力し、スピーカ607から音を出力させる。 That is, when receiving the audio data from the codec LSI 606, sound IC608 outputs a sound signal obtained by performing D / A conversion on the audio data to the speaker 607 to output a sound from the speaker 607. また、マイク609は、端末装置6に伝わる音(ユーザの音声等)を検知して、当該音を示す音声信号をサウンドIC608へ出力する。 Further, the microphone 609 detects the sound transmitted to the terminal device 6 (the user's voice, etc.), and outputs an audio signal representing the sound to the sound IC 608. サウンドIC608は、マイク609からの音声信号に対してA/D変換を行い、所定の形式の音声データをコーデックLSI606へ出力する。 Sound IC608 performs A / D conversion on the sound signal from the microphone 609, and outputs predetermined format audio data to the codec LSI 606.

コーデックLSI606は、カメラ66からの画像データ、マイク609からの音声データ、およびUIコントローラ605からの操作データを、端末操作データとして無線モジュール610を介してゲーム装置本体5へ送信する。 Codec LSI606 the image data from the camera 66, the operation data from the audio data, and the UI controller 605 from the microphone 609 and transmitted via the wireless module 610 as a terminal operation data to the game apparatus body 5. 本実施形態では、コーデックLSI606は、画像データおよび音声データに対して、コーデックLSI27と同様の圧縮処理を行う。 In the present embodiment, the codec LSI606 on the image data and audio data, performs the same compression process as the codec LSI 27. 圧縮された画像データおよび音声データと上記端末操作データとは、送信データとして無線モジュール610に出力される。 A compressed image data and sound data and the terminal operation data is output to the wireless module 610 as transmission data. 無線モジュール610にはアンテナ611が接続されており、無線モジュール610はアンテナ611を介してゲーム装置本体5へ上記送信データを送信する。 The wireless module 610 and the antenna 611 is connected, the wireless module 610 transmits the transmission data to the game apparatus body 5 via the antenna 611. 無線モジュール610は、ゲーム装置本体5の端末通信モジュール28と同様の機能を有している。 Radio module 610 has the same function as that of the terminal communication module 28 of the game apparatus body 5. すなわち、無線モジュール610は、例えばIEEE802.11nの規格に準拠した方式により、無線LANに接続する機能を有する。 That is, the wireless module 610, for example, by using a method based on IEEE802.11n standard, has a function of connecting to a wireless LAN. 無線モジュール610から送信されるデータは、必要に応じて暗号化されていてもよいし、されていなくてもよい。 Data transmitted from the wireless module 610 may be encrypted as required, it may not be.

以上のように、端末装置6からゲーム装置本体5へ送信される送信データには、操作データ(端末操作データ)、画像データ、および音声データが含まれる。 As described above, the transmission data transmitted from the terminal device 6 to the game apparatus body 5, operation data (terminal operation data), image data, and audio data. なお、拡張コネクタ67を介して端末装置6に他の装置が接続される場合には、当該他の装置から受け取ったデータが上記送信データにさらに含まれていてもよい。 If another device is connected to the terminal device 6 via the extension connector 67, data received from the other device may be further included in the transmission data. また、赤外線通信モジュール612は、他の装置との間で例えばIRDAの規格に従った赤外線通信を行う。 The infrared communication module 612 performs infrared communication, for example in accordance with the IRDA standard and from other devices. コーデックLSI606は、赤外線通信によって受信したデータを、必要に応じて上記送信データに含めてゲーム装置本体5へ送信してもよい。 Codec LSI606 the data received by infrared communication, may be transmitted to the game apparatus body 5 including the above transmission data as necessary.

また、上述のように、ゲーム装置本体5から端末装置6へは、圧縮された画像データおよび音声データが送信される。 Further, as described above, to the terminal device 6 from the game apparatus body 5, compressed image data and sound data are transmitted. これらのデータは、アンテナ611および無線モジュール610を介してコーデックLSI606で受信される。 These data are received by the codec LSI606 via the antenna 611 and the wireless module 610. コーデックLSI606は、受信した画像データおよび音声データを伸張する。 Codec LSI606 decompresses image data and audio data received. 伸張された画像データは、LCD61へ出力され、当該画像データに応じた画像がLCD61に表示される。 Decompressed image data is outputted to the LCD 61, an image corresponding to the image data is displayed on the LCD 61. また、伸張された音声データは、サウンドIC608へ出力され、当該音声データに応じた音がスピーカ607から出力される。 The audio data expanded is outputted to the sound IC 608, a sound corresponding to the audio data is outputted from the speaker 607.

また、ゲーム装置本体5から受信されるデータに制御データが含まれる場合、コーデックLSI606およびUIコントローラ605は、制御データに従った制御指示を各部に行う。 Also, if it contains control data on data received from the game apparatus body 5, a codec LSI606 and the UI controller 605 performs each part of the control instruction in accordance with the control data. 上述のように、制御データは、端末装置6が備える各構成要素(本実施形態では、カメラ66、タッチパネルコントローラ601、マーカ部65、各センサ602〜604、バイブレータ619、および赤外線通信モジュール612)に対する制御指示を表すデータである。 As described above, the control data (in this embodiment, the camera 66, the touch panel controller 601, the marker unit 65, the sensors 602 to 604, the vibrator 619 and the infrared communication module 612,) each component comprising the terminal device 6 for data representing a control instruction. 本実施形態では、制御データが表す制御指示としては、上記各構成要素を動作させたり、動作を休止(停止)させたりする指示が考えられる。 In the present embodiment, the control instruction represented by the control data, or operate the above components, is an instruction or to halt the operation (stop) is considered. すなわち、ゲームで使用しない構成要素については電力消費を抑えるために休止させてもよく、その場合、端末装置6からゲーム装置本体5へ送信される送信データには、休止した構成要素からのデータが含まれないようにする。 That is, the components that are not used in the game may be rested in order to reduce power consumption, in which case, the transmission data transmitted from the terminal device 6 to the game apparatus body 5, the data from the resting components not included so. なお、マーカ部65は、赤外LEDであるので、制御は単に電力の供給のON/OFFでよい。 Incidentally, the marker 65, since an infrared LED, control simply be a ON / OFF of the power supply.

以上のように、端末装置6は、タッチパネル62、アナログスティック63、および操作ボタン64といった操作手段を備えるが、他の実施形態においては、これらの操作手段に代えて、または、これらの操作手段とともに、他の操作手段を備える構成であってもよい。 As described above, the terminal device 6, the touch panel 62, the analog sticks 63, and an operation means such as the operation button 64, in other embodiments, instead of these operating means, or, together with these operation means it may be configured to include other operating means.

また、端末装置6は、端末装置6の動き(位置や姿勢、あるいは、位置や姿勢の変化を含む)を算出するためのセンサとして、磁気センサ602、加速度センサ603、およびジャイロセンサ604を備えるが、他の実施形態においては、これらのセンサのうち1つまたは2つのみを備える構成であってもよい。 The terminal device 6, the movement of the terminal device 6 (position and posture, or includes a change of position and attitude) as a sensor for calculating the magnetic sensor 602, an acceleration sensor 603, and comprises a gyro sensor 604 in other embodiments, it may be configured to include only one or two of these sensors. また、他の実施形態においては、これらのセンサに代えて、または、これらのセンサとともに、他のセンサを備える構成であってもよい。 Also, in other embodiments, instead of these sensors, or, together with the sensors, it may be configured to include other sensors.

また、端末装置6は、カメラ66およびマイク609を備える構成であるが、他の実施形態においては、カメラ66およびマイク609を備えていなくてもよく、また、いずれか一方のみを備えていてもよい。 The terminal device 6 has a configuration in which a camera 66 and the microphone 609, in other embodiments may not include a camera 66 and the microphone 609, also it is provided with only one good.

また、端末装置6は、端末装置6とコントローラ7との位置関係(コントローラ7から見た端末装置6の位置および/または姿勢等)を算出するための構成としてマーカ部65を備える構成であるが、他の実施形態ではマーカ部65を備えていない構成としてもよい。 The terminal device 6 is a configuration including the marker portion 65 as a configuration for calculating a positional relationship between the terminal device 6 and the controller 7 (the position of the terminal device 6 as viewed from the controller 7 and / or orientation, etc.) , in other embodiments it may be configured without a marker portion 65. また、他の実施形態では、端末装置6は、上記位置関係を算出するための構成として他の手段を備えていてもよい。 Further, in another embodiment, the terminal device 6 may be provided with other means as a configuration for calculating the positional relationship. 例えば、他の実施形態においては、コントローラ7がマーカ部を備え、端末装置6が撮像素子を備える構成としてもよい。 For example, in other embodiments, the controller 7 includes a marker portion, the terminal device 6 may include an image pickup element. さらにこの場合、マーカ8は赤外LEDに代えて、撮像素子を備える構成としてもよい。 Further in this case, the marker 8 in place of the infrared LED, may include an image pickup device.

次に、図6〜図8を参照して、ボード型コントローラ9の構成について説明する。 Next, with reference to FIGS. 6 to 8, the configuration of the board-type controller 9. なお、図6は、図1に示したボード型コントローラ9の外観の一例を示す斜視図である。 Incidentally, FIG. 6 is a perspective view showing an example of the appearance of the board type controller 9 shown in FIG. 図6に示されるように、ボード型コントローラ9は、ユーザがその上に乗る(ユーザの足を乗せる)台9a、台9aに掛かる荷重を検出するための少なくとも4つの荷重センサ94a〜94dを備える。 As shown in FIG. 6, the board-type controller 9 is provided with at least four load sensors 94a~94d for users to detect the ride thereon (put the user's foot) stand 9a, load applied to the base 9a . 各荷重センサ94a〜94dは、それぞれ台9aに内包されており(図7参照)、図6においてはそれらの配置位置がそれぞれ破線で示されている。 Each load sensor 94a~94d is included in each table 9a (see FIG. 7), their positions are respectively shown by broken lines in FIG. 6. なお、以下の説明において、4つの荷重センサ94a〜94dを総称して説明する場合、荷重センサ94と記載することがある。 In the following description, when describing generically four load sensors 94a to 94d, it may be referred to as a load sensor 94.

台9aは、略直方体に形成されており、上面視で略長方形状である。 Base 9a is formed in a substantially rectangular parallelepiped, a substantially rectangular shape in top view. 例えば、台9aは、長方形状の短辺が30cm程度に設定され、長辺が50cm程度に設定される。 For example, base 9a is rectangular shorter side is set to about 30 cm, the long side is set to about 50 cm. 台9aの上面は、平坦に形成され、ユーザが両足裏をそれぞれ置いて乗るための一対の面が設定されている。 A table top 9a is formed flat, a pair of surfaces for riding at user feet back, respectively, are set. 具体的には、台9aの上面には、ユーザが左足を乗せるための面(図6における左奥側に2重線で囲まれた領域)および左足を乗せるための面(図6における右手前側に2重線で囲まれた領域)がそれぞれ設定されている。 Specifically, on the upper surface of the base 9a, right front side in the plane (Figure 6 for placing the surface (region surrounded by a double line in the far left side in FIG. 6) and the left leg for placing the user left leg region surrounded by double lines) is set to the. そして、台9aの4隅の側面は、例えば部分的に円柱状に張り出すように形成されている。 Then, the four corners of the side surface of the base 9a, for example partly formed so as to protrude in a cylindrical shape.

台9aにおいて、4つの荷重センサ94a〜94dは、所定の間隔を置いて配置される。 In table 9a, 4 single load sensors 94a~94d are arranged at predetermined intervals. 当該実施例では、4つの荷重センサ94a〜94dは、台9aの周縁部に、具体的には4隅にそれぞれ配置される。 In this embodiment, the four load sensors 94a to 94d, the peripheral portion of the base 9a, and specifically are respectively arranged at the four corners. 荷重センサ94a〜94dの間隔は、台9aに対するユーザの荷重のかけ方によるゲーム操作の意図をより精度良く検出できるように適宜な値に設定される。 Distance of the load sensor 94a~94d is set to an appropriate value so that it can more accurately detect the intention of a game operation by exertion of a load of the user to the base 9a.

図7は、図6に示したボード型コントローラ9のA−A断面図の一例を示すとともに、荷重センサ94が配置された隅の部分が拡大表示された一例を示している。 7, together with an example of the A-A sectional view of a board-type controller 9 shown in FIG. 6 shows an example in which the portion of the corner where the load sensor 94 is disposed is magnified. 図7において、台9aは、ユーザが乗るための支持板90と脚92とを含む。 7, base 9a includes a support plate 90 and the leg 92 for the user to ride. 荷重センサ94a〜94dは、脚92が配置される箇所にそれぞれ設けられる。 Load sensor 94a~94d are provided respectively at positions leg 92 is disposed. この実施例では、4つの脚92が4隅に設けられているので、4つの荷重センサ94a〜94dがそれぞれ4隅に配置されることになる。 In this embodiment, since the four leg 92 is provided at the four corners, so that the four load sensors 94a~94d are located at the four corners, respectively. 脚92は、例えばプラスチック成型によって略有底円筒状に形成されており、荷重センサ94は、脚92内の底面に設けられた球面部品92a上に配置される。 Legs 92, for example, is formed in a substantially bottomed cylindrical shape by plastic molding, the load sensor 94 is arranged on a spherical surface part 92a provided on the bottom surface of the leg 92. 支持板90は、荷重センサ94を介して脚92に支持される。 Support plate 90 is supported on legs 92 via the load sensor 94.

支持板90は、上面と側面上部とを形成する上層板90a、下面と側面下部とを形成する下層板90b、および上層板90aと下層板90bとの間に設けられる中層板90cを含む。 Support plate 90 includes a middle plate 90c provided between the lower plate 90b and the upper plate 90a and a lower plate 90b, forming the upper plate 90a that forms an upper surface and the upper side surface, a lower surface and a lower side. 上層板90aと下層板90bとは、例えばプラスチック成型により形成されており、接着等により一体化される。 The upper plate 90a and a lower plate 90b, for example, is formed by plastic molding, it is integrated by bonding or the like. 中層板90cは、例えば1枚の金属板のプレス成型により形成されている。 Middle plate 90c is formed of, for example, by press molding a metal plate. 中層板90cは、4つの荷重センサ94a〜94dの上に固定される。 Middle plate 90c is fixed on the four load sensors 94a to 94d. 上層板90aは、その下面に格子状のリブ(図示しない)を有しており、当該リブを介して中層板90cに支持されている。 Upper plate 90a has a lattice-shaped rib (not shown) on its lower surface, it is supported by the intermediate plate 90c via the ribs. したがって、台9aにユーザが乗ったときには、その荷重は、支持板90および荷重センサ94a〜94dを介して、4つの脚92に伝達する。 Therefore, when the user rides on the base 9a, the load via the support plate 90 and the load sensor 94a to 94d, and transmits the four legs 92. 図7に矢印で示したように、入力された荷重によって生じた床からの反作用は、脚92から、球面部品92a、荷重センサ94a〜94d、および中層板90cを介して、上層板90aに伝達する。 As indicated by arrows in FIG. 7, the reaction of the floor caused by the inputted load, from the leg 92, via spherical parts 92a, the load sensor 94a to 94d, and the intermediate plate 90c, transmitted to the upper layer plate 90a to.

荷重センサ94は、例えば歪ゲージ(歪センサ)式ロードセルであり、入力された荷重を電気信号に変換する荷重変換器である。 Load sensor 94 is, for example, a strain gauge (strain sensor) type load cell, a load converter that converts the input load into an electric signal. 荷重センサ94では、荷重入力に応じて、起歪体95が変形して歪が生じる。 In the load sensor 94, in response to the load input, distortion occurs in the strain body 95 is deformed. この歪が、起歪体95に貼り付けられた歪センサ96によって電気抵抗の変化に変換され、さらに電圧変化に変換される。 The strain is converted into a change in electric resistance by strain sensor 96 affixed to the strain generating body 95, it is further converted into a voltage change. したがって、荷重センサ94は、入力荷重を示す電圧信号を出力端子から出力することができる。 Therefore, the load sensor 94 can output a voltage signal indicating the input load from the output terminal.

なお、荷重センサ94は、音叉振動式、弦振動式、静電容量式、圧電式、磁歪式、またはジャイロ式のような他の方式の荷重センサであってもよい。 Incidentally, the load sensor 94, the tuning fork vibration type, string vibration type, an electrostatic capacitance type, piezoelectric type, or may be a load sensor of another type, such as magnetostrictive, or gyro.

図6に戻って、ボード型コントローラ9には、さらに、電源ボタン9cが設けられる。 Returning to FIG. 6, the board-type controller 9, further power button 9c is provided. ボード型コントローラ9が起動していない状態で電源ボタン9cが操作(例えば、電源ボタン9cの押下)されると、ボード型コントローラ9の各回路コンポーネント(図8参照)に電力が供給される。 Board type controller 9 is activated to have no state power button 9c is operated (e.g., the power button 9c pressed in) when the is, power is supplied to each circuit component of the board type controller 9 (see FIG. 8). ただし、ボード型コントローラ9は、ゲーム装置本体5からの指示に従って電源オンされて各回路コンポーネントに電力供給が開始される場合もある。 However, the board-type controller 9, in some cases the power on in accordance with an instruction from the game apparatus body 5 power supply to each circuit component is started. なお、ボード型コントローラ9は、ユーザが乗っていない状態が一定時間(例えば、30秒)以上継続すると、自動的に電源がオフされてもよい。 Incidentally, board type controller 9, constant state where the user is not riding time (e.g., 30 seconds) for longer than the automatically power may be turned off. また、ボード型コントローラ9が起動している状態で、電源ボタン9cが再度操作された場合、電源がオフされて各回路コンポーネントへの電力供給が停止されてもよい。 Further, in a state where the board-type controller 9 is activated, if the power button 9c is operated again, the power supply is turned off the power supply to each circuit component may be stopped.

図8は、ボード型コントローラ9の電気的な構成の一例を示すブロック図である。 Figure 8 is a block diagram showing an example of the electrical configuration of a board-type controller 9. なお、図8では、信号およびデータの流れは実線矢印で示され、電力の供給が破線矢印で示されている。 In FIG. 8, the flow of signals and data is indicated by solid arrows, the supply of electric power is indicated by a broken line arrow.

図8において、ボード型コントローラ9は、その動作を制御するためのマイクロコンピュータ(マイコン)100を含む。 8, the board-type controller 9 comprises a microcomputer 100 for controlling the operation thereof. マイコン100は、図示しないCPU、ROM、およびRAM等を含み、CPUがROMに記憶されたプログラムに従ってボード型コントローラ9の動作を制御する。 The microcomputer 100 includes a CPU, ROM, and RAM, and controls the operation of the board type controller 9 according to the CPU is stored in the ROM program.

マイコン100には、電源ボタン9c、ADコンバータ102、DC−DCコンバータ104、および無線モジュール106が接続される。 The microcomputer 100, a power button 9c, AD converter 102, DC-DC converter 104 and a wireless module 106, is connected. さらに、無線モジュール106には、アンテナ106aが接続される。 Furthermore, the wireless module 106, an antenna 106a is connected. 4つの荷重センサ94a〜94dは、それぞれ増幅器108を介してADコンバータ102に接続される。 Four load sensors 94a~94d is connected to the AD converter 102 through respective amplifiers 108.

また、ボード型コントローラ9には、各回路コンポーネントへの電力供給のために電池110が収容されている。 In addition, the board-type controller 9, the battery 110 is housed for power supply to each circuit component. 他の実施例では、電池110に代えてACアダプタをボード型コントローラ9に接続し、商用電力を各回路コンポーネントに供給するようにしてもよい。 In other embodiments, the AC adapter connected to the board type controller 9 in place of the battery 110, a commercial power may be supplied to each circuit component. この場合、DC−DCコンバータ104に代えて、交流を直流に変換し、直流電圧を降圧および整流する電源回路をボード型コントローラ9内に設ける必要がある。 In this case, instead of the DC-DC converter 104 converts alternating current into direct current, it is necessary to provide a power supply circuit steps down and rectifies a direct current voltage to the board type controller 9. この実施例では、マイコン100および無線モジュール106への電力供給は、電池110から直接的に行われる。 In this embodiment, the power supply to the microcomputer 100 and the wireless module 106 is directly performed from the battery 110. つまり、マイコン100内部の一部のコンポーネント(CPU)と無線モジュール106とには、常に電池110からの電力が供給されており、電源ボタン9cがオンされたか否か、ゲーム装置本体5から電源オンを指示するコマンドが送信されたか否かを検出する。 That is, the microcomputer 100 within a portion of the component (CPU) and the radio module 106, always is supplied with electric power from the battery 110, whether the power button 9c is turned on, the power-on from the game apparatus body 5 instructing command to detect whether or not sent. 一方、荷重センサ94a〜94d、ADコンバータ102、および増幅器108には、DC−DCコンバータ104を介して電池110からの電力が供給される。 On the other hand, the load sensor 94a to 94d, the AD converter 102, and amplifier 108, the power from the battery 110 is supplied via the DC-DC converter 104. DC−DCコンバータ104は、電池110からの直流電流の電圧値を異なる電圧値に変換して、荷重センサ94a〜94d、ADコンバータ102、および増幅器108に与える。 DC-DC converter 104 converts the voltage value of the voltage value different direct current from the battery 110 to provide a load sensor 94a to 94d, the AD converter 102, and an amplifier 108.

これら荷重センサ94a〜94d、ADコンバータ102、および増幅器108への電力供給は、マイコン100によるDC−DCコンバータ104の制御によって、必要に応じて行われるようにしてもよい。 These load sensors 94a to 94d, power supply to the AD converter 102, and amplifier 108, the control of the DC-DC converter 104 by the microcomputer 100, may be performed as needed. つまり、マイコン100は、荷重センサ94a〜94dを動作させて荷重を検出する必要があると判断される場合に、DC−DCコンバータ104を制御して、荷重センサ94a〜94d、ADコンバータ102、および増幅器108に電力を供給するようにしてよい。 That is, the microcomputer 100, when by operating the load sensors 94a to 94d is determined that it is necessary to detect the load, by controlling the DC-DC converter 104, a load sensor 94a to 94d, AD converter 102 and, it may be adapted to supply power to the amplifier 108.

電力が供給されると、荷重センサ94a〜94dは、入力された荷重を示す信号をそれぞれ出力する。 When power is supplied, the load sensor 94a~94d outputs respectively a signal indicating the inputted load. これらの信号は、各増幅器108で増幅され、ADコンバータ102でアナログ信号からデジタルデータに変換されて、マイコン100に入力される。 These signals are amplified by respective amplifiers 108, converted from an analog signal into digital data by the AD converter 102, it is input to the microcomputer 100. 荷重センサ94a〜94dの検出値には荷重センサ94a〜94dの識別情報が付与されて、いずれの荷重センサ94a〜94dの検出値であるかが識別可能にされる。 And the identification information of the load sensor 94a to 94d is applied to the detected value of the load sensor 94a to 94d, or the detection value of one of the load sensors 94a to 94d are to be identified. このようにして、マイコン100は、同一時刻における4つの荷重センサ94a〜94dそれぞれの荷重検出値を示すデータを取得することができる。 In this way, the microcomputer 100 can obtain data indicating each of the load detection value four load sensors 94a~94d at the same time.

一方、マイコン100は、荷重センサ94a〜94dを動作させる必要がないと判断される場合、つまり、荷重検出タイミングでない場合、DC−DCコンバータ104を制御して、荷重センサ94a〜94d、ADコンバータ102、および増幅器108への電力の供給を停止する。 On the other hand, the microcomputer 100, if it is determined that there is no need to operate the load sensor 94a to 94d, that is, not a load detection timing, and controls the DC-DC converter 104, a load sensor 94a to 94d, AD converter 102 , and stops power supply to the amplifier 108. このように、ボード型コントローラ9は、必要な場合にだけ、荷重センサ94a〜94dを動作させて荷重や距離の検出を行うことができるので、荷重検出のための電力消費を抑制することができる。 Thus, the board-type controller 9, only when necessary, it is possible to detect the load and distance by operating the load sensors 94a to 94d, it is possible to suppress the power consumption for load detection .

荷重検出が必要な場合とは、典型的には、ゲーム装置本体5(図1)が荷重データを取得したいときである。 And when the load detection is required, typically, the game apparatus body 5 (FIG. 1) is when you want to get the load data. 例えば、ゲーム装置本体5が荷重情報を必要とするとき、ゲーム装置本体5は、ボード型コントローラ9に対して情報取得命令を送信する。 For example, when the game apparatus body 5 requires load information, the game apparatus body 5 transmits an information acquisition command to the board type controller 9. マイコン100は、ゲーム装置本体5から情報取得命令を受信したときに、DC−DCコンバータ104を制御して、荷重センサ94a〜94d等に電力を供給し、荷重を検出する。 Microcomputer 100, when receiving the information acquisition command from the game apparatus body 5, controls the DC-DC converter 104 supplies power to the load sensor 94a~94d like, detects a load. 一方、マイコン100は、ゲーム装置本体5から情報取得命令を受信していないときには、DC−DCコンバータ104を制御して、荷重センサ94a〜94d等への電力供給を停止する。 On the other hand, the microcomputer 100, when not receiving the information acquisition command from the game apparatus body 5 controls the DC-DC converter 104 to stop supplying power to the load sensor 94a~94d like.

なお、マイコン100は、一定時間ごとに荷重検出タイミングが到来すると判断して、DC−DCコンバータ104を制御するようにしてもよい。 Incidentally, the microcomputer 100 determines that the load detection timing arrives every predetermined time may be controlled DC-DC converter 104. このような周期的な荷重検出を行う場合、周期情報は、例えば、ゲーム開始時点においてゲーム装置本体5からボード型コントローラ9のマイコン100に与えられて記憶されてもよいし、予めマイコン100にプリインストールされてもよい。 When performing such cyclic loading detection period information, for example, may be stored from the game apparatus body 5 provided to the microcomputer 100 of the board type controller 9 in the game starting time, pre beforehand microcomputer 100 it may be installed.

荷重センサ94a〜94dからの検出値を示すデータは、ボード型コントローラ9のボード操作データ(入力データ)として、マイコン100から無線モジュール106およびアンテナ106aを介してゲーム装置本体5に送信される。 Data indicating the detection value from the load sensor 94a~94d as board operation data of the board type controller 9 (input data) is transmitted to the game apparatus body 5 from the microcomputer 100 via the wireless module 106 and the antenna 106a. 例えば、ゲーム装置本体5からの命令を受けて荷重検出を行った場合、マイコン100は、ADコンバータ102から荷重センサ94a〜94dの検出値データを受信したことに応じて、当該検出値データをゲーム装置本体5に送信する。 For example, in the case of performing the receiving and load detection instruction from the game apparatus body 5, the microcomputer 100 in response to receiving the detection value data of the load sensor 94a~94d from AD converter 102, the detection value data Game and transmits it to the apparatus body 5. なお、マイコン100は、一定時間ごとに上記検出値データをゲーム装置本体5に送信するようにしてもよい。 Incidentally, the microcomputer 100 may transmit the detection value data at predetermined time intervals to the game apparatus body 5. 荷重の検出周期よりも送信周期が長い場合には、送信タイミングまでに検出された複数の検出タイミングの荷重値を含むデータを送信すればよい。 If the transmission cycle than the detection period of the load is long, it is sufficient to transmit the data including the load values ​​of a plurality of detection timing detected by the transmission timing.

なお、無線モジュール106は、ゲーム装置本体5のコントローラ通信モジュール19と同じ無線規格(Bluetooth、無線LANなど)で通信可能にされる。 Note that the wireless module 106, the game apparatus body 5 of the controller communication module 19 to the same wireless standard (Bluetooth, wireless LAN, etc.) are capable of communicating with. したがって、ゲーム装置本体5のCPU10は、コントローラ通信モジュール19等を介して情報取得命令をボード型コントローラ9に送信することができる。 Therefore, CPU 10 of the game apparatus body 5 can transmit the information acquisition command via the controller communication module 19 or the like to the board type controller 9. このように、ボード型コントローラ9は、無線モジュール106およびアンテナ106aを介して、ゲーム装置本体5からの命令を受信することができる。 Thus, the board-type controller 9 can via the wireless module 106 and the antenna 106a, receives commands from the game apparatus body 5. また、ボード型コントローラ9は、荷重センサ94a〜94dの荷重検出値(または荷重算出値)を含むボード操作データをゲーム装置本体5に送信することができる。 Further, the board-type controller 9 is able to transmit the load detection value of the load sensor 94a~94d board operation data containing (or load calculating values) to the game apparatus body 5.

例えば4つの荷重センサ94a〜94dで検出される4つの荷重値の単なる合計値を用いて実行されるようなゲームの場合には、ユーザはボード型コントローラ9の4つの荷重センサ94a〜94dに対して任意の位置をとることができる。 For example in the case of the four detected by the four load sensors 94a~94d games like it is performed using a simple sum of the load values, the user with respect to the four load sensors 94a~94d board type controller 9 it can take any position Te. つまり、ユーザは、台9aの上の任意の位置に任意の向きで乗ってゲームをプレイすることができる。 That is, the user can play the game to ride in any direction to any position on the table 9a. しかしながら、ゲームの種類によっては、4つの荷重センサ94で検出される荷重値がユーザから見ていずれの方向の荷重値であるかを識別して処理を行う必要がある。 However, depending on the type of game, it is necessary to perform the identified processing whether a load value in either direction load values ​​detected by the four load sensors 94 are viewed from the user. つまり、ボード型コントローラ9の4つの荷重センサ94とユーザとの位置関係が把握されている必要がある。 In other words, it is necessary to positional relation between the four load sensors 94 and the user's board type controller 9 is grasped. この場合、例えば、4つの荷重センサ94とユーザとの位置関係を予め規定しておき、当該所定の位置関係が得られるようにユーザが台9a上に乗ることが前提とされてもよい。 In this case, for example, in advance define the positional relationship between the four load sensors 94 and the user, the user can ride on the table 9a may be assumed as the predetermined positional relationship is obtained. 典型的には、台9aの中央に乗ったユーザの前後左右にそれぞれ荷重センサ94a〜94dが2つずつ存在するような位置関係、つまり、ユーザがボード型コントローラ9の台9aの中央に乗った位置関係が規定される。 Typically, positional relationship, such as load sensors 94a~94d are present two each before and after the left and right of the user riding in the center of the base 9a, i.e., the user has got on the central platform 9a of the board type controller 9 the positional relationship is defined. この場合、この実施例では、ボード型コントローラ9の台9aが平面視で矩形状に形成されるとともにその矩形の1辺(長辺)に電源ボタン9cが設けられているので、この電源ボタン9cを目印として利用して、ユーザには電源ボタン9cの設けられた長辺が所定の方向(前、後、左または右)に存在するようにして台9aに乗ってもらうことを予め決めておく。 In this case, in this embodiment, since one side of the rectangle with base 9a of the board type controller 9 is formed in a rectangular shape in a plan view (the long side) in the power button 9c is provided, the power button 9c by using as a mark, a long side provided with the power button 9c the user a predetermined direction (front, back, left or right) in advance decided so as to present to get aboard the platform 9a . このようにすれば、荷重センサ94a〜94dで検出される荷重値は、ユーザから見て所定の方向(右前、左前、右後および左後)の荷重値となる。 Thus, the load value detected by the load sensor 94a~94d is a load value of a predetermined direction (right front, left front, right rear and left rear) from the user's perspective. したがって、ボード型コントローラ9およびゲーム装置本体5は、荷重検出値データに含まれる荷重センサ94の識別情報と、予め設定(記憶)された荷重センサ94のユーザに対する位置または方向を示す配置データとに基づいて、各荷重検出値がユーザから見ていずれの方向に対応するかを把握することができる。 Therefore, the board-type controller 9 and the game apparatus body 5 to the arrangement data representing the identification information of the load sensor 94 included in the load detection value data, the position or direction relative to the user of the load sensor 94 which is set in advance (stored) based on each load detection value you can know corresponding to either direction when viewed from the user. これにより、例えば前後左右の操作方向や上げている足の区別のようなユーザによるゲーム操作の意図を把握することが可能になる。 This makes it possible to grasp the intention of a game operation such as by a user, such as the distinction of the foot that are left and right operating direction or raising the front and rear.

次に、ゲーム装置本体5が行う具体的な処理を説明する前に、図9、図10A、および図10Bを用いてゲーム装置本体5で行う情報処理の概要について説明する。 Before describing specific processing by the game apparatus body 5 performs, 9, outline of an information processing explained performed in the game apparatus body 5 with reference to FIGS. 10A and 10B,. 以下の第1の実施形態における情報処理の概要の説明においては、情報処理の一例として第1のゲーム例を用いる。 In the description of the outline of information processing in the following the first embodiment, a first game as an example of an information processing. なお、図9は、第1のゲーム例において、端末装置6およびボード型コントローラ9を用いて操作するユーザの様子の一例を示す図である。 Incidentally, FIG. 9, in the first game example, illustrates an example of a state of a user operation using the terminal device 6 and the board type controller 9. 図10Aは、第1のゲーム例において、端末装置6のLCD61に表示される画像の一例を示す図である。 Figure 10A, in the first game example, illustrates an example of an image displayed on the LCD61 of the terminal device 6. 図10Bは、第1のゲーム例において、モニタ2に表示される画像の一例を示す図である。 Figure 10B, in the first game example, illustrates an example of an image displayed on the monitor 2.

図9に示すように、第1のゲーム例では、ユーザは、端末装置6およびボード型コントローラ9を用いて操作する。 As shown in FIG. 9, in the first game example, the user operates using the terminal device 6 and the board type controller 9. 具体的には、ユーザは、端末装置6を把持しながら、ボード型コントローラ9上に乗って操作する。 Specifically, the user, while holding the terminal device 6, operated ride on-board controller 9. そして、ユーザは、モニタ2に表示された画像や端末装置6のLCD61に表示された画像を見ながら、ボード型コントローラ9上で動作(例えば、足踏み動作や屈伸動作)するとともに、端末装置6自体を動かす操作をすることによってプレイする。 Then, the user, while viewing the image displayed on the LCD61 of the image or the terminal device 6 that is displayed on the monitor 2, operating on-board controller 9 (e.g., the stepping action and bending operations) as well as, the terminal device 6 itself to play by the operation of moving the. そして、端末装置6のLCD61およびモニタ2には、ユーザが把持する端末装置6の方向や姿勢と、ボード型コントローラ9上におけるユーザ動作とに応じて、仮想世界においてプレイヤオブジェクトPoが動作(例えば、姿勢が変化する動作や移動方向が変化する動作)し、プレイヤオブジェクトPoの位置や姿勢に応じて仮想世界に設定される仮想カメラの位置や姿勢を変化させたゲーム画像が表現される。 Then, the LCD61 and monitor second terminal device 6, the direction and posture of the terminal device 6 held by the user, in response to the user operation on-board controller 9, the player object Po is operating in a virtual world (e.g., attitude operation or movement direction running) changes that change, a game image obtained by changing the position and posture of the virtual camera is set in the virtual world in accordance with the position and posture of the player object Po is expressed.

図10Aに示すように、端末装置6のLCD61には仮想世界内を移動するプレイヤオブジェクトPoが表示される。 As shown in FIG. 10A, the LCD61 of the terminal device 6 player object Po moving in the virtual world is displayed. 図10Aに示した一例では、海中を泳ぐプレイヤオブジェクトPoの背後近傍に仮想カメラが設定され、当該仮想カメラから見た仮想世界内の様子がプレイヤオブジェクトPoとともに表示されている。 In the example shown in FIG. 10A, it is set the virtual camera in the vicinity behind the player object Po swim underwater, how the virtual world as seen from the virtual camera is displayed together with the player object Po. このように、プレイヤオブジェクトPoの背後近傍から見た仮想世界をLCD61に表示することによって、端末装置6を把持しているユーザに仮想世界の臨場感を与えるとともに、ユーザがプレイヤオブジェクトPoの移動方向や移動速度を直感的に知ることができる。 Thus, by displaying the virtual world as seen from the vicinity behind the player object Po in LCD 61, with giving realism of a virtual world user holding the terminal device 6, the moving direction of the user player object Po it is possible to know the and the moving speed to the intuitive. また、端末装置6の姿勢を変えたり端末装置6の向きが変わるように回転移動させたりすることによってプレイヤオブジェクトPoの姿勢や移動方向が変化するが、当該姿勢変化に応じて上記仮想カメラの位置や姿勢が変化する。 Although posture and moving direction of the player object Po is changed by or to rotational movement as the direction of the terminal device 6 of posture changing or terminal device 6 is changed, the position of the virtual camera in accordance with the posture change and attitude changes. 例えば、端末装置6の姿勢および向きを上記仮想カメラの姿勢および向きに連動させることによって、ユーザは端末装置6のLCD61を介してあたかも仮想世界内を覗いているような感覚を味わうことができる。 For example, the attitude and orientation of the terminal device 6 by interlocking the attitude and orientation of the virtual camera, the user can enjoy the feeling of being though looking into the virtual world via the LCD61 of the terminal device 6.

また、図10Bに示すように、モニタ2にもLCD61に表示されている仮想世界と同じ仮想世界が表示される。 Further, as shown in FIG. 10B, the same virtual world and the virtual world displayed on the LCD61 in the monitor 2 is displayed. 図10Bに示した一例では、海中を泳ぐプレイヤオブジェクトPoを遠方から鳥瞰した仮想世界内の様子がプレイヤオブジェクトPoとともに表示されている。 In the example shown in FIG. 10B, how the virtual world that bird's-eye player object Po swim underwater from a distance is displayed together with the player object Po. また、図10Bに示した一例では、海中を泳いだプレイヤオブジェクトPoの移動軌跡Lpが仮想世界内に表示される。 Further, in the example shown in FIG. 10B, the movement trajectory Lp of the player object Po swam in the sea is displayed in the virtual world. このように、プレイヤオブジェクトPoを遠方から鳥瞰した仮想世界内の様子をモニタ2に表示することによって、ユーザがプレイヤオブジェクトPoの周囲の状況が把握しやすくなるとともに、第1のゲーム例をユーザがプレイしている様子を見ている他の人が仮想世界をプレイヤオブジェクトPoが移動する様子を楽しむこともできる。 Thus, by displaying the state of the virtual world that bird's-eye player object Po from the distant to the monitor 2, the user with is likely to grasp the surrounding circumstances of the player object Po, the first game example user other people are looking at how you are playing can also enjoy how to move the virtual world is the player object Po.

一例として、ボード型コントローラ9上でユーザが足踏みするような動作をした場合、当該足踏み動作に応じた速度でプレイヤオブジェクトPoがバタ足して海中を泳ぐ動作をする。 As an example, a user on-board controller 9 when the operations such as stepping, speed player object Po in accordance with the stepping action is an operation to swim underwater by adding butter. また、ボード型コントローラ9上でユーザが屈伸するような動作をした場合、当該屈伸動作に応じた速度でプレイヤオブジェクトPoがドルフィンキックして海中を泳ぐ動作をする。 Also, if the user performs an operation such as bending and stretching on-board controller 9, the speed in the player object Po in accordance with the bending operation is an operation to swim underwater and dolphin kick. このように、ユーザは、ボード型コントローラ9上の動作によって、プレイヤオブジェクトPoの泳法や移動速度を変化させることができる。 In this way, the user, by operating on-board controller 9, it is possible to change the swimming style and moving speed of the player object Po.

例えば、上述したように、ボード型コントローラ9からはボード型コントローラ9上のユーザ動作に応じた荷重検出値が出力される。 For example, as described above, from the board type controller 9 load detection value according to a user operation on-board controller 9 are outputted. そして、上記荷重検出値を用いれば、ボード型コントローラ9に加わっている合計荷重やボード型コントローラ9に加わっている荷重の重心位置の算出が可能である。 Then, by using the load detection value, it is possible to calculate the barycentric position of the load being applied to the total load or board type controller 9 being applied to the board type controller 9. また、上記合計荷重の変化や重心位置の変化を用いれば、ユーザがボード型コントローラ9上でどのような動作をしているのか推定することが可能となる。 Further, if a change in the change and the gravity center position of the total load, the user is able to estimate what is what operating on-board controller 9. このようなボード型コントローラ9上で推定されるユーザ動作に応じて、プレイヤオブジェクトPoの泳法や移動速度が設定される。 Depending on the user operation is estimated on such board type controller 9, swimming styles and the moving speed of the player object Po is set.

また、ユーザが把持する端末装置6の方向や姿勢に応じて、プレイヤオブジェクトPoが海中を泳ぐ姿勢や移動方向が変化する。 Also, depending on the direction and posture of the terminal device 6 held by the user, the player object Po changes the attitude or direction of movement swim underwater. 一例として、ユーザが端末装置6自体を上下左右方向へ向けることによって、当該方向変化に応じてプレイヤオブジェクトPoが海中を泳ぐ姿勢(プレイヤオブジェクトPoが仮想世界内で向く方向)が当該方向変化に連動して変化するとともに、泳ぐ方向も変化する。 As an example, by the user directs the terminal device 6 itself to vertical and horizontal directions, interlocking position the player object Po in response to the change of direction swim underwater (direction the player object Po faces within the virtual world) is on the direction change with changes in, also it changes direction to swim. 具体的には、ユーザが端末装置6の背面を上方向へ向けるように端末装置6自体の方向を変えた場合、プレイヤオブジェクトPoが海面方向へ向くように泳ぐ姿勢を変化させるとともに、海上方向へ上昇するように泳ぐ方向を変化させる。 Specifically, if the user changes the direction of the terminal device 6 itself so as to direct the back of the terminal device 6 upward, with the player object Po is changing the attitude swim to face the sea surface direction, the sea direction It changes direction to swim to rise. また、ユーザが端末装置6の背面を左方向へ向けるように端末装置6自体の方向を変えた場合、プレイヤオブジェクトPoから見た左方向へ泳ぐ姿勢を変化させるとともに、左方向へ泳ぐ方向を変化させる。 Also, if the user changes the direction of the terminal device 6 itself so as to direct the back of the terminal device 6 to the left, along with changing the attitude swim to the left as viewed from the player object Po, changes the direction of swimming to the left make. このように、ユーザは、把持する端末装置6の方向や姿勢によって、プレイヤオブジェクトPoの姿勢や移動方向を変化させることができる。 In this way, the user, depending on the direction and the posture of the terminal device 6 for gripping, it is possible to change the posture or movement direction of the player object Po. 例えば、端末装置6の姿勢および向きをプレイヤオブジェクトPoの姿勢および移動方向に連動させることによって、ユーザは端末装置6を用いて自分自身がプレイヤオブジェクトPoとなったかのようなリアリティある操作が可能となる。 For example, by interlocking the attitude and orientation of the terminal device 6 to the position and the moving direction of the player object Po, the user himself is possible reality certain operations, such as if a player object Po is using the terminal device 6 . また、上述したように、海中を泳ぐプレイヤオブジェクトPoの背後近傍に仮想カメラが設定されるため、上記プレイヤオブジェクトPoの姿勢や移動方向が変化することによって、仮想カメラの姿勢や位置も変化する。 Further, as described above, since the virtual camera in the vicinity behind the player object Po swim underwater is set, by the posture and the moving direction of the player object Po changes, also changes the attitude or position of the virtual camera. 例えば、端末装置6の姿勢および向きを上記仮想カメラの姿勢および向きに連動させることによって、ユーザは端末装置6のLCD61を介してあたかも仮想世界内を覗いているような感覚を味わうことができる。 For example, the attitude and orientation of the terminal device 6 by interlocking the attitude and orientation of the virtual camera, the user can enjoy the feeling of being though looking into the virtual world via the LCD61 of the terminal device 6.

例えば、端末装置6からは端末装置6の姿勢変化に応じた加速度データや角速度データが出力される。 For example, from the terminal device 6 the acceleration data and angular velocity data corresponding to a change in posture of the terminal device 6 is output. そして、上記加速度データが示す加速度を用いれば、端末装置6に作用している重力加速度の方向が算出できるため、実空間における鉛直方向を基準として端末装置6がどのような姿勢になっているのか推定することができる。 Then, by using the acceleration represented by the above acceleration data, whether because it calculates the direction of the gravitational acceleration applied to the terminal 6, the terminal device 6 based on the vertical direction in the real space is in any posture it can be estimated. また、上記角速度データが示す角速度および/または上記加速度データが示す加速度を用いれば、端末装置6に作用している角速度や動的な加速度がわかるため、これらの角速度および/または動的な加速度を用いて、実空間における端末装置6の初期姿勢からの姿勢変化(方向変化)を推定することができる。 Further, by using the acceleration represented by the angular velocity and / or the acceleration data indicated by the angular velocity data, since it is clear angular velocity and dynamic acceleration applied to the terminal device 6, these angular velocity and / or dynamic acceleration using, it is possible to estimate the posture change from the initial attitude of the terminal device 6 in the real space (direction change). このように推定される端末装置6の姿勢変化(方向変化)に応じて、プレイヤオブジェクトPoの姿勢や移動方向および仮想カメラの姿勢や位置が設定される。 Thus according to the posture change of the terminal device 6 to be estimated (direction change), the attitude and position of the posture and the moving direction and the virtual cameras of the player object Po is set.

次に、ゲームシステム1において行われる第1の実施形態の処理の詳細を説明する。 Next, a first embodiment of the process details performed by the game system 1. まず、図11を参照して、第1の実施形態における処理において用いられる主なデータについて説明する。 First, referring to FIG. 11, a description main data used for the processing in the first embodiment. なお、図11は、第1の実施形態においてゲーム装置本体5の外部メインメモリ12および/または内部メインメモリ35(以下、2つのメインメモリを総称して、単にメインメモリと記載する)に記憶される主なデータおよびプログラムの一例を示す図である。 FIG. 11 is a first embodiment the game apparatus body 5 the external main memory 12 and / or the internal main memory 35 of the (collectively two main memory, simply referred to as main memory) is stored in the that is a diagram showing an example of main data and programs.

図11に示すように、メインメモリのデータ記憶領域には、ボード操作データDaa、端末操作データDab、荷重値データDac、重心位置データDad、端末装置方向姿勢データDae、操作方向データDaf、動作姿勢データDag、移動ベクトルデータDah、位置データDai、仮想カメラデータDaj、移動軌跡データDak、動作モードフラグデータDam、および画像データDan等が記憶される。 As shown in FIG. 11, the data storage area of ​​the main memory, board operation data Daa, terminal operation data Dab, load value data Dac, centroid position data Dad, terminal direction orientation data Dae, operation direction data Daf, operation posture data Dag, motion vector data Dah, position data Dai, virtual camera data Daj, movement trajectory data Dak, the operation mode flag data Dam,, and the image data Dan like are stored. なお、メインメモリには、図11に示す情報に含まれるデータの他、モニタ2やLCD61に表示される各種オブジェクトの画像データやゲームに使用される音声データ等、ゲーム処理に必要なデータが適宜記憶される。 Incidentally, in the main memory, other data contained in the information shown in FIG. 11, the monitor 2 and the audio data to be used for image data, game various objects displayed on the LCD 61, necessary for the game processing data appropriately It is stored. また、メインメモリのプログラム記憶領域には、第1の実施形態における情報処理プログラムを構成する各種プログラム群Paが記憶される。 The program storage area of ​​the main memory, various programs Pa constituting the information processing program according to the first embodiment are stored.

ボード操作データDaaは、ボード型コントローラ9から送信データとして送信されてくる一連の操作情報(ボード操作データ)が格納され、最新のボード操作データに更新される。 Board operation data Daa, a series of operation information from the board type controller 9 transmitted as transmission data (board operation data) is stored, is updated to the latest board operation data. 例えば、ボード操作データDaaは、荷重データDaa1等を含んでいる。 For example, the board operation data Daa includes load data Daa1 like. 荷重データDaa1は、ボード型コントローラ9の荷重センサ94a〜94dがそれぞれ検出した荷重検出値を示すデータである。 Load data Daa1 is load sensor 94a~94d board type controller 9 is a data showing the load detection value detected respectively.

端末操作データDabは、端末装置6から送信データとして送信されてくる一連の操作情報(端末操作データ)が格納され、最新の端末操作データに更新される。 Terminal operation data Dab, a series of operation information transmitted as transmission data from the terminal device 6 (terminal operation data) is stored, is updated to the latest terminal operation data. 例えば、端末操作データDabは、加速度データDab1および角速度データDab2等を含んでいる。 For example, terminal operation data Dab includes acceleration data Dab1 and angular velocity data Dab2 like. 加速度データDab1は、加速度センサ603によって検出された加速度(加速度ベクトル)を表すデータである。 Acceleration data Dab1 is data representing the acceleration detected by the acceleration sensor 603 (acceleration vector). 例えば、加速度データDab1は、図3に示すxyzの3軸の方向に関する加速度を各成分とする3次元の加速度を表すものであるが、他の例においては、任意の1以上の方向に関する加速度を表すものであってもよい。 For example, the acceleration data Dab1 is illustrates a three-dimensional acceleration the acceleration in the directions of three axes xyz shown in FIG. 3 and the components, in other examples, the acceleration in any one or more directions it may represent. 角速度データDab2は、ジャイロセンサ604によって検出された角速度を表すデータである。 Angular velocity data Dab2 is data representing the angular velocity detected by the gyro sensor 604. 例えば、角速度データDab2は、図3に示すxyzの3軸回りのそれぞれの角速度を表すものであるが、他の例においては、任意の1軸以上の軸回り角速度を表すものであってもよい。 For example, the angular velocity data Dab2 is illustrates a respective angular velocities around three axes xyz shown in FIG. 3, in another example, may represent any one or more axes axis angular velocity .

なお、ゲーム装置本体5は、コントローラ7、ボード型コントローラ9、および端末装置6からそれぞれ所定周期毎(例えば、1/200秒毎)に送信される操作情報に含まれるデータ(例えば、荷重検出値、加速度、および角速度を示すデータ)を逐次受信している。 The game apparatus body 5, the controller 7, the board-type controller 9, and respectively every predetermined period from the terminal device 6 (e.g., every 1/200 sec) data included in the operation information transmitted (e.g., load detection values It has received acceleration, and data) indicating the angular velocity sequentially. 例えば、受信されたデータは、入出力プロセッサ31によってメインメモリに逐次記憶される。 For example, the received data is sequentially stored in the main memory by the input-output processor 31. 後述する処理フローでは、CPU10が最新のボード操作データおよび端末操作データを1フレーム毎(例えば、1/60秒毎)にメインメモリから読み出して、ボード操作データDaaおよび端末操作データDabをそれぞれ更新する例を用いる。 The later-described processing flow, CPU 10 is each frame on the latest board operation data and terminal operation data (e.g., every 1/60 seconds) is read from the main memory, the update board operation data Daa and terminal operation data Dab respectively using the example.

また、コントローラ7、ボード型コントローラ9、および端末装置6からそれぞれ所定周期毎に送信される操作情報は、コントローラ通信モジュール19や端末通信モジュール28等に備える図示しないバッファに一旦蓄えられてもよい。 Further, the controller 7, the board-type controller 9, and the operation information transmitted respectively at predetermined intervals from the terminal device 6 may be stored temporarily in the buffer (not shown) provided in the controller such as a communication module 19 and the terminal communication module 28. この場合、上記バッファに蓄えられたデータが、1フレーム毎に読み出されて、メインメモリのボード操作データDaa(例えば、荷重データDaa1)や端末操作データDab(例えば、加速度データDab1および角速度データDab2)が更新されて用いられる。 In this case, data stored in the buffer is being read out for each frame, the board operation of the main memory data Daa (e.g., load data DAA1) and terminal operation data Dab (e.g., acceleration data Dab1 and the angular velocity data Dab2 ) is used has been updated. このとき、操作情報を受信する周期と処理周期とが異なるために、上記バッファには複数の時点に受信した操作情報が記述されていることになるが、複数の時点に受信した操作情報のうち最新の操作情報のみを用いて当該処理が実行される。 In this case, since the period with the processing cycle of receiving operation information is different, but will be operation information received in a plurality of time points is described in the above buffer, among the operation information received in a plurality of time points the process by using only the latest operation information is performed.

荷重値データDacは、ボード型コントローラ9が検出する荷重値を示すデータの集合である。 Load value data Dac is a set of data indicating the load value-board controller 9 detects. 例えば、荷重値データDacは、荷重センサ94a〜94dがそれぞれ検出した荷重の合計値(合計荷重値)を示すデータの集合である。 For example, a load value data Dac is a set of data representing the total value of the load the load sensor 94a~94d detects respectively (total load value). 具体的には、荷重値データDacは、時系列的に算出された所定期間内の上記合計荷重値を示すデータの配列であり、配列の各要素に上記合計荷重値を示すデータが時系列に格納される。 Specifically, the load value data Dac, when an array of data representing the total load value in the series to the calculated predetermined time period, data representing the total load values ​​to each element of the array in a time series It is stored.

重心位置データDadは、ボード型コントローラ9に加わっている荷重の重心位置を示すデータの集合である。 The center of gravity position data Dad is a set of data indicating the position of the center of gravity of the load being applied to the board type controller 9. 例えば、重心位置データDadは、荷重センサ94a〜94dがそれぞれ検出した荷重値から所定の数式を用いて算出される重心位置を示すデータの集合である。 For example, the center of gravity position data Dad is a set of data indicating the gravity center position calculated using a predetermined formula from the load value load sensor 94a~94d is detected. 具体的には、重心位置データDadは、時系列的に算出された所定期間内の上記重心位置を示すデータの配列であり、配列の各要素に上記重心位置を示すデータが時系列に格納される。 Specifically, the center of gravity position data Dad, when an array of data representing the barycentric position in the sequence to calculated a predetermined period, the data indicating the gravity center position is stored in time series in each element of the array that.

端末装置方向姿勢データDaeは、実空間基準方向データDae1および現方向データDae2等を含んでいる。 Terminal direction orientation data Dae includes real space reference direction data Dae1 and the current direction data Dae2 like. 実空間基準方向データDae1は、実空間における端末装置6の基準方向(姿勢;実空間基準方向)を示すデータである。 Real space reference direction data Dae1 the reference direction of the terminal device 6 in the real space; data indicating the (pose real space reference direction). 現方向データDae2は、実空間における端末装置6の現時点の方向および姿勢(現方向)を示すデータである。 Current direction data Dae2 is data representing the current direction and the orientation of the terminal device 6 in the real space (now direction). 例えば、実空間基準方向データDae1および現方向データDae2は、端末操作データDabに含まれる加速度データDab1および角速度データDab2に基づいて算出される。 For example, the real space reference direction data Dae1 and the current direction data Dae2 is calculated based on the acceleration data Dab1 and the angular velocity data Dab2 included in the terminal operation data Dab. 実空間基準方向および現方向の算出方法については、後述する。 The real space reference direction and the current direction of calculation methods will be described later.

操作方向データDafは、仮想世界基準方向データDaf1および操作指示方向データDaf2等を含んでいる。 Operation direction data Daf includes virtual world reference direction data Daf1 and operating instructions direction data Daf2 like. 仮想世界基準方向データDaf1は、仮想世界において設定される基準方向を示すデータである。 Virtual world reference direction data Daf1 is data indicating the reference direction set in the virtual world. 操作指示方向データDaf2は、仮想世界に対して現時点でユーザから指示されている操作指示方向を示すデータである。 Operation pointing direction data Daf2 is data indicating an operation instruction direction indicated by the user at the present time to the virtual world. 仮想世界基準方向および操作指示方向の算出方法については、後述する。 A method for calculating the virtual world reference direction and the operation instruction directions will be described later.

動作姿勢データDagは、仮想世界におけるプレイヤオブジェクトPoの動作や姿勢を示すデータである。 Action attitude data Dag is a data showing the behavior and attitude of the player object Po in the virtual world. 移動ベクトルデータDahは、仮想世界におけるプレイヤオブジェクトPoの移動速度および移動方向を示すデータ(例えば、仮想世界における移動ベクトルを示すデータ)である。 Movement vector data Dah is data indicating the moving speed and moving direction of the player object Po in the virtual world (e.g., data indicating the motion vector in the virtual world). 位置データDaiは、仮想世界におけるプレイヤオブジェクトPoの位置を示すデータである。 Position data Dai is data indicating the position of the player object Po in the virtual world. 仮想カメラデータDajは、仮想世界に設定される仮想カメラに関するデータである。 The virtual camera data Daj is data relating to the virtual camera, which is set in the virtual world. 例えば、仮想カメラデータDajは、端末装置6のLCD61に表示するゲーム画像を生成するための第1仮想カメラに関するデータと、モニタ2に表示するゲーム画像を生成するための第2仮想カメラに関するデータとを含む。 For example, the virtual camera data Daj includes data relating to the second virtual camera for generating data relating to the first virtual camera for generating a game image to be displayed on the LCD61 of the terminal device 6, the game image displayed on the monitor 2 including. 移動軌跡データDakは、仮想世界においてプレイヤオブジェクトPoが移動した軌跡を示すデータである。 Trajectory Data Dak is data indicating the trajectory of the player object Po has moved in the virtual world.

動作モードフラグデータDamは、プレイヤオブジェクトPoに設定されている動作(例えば、泳法)に応じて設定される動作モードフラグを示すデータである。 Operation mode flag data Dam is behavior that is set for the player object Po (e.g., swimming style) is data indicating the operation mode flag is set according to. 一例として、ボード型コントローラ9上でユーザが屈伸するような動作をした場合、プレイヤオブジェクトPoの動作がドルフィンキックして海中を泳ぐ動作に設定されて動作モードフラグがオンに設定される。 As an example, if the user performs an operation such as bending and stretching on-board controller 9, the operation of the player object Po operation mode flag is set to operate swim underwater and dolphin kick is set to ON.

画像データDanは、プレイヤオブジェクトデータDan1および背景画像データDan2等を含んでいる。 Image data Dan includes player object data Dan1 and background image data Dan2 like. プレイヤオブジェクトデータDan1は、仮想世界に第1のゲーム例におけるプレイヤオブジェクトPoを配置してゲーム画像を生成するためのデータである。 Player object data Dan1 is data for generating a game image by arranging a player object Po in the first game example in the virtual world. 背景画像データDan2は、仮想世界に第1のゲーム例における背景を配置してゲーム画像を生成するためのデータである。 Background image data Dan2 is data for generating a game image a background in the first game example arranged in the virtual world.

次に、図12〜図17を参照して、ゲーム装置本体5において行われる第1の実施形態における処理の詳細を説明する。 Next, with reference to FIGS. 12 to 17, the processing details of the first embodiment will be described which is performed by the game apparatus body 5. なお、図12は、ゲーム装置本体5において実行される第1の実施形態における処理の一例を示すフローチャートである。 Incidentally, FIG. 12 is a flowchart illustrating an example of processing in the first embodiment executed by the game apparatus body 5. 図13は、図12におけるステップ44のゲーム制御処理の一例を示すサブルーチンである。 Figure 13 is a subroutine showing an example of a game control process of step 44 in FIG. 12. 図14は、図13におけるステップ83のプレイヤオブジェクト設定処理の一例を示すサブルーチンである。 Figure 14 is a subroutine showing an example of a player object setting process in step 83 in FIG. 13. 図15は、図14におけるステップ126のプレイヤオブジェクト動作設定処理の一例を示すサブルーチンである。 Figure 15 is a subroutine showing an example of a player object operation setting process in step 126 in FIG. 14. 図16は、実空間の水平面に投影した実空間基準方向および現方向と仮想世界の水平面に投影した仮想世界基準方向および操作指示方向との関係の一例を説明するための図である。 Figure 16 is a diagram for explaining an example of the relationship between the virtual world reference direction and the operation instruction directions obtained by projecting the real space reference direction and the current direction projected onto the horizontal plane in the real space to the horizontal plane of the virtual world. 図17は、実空間の鉛直面に投影した現方向と仮想世界の鉛直面に投影した操作指示方向との関係の一例を説明するための図である。 Figure 17 is a diagram for explaining an example of a relationship between the operation indication direction obtained by projecting the current direction projected on the vertical plane in the real space to the vertical plane of the virtual world. ここで、図12〜図15に示すフローチャートにおいては、処理のうち、端末装置6およびボード型コントローラ9を用いたユーザの操作に応じて、プレイヤオブジェクトPoが動作して表示される処理について主に説明し、本願発明と直接関連しない他の処理については詳細な説明を省略する。 Here, in the flowchart shown in FIGS. 12 to 15, of the processing, in accordance with a user operation using the terminal device 6 and the board type controller 9, mainly for processing the player object Po is displayed in operation described, for other processing not directly related to the present invention will not be described. また、図12〜図15では、CPU10が実行する各ステップを「S」と略称する。 Further, in FIGS. 12 to 15, abbreviated as "S" the steps CPU10 executes.

ゲーム装置本体5の電源が投入されると、ゲーム装置本体5のCPU10は、ROM/RTC13に記憶されている起動用のプログラムを実行し、これによってメインメモリ等の各ユニットが初期化される。 When the game apparatus body 5 is turned on, CPU 10 of the game apparatus body 5 executes a boot program stored in the ROM / RTC 13, whereby each unit such as the main memory are initialized. そして、光ディスク4に記憶された情報処理プログラムがメインメモリに読み込まれ、CPU10によって当該プログラムの実行が開始される。 The information processing program stored in the optical disc 4 is loaded to the main memory, it starts executing the program by the CPU 10. 図12〜図15に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。 Flowcharts shown in FIGS. 12 to 15 are flowcharts showing a process performed after the above processing is completed.

図12において、CPU10は、初期処理を実行し(ステップ40)、次のステップに処理を進める。 In FIG. 12, CPU 10 executes an initial process (step 40), and proceeds to the subsequent step. 例えば、上記ステップ40における初期処理において、CPU10は、仮想世界を構築し、ゲーム空間に登場するプレイヤオブジェクトPoや各オブジェクトを初期位置に配置したり、ゲーム処理で用いる各種パラメータの初期値を設定したりする。 For example, in the initialization process in step 40, CPU 10 constructs a virtual world, or to place the player object Po and each object appearing in the game space to the initial position, the initial values ​​of various parameters used in the game process or.

次に、CPU10は、端末装置6から送信されてくるデータに基づいて、基準方向を設定し(ステップ41)、次のステップに処理を進める。 Then, CPU 10, based on the data transmitted from the terminal device 6 sets a reference direction (step 41), and proceeds to the subsequent step. 以下、CPU10が基準方向を設定する一例について説明する。 Hereinafter, an example in which CPU10 sets the reference direction.

端末装置6は、上述したようなデータをゲーム装置本体5へ繰り返し送信している。 The terminal device 6 is transmitting data repeatedly as described above to the game apparatus body 5. ゲーム装置本体5においては、端末通信モジュール28が上記データを逐次受信し、入出力プロセッサ31が端末操作データとカメラ画像データとマイク音データとをメインメモリに逐次記憶する。 In the game apparatus body 5, the terminal communication module 28 sequentially receives the data, the input-output processor 31 sequentially stores the terminal operation data and the camera image data and the microphone sound data to the main memory. 上記ステップ41においては、CPU10は、メインメモリから最新の端末操作データを読み出して加速度データDab1および角速度データDab2を更新する。 In step 41, the CPU 10 updates the acceleration data Dab1 and the angular velocity data Dab2 reads the latest terminal operation data from the main memory.

次に、CPU10は、実空間における端末装置6の方向および姿勢を算出する。 Then, CPU 10 calculates the direction and orientation of the terminal device 6 in the real space. 例えば、CPU10は、加速度データDab1が示す加速度および角速度データDab2が示す角速度に基づいて、端末装置6の現時点の方向および姿勢を実空間における基準方向(初期姿勢)として算出し、算出された端末装置6の基準方向を示すデータを用いて実空間基準方向データDae1を更新する。 For example, CPU 10, based on the angular velocity indicated by the acceleration and the angular velocity data Dab2 represented by the acceleration data Dab1, calculates the current direction and the orientation of the terminal device 6 as a reference direction (initial orientation) in the real space, the calculated terminal update real space reference direction data Dae1 using data indicating 6 the reference direction. 例えば、CPU10は、角速度データDab2が示す角速度を用いて、端末装置6の単位時間当たりにおける実空間での回転量(方向変化量)を算出することができる。 For example, CPU 10 uses the angular velocity indicated by the angular velocity data Dab2, it can be calculated rotation amount of the real space in per unit time of the terminal device 6 (direction change amount). また、実空間において端末装置6がほぼ静止している状態(静的な状態)では、端末装置6に対して加えられる加速度が重力加速度となるため、加速度データDab1が示す加速度によって端末装置6に加えられる重力方向(すなわち、実空間における鉛直方向を基準とした端末装置6の姿勢)を算出することができる。 Further, in a state (static state) where the terminal device 6 is substantially stationary in the real space, since the acceleration applied to the terminal device 6 is the gravitational acceleration, the terminal device 6 by the acceleration represented by the acceleration data Dab1 added gravitational direction (i.e., the attitude of the terminal device 6 relative to the vertical direction in the real space) can be calculated. したがって、CPU10は、加速度データDab1が示す加速度および角速度データDab2が示す角速度に基づいて端末装置6の初期姿勢を算出することができる。 Thus, CPU 10 can calculate the initial attitude of the terminal device 6 based on the angular velocity indicated by the acceleration and the angular velocity data Dab2 indicated by the acceleration data Dab1. なお、以下の説明においては、上記ステップ41が実行される際に、実空間において端末装置6の背面が向いている方向(図3に示すz軸正方向)を実空間基準方向とする。 In the following description, when the step 41 is executed, and the real space reference direction and a direction back faces (z-axis positive direction shown in FIG. 3) of the terminal device 6 in the real space.

なお、端末装置6の初期姿勢は、加速度データDab1が示す加速度に基づいて算出されてもよいし、磁気センサ602が検出した磁気の方向に基づいて算出されてもよいし、端末装置6を特定の姿勢にした状態でユーザに所定の操作を行わせることで、所定の操作が行われた時点における特定の姿勢を初期姿勢として用いるようにしてもよい。 The initial attitude of the terminal device 6 may be calculated based on the acceleration indicated by the acceleration data Dab1, may be calculated based on the direction of the magnetic magnetic sensor 602 has detected, identifying the terminal unit 6 of it to perform a predetermined operation to the user in a state in posture may be used a specific posture at the time a predetermined operation is performed as an initial position. なお、実空間における所定方向を基準とした絶対的な姿勢として端末装置6の姿勢を算出する場合には上記初期姿勢を算出することが必要となる。 Incidentally, it is necessary to calculate the initial attitude in the case of calculating the attitude of the terminal device 6 as an absolute position relative to the predetermined direction in the real space. 上記初期姿勢を設定するタイミング、すなわち上記ステップ41を実行するタイミングは、ゲーム開始時点に自動的に行われてもいいし、端末装置6を用いてユーザが所定の操作(例えば、所定の操作ボタン64を押下する操作)を行ったことに応じて行われてもかまわない。 Timing for setting the initial position, i.e. the timing for executing the steps 41, You can either be done automatically on the game start time, a user a predetermined operation using the terminal device 6 (e.g., a predetermined operation button 64 may be performed in response to performing the operation) of pressing the.

また、上記ステップ41において、仮想世界においてプレイヤオブジェクトPoが向いている現時点の方向(例えば、そのまま移動する場合に移動方向となる方向)を仮想世界における基準方向(初期姿勢)として算出し、算出された仮想世界の基準方向を示すデータを用いて仮想世界基準方向データDaf1を更新する。 Further, in step 41, is calculated as the direction of the current player object Po is facing in the virtual world (e.g., the direction to be moved direction when moving it) the reference direction (initial orientation) in the virtual world, it is calculated It updates the virtual world reference direction data Daf1 using data indicating the reference direction in the virtual world.

上記ステップ41の次にステップ42の処理が実行される。 Processing of a step 42 of the step 41 is executed. 以降、ステップ42〜ステップ51の一連の処理からなる処理ループが所定時間(1フレーム時間)に1回の割合で繰り返し実行される。 Hereinafter, the process loop consisting of a series of processing of step 42 to step 51 is repeatedly executed every predetermined time (1 frame time).

ステップ42において、CPU10は、ボード型コントローラ9から送信されてくるボード操作データを取得し、次のステップに処理を進める。 In step 42, CPU 10 obtains the board operation data transmitted from the board type controller 9, and goes to the next step. ここで、ボード型コントローラ9は、ボード操作データをゲーム装置本体5へ繰り返し送信している。 Here, the board-type controller 9 repeatedly transmit the board operation data to the game apparatus body 5. したがって、ゲーム装置本体5においては、コントローラ通信モジュール19が上記ボード操作データを逐次受信し、受信されたボード操作データが入出力プロセッサ31によってメインメモリに逐次記憶される。 Therefore, in the game apparatus body 5, the controller communication module 19 sequentially receives the board operation data, the received board operation data are successively stored in the main memory by the input-output processor 31. ボード型コントローラ9のボード操作データ送信の間隔は、ゲームの処理時間(1フレーム時間)よりも短い方が好ましく、例えば200分の1秒である。 Spacing board operation data transmission board type controller 9, shorter than the game processing time (1 frame time) is preferably, for example, 200 minutes 1 second. 上記ステップ42においては、CPU10は、メインメモリから最新のボード操作データを読み出して荷重データDaa1を更新する。 In step 42, CPU 10 updates the load data Daa1 reads the latest board operation data from the main memory. なお、上記ボード操作データには、荷重センサ94a〜94dの識別情報を示すデータおよび荷重センサ94a〜94dがそれぞれ検出した荷重検出値を示すデータが含まれており、当該識別情報によって区別されたデータをそれぞれ用いて、荷重データDaa1が更新される。 Note that the board operation data includes data indicating the load detection value data and the load sensor 94a~94d indicates identification information of the load sensor 94a~94d detects respectively, it is distinguished by the identification information data using each load data Daa1 is updated.

次に、CPU10は、端末装置6から送信されてくる各種のデータを取得し(ステップ43)、次のステップに処理を進める。 Then, CPU 10 obtains various kinds of data transmitted from the terminal device 6 (step 43), and proceeds to the next step. ここで、端末装置6は、上記データをゲーム装置本体5へ繰り返し送信している。 Here, the terminal device 6 is repeatedly transmitting the data to the game apparatus body 5. したがって、ゲーム装置本体5においては、端末通信モジュール28が上記データを逐次受信し、カメラ画像データおよびマイク音データについてはコーデックLSI27によって伸張処理が逐次施される。 Therefore, in the game apparatus body 5, the terminal communication module 28 sequentially receives the data, the camera image data and the microphone sound data decompression process by the codec LSI27 is performed sequentially. そして、入出力プロセッサ31は、端末操作データとカメラ画像データとマイク音データとをメインメモリに逐次記憶する。 Then, the input-output processor 31 sequentially stores the terminal operation data and the camera image data and the microphone sound data to the main memory. 上記ステップ43においては、CPU10は、メインメモリから最新の端末操作データを読み出して加速度データDab1および角速度データDab2を更新する。 In step 43, CPU 10 updates the acceleration data Dab1 and the angular velocity data Dab2 reads the latest terminal operation data from the main memory.

次に、CPU10は、ゲーム制御処理を行って(ステップ44)、次のステップに処理を進める。 Then, CPU 10 performs the game control process (step 44), and proceeds to the subsequent step. 上記ゲーム制御処理は、ユーザによるゲーム操作に従って仮想世界内のプレイヤオブジェクトPoを動作させる処理等を実行し、ゲームを進行させる処理である。 The game control process, executes the processing for operating the player object Po in the virtual world according to the game operation by the user, is proceeding with a game. 第1のゲーム例においては、ユーザは、端末装置6およびボード型コントローラ9を用いて種々のゲームを行うことが可能である。 In the first game example, the user can perform various game using the terminal device 6 and the board type controller 9. 以下、図13を参照して、上記ステップ44におけるゲーム制御処理について説明する。 Referring to FIG. 13, described game control process in step 44.

図13において、CPU10は、荷重値および重心位置を算出して(ステップ81)、次のステップに処理を進める。 In Figure 13, CPU 10 calculates the load value and the gravity center position (step 81), and proceeds to the subsequent step. 例えば、CPU10は、荷重データDaa1が示す荷重検出値を合計して合計荷重値を算出し、当該合計荷重値を示すデータを用いて荷重値データDacにおける時系列データ配列のうち最新のデータを更新する。 For example, CPU 10 sums the load detection value indicated by the load data Daa1 calculates the total load value, updating the latest data of the time-series data sequence in the load value data Dac with data indicating the total load value to. 具体的には、荷重データDaa1は、荷重センサ94a〜94dがそれぞれ検出した最新の荷重検出値を示しているため、当該荷重検出値を合計することによって、上記合計荷重値が算出される。 Specifically, load data Daa1 Because indicate the latest load detection value load sensor 94a~94d detects respectively, by summing the load detection value, the total load value is calculated. また、CPU10は、荷重データDaa1が示す荷重検出値を用いて重心位置を算出し、当該重心位置を示すデータを用いて重心位置データDadにおける時系列データ配列のうち最新のデータを更新する。 Further, CPU 10 calculates the center-of-gravity position using a load detection value indicated by the load data DAA1, and updates the latest data of the time-series data array at the center of gravity position data Dad with data indicating the gravity center position. 以下、重心位置の算出方法の一例を説明する。 Hereinafter, an example of a method of calculating the center of gravity.

上記重心位置は、ボード型コントローラ9の台9aに加わる荷重の重心位置であり、各荷重センサ94a〜94d(図6参照)が検出する荷重値によって定められる。 The center of gravity position is a barycentric position of the load applied to the base 9a of the board type controller 9, the load sensors 94a to 94d (see FIG. 6) is determined by the load value to be detected. 例えば、上記重心位置は、ボード型コントローラ9の台9a上の位置に対応する所定の座標系(例えば、台9aの中心を原点、台9aの長辺方向をX1軸方向、短辺方向をY1軸方向とするX1Y1座標系)に基づいた座標値によって表される。 For example, the position of the center of gravity, the predetermined coordinate system corresponding to the position on the platform 9a of the board type controller 9 (e.g., origin at the center of the platform 9a, the long side direction of the X1 axis direction of the table 9a, the short-side direction Y1 represented by the coordinate values ​​based on X1Y1 coordinate system) to the axial direction. そして、荷重センサ94aが検出する荷重値をa、荷重センサ94bが検出する荷重値をb、荷重センサ94cが検出する荷重値をc、荷重センサ94dが検出する荷重値をdとした場合、重心のX1軸座標値(X1)およびY1軸座標値(Y1)は、以下の数式を用いて算出することができる。 When the load value load sensor 94a detects a, the load value load sensor 94b detects b, and load value load sensor 94c detects c, and load value load sensor 94d detects was d, the center of gravity X1-axis coordinate value (X1) and Y1-axis coordinate value (Y1) can be calculated using the following equation.
X1=((a+c)―(b+d))×m X1 = ((a + c) - (b + d)) × m
Y1=((c+d)―(a+b))×n Y1 = ((c + d) - (a + b)) × n
ここで、mおよびnは、それぞれ予め定められた定数である。 Here, m and n are predetermined constants respectively.

このようにして算出される合計荷重値および重心位置は、ボード型コントローラ9上のユーザ動作や体重移動(姿勢)に応じて変化する。 Thus the total load value and the centroid position calculated by the changes in accordance with a user operation or the weight shift on-board controller 9 (attitude). 一例として、ユーザがボード型コントローラ9上で足踏みを繰り返した場合、合計荷重値が足踏み周期に応じて変動するとともに、ユーザが左足を乗せる位置と右足を乗せる位置の間を、重心位置が足踏み周期に応じて往復移動するように変化する。 As an example, if the user repeatedly stepping on-board controller 9, with a total load value varies depending on the stepping period, between the position to put the position and the right foot of the user places the left foot, the center of gravity position is stepping cycle changes so as to reciprocate in response to. 他の例として、ユーザがボード型コントローラ9上で屈伸運動を繰り返した場合、合計荷重値が屈伸周期に応じて変動するが、重心位置の変化が相対的に少なくなる。 As another example, if the user repeatedly bends on-board controller 9, but the total load value varies depending on the bending cycle, the change of the position of the center of gravity is relatively small.

次に、CPU10は、端末装置6の方向変化および姿勢を算出し(ステップ82)、次のステップに処理を進める。 Then, CPU 10 calculates the direction change and orientation of the terminal device 6 (step 82), and proceeds to the subsequent step. 例えば、CPU10は、加速度データDab1が示す加速度および角速度データDab2が示す角速度に基づいて、端末装置6の方向変化および姿勢を算出し、算出された端末装置6の方向変化および姿勢を現方向として、当該現方向を示すデータを用いて現方向データDae2を更新する。 For example, CPU 10, based on the angular velocity indicated by the acceleration and the angular velocity data Dab2 represented by the acceleration data Dab1, calculates the direction change and orientation of the terminal device 6, the direction change and orientation of the calculated terminal device 6 as the current direction, updates the current direction data Dae2 with data indicating the current direction. ここで、CPU10は、角速度データDab2が示す角速度を用いて、端末装置6の単位時間当たりにおける実空間での回転量(方向変化量)を算出することができる。 Here, CPU 10, using the angular velocity indicated by the angular velocity data Dab2, can be calculated rotation amount of the real space in per unit time of the terminal device 6 (direction change amount). また、実空間において端末装置6がほぼ静止している状態(静的な状態)では、端末装置6に対して加えられる加速度が重力加速度となるため、加速度データDab1が示す加速度によって端末装置6に加えられる重力方向(すなわち、実空間における鉛直方向を基準とした端末装置6の姿勢)を算出することができる。 Further, in a state (static state) where the terminal device 6 is substantially stationary in the real space, since the acceleration applied to the terminal device 6 is the gravitational acceleration, the terminal device 6 by the acceleration represented by the acceleration data Dab1 added gravitational direction (i.e., the attitude of the terminal device 6 relative to the vertical direction in the real space) can be calculated. したがって、CPU10は、加速度データDab1が示す加速度および角速度データDab2が示す角速度に基づいて端末装置6の方向変化や姿勢を算出することができる。 Thus, CPU 10 can calculate the change in direction and the posture of the terminal device 6 based on the angular velocity indicated by the acceleration and the angular velocity data Dab2 indicated by the acceleration data Dab1. なお、以下の説明においては、実空間において端末装置6の背面が向いている現時点の方向(図3に示すz軸正方向)を端末装置6の現方向とする。 In the following description, the direction of current to the real space back of the terminal device 6 is oriented (z-axis positive direction shown in FIG. 3) to the current direction of the terminal device 6.

なお、本実施形態においては、端末装置6で検出される加速度および角速度を示すデータに基づいて端末装置6の方向変化や姿勢を算出するが、他の実施形態においては、何れか1つのデータや3つ以上のデータを用いて端末装置6の方向変化や姿勢を算出してもよい。 In the present embodiment, it calculates the direction change or orientation of the terminal device 6 based on the data indicating the accelerations and angular velocities are detected by the terminal device 6, in other embodiments, Ya any one data three or more data may be calculated direction change or orientation of the terminal device 6 using. 例えば、端末装置6に設けられた磁気センサ602は、端末装置6に加わる磁気を検出しており、端末装置6に加わる地磁気の方向から端末装置6を基準とした所定の方位(すなわち、所定の方位を基準とした端末装置6の姿勢)を算出することができる。 For example, a magnetic sensor 602 provided in the terminal device 6 has detected magnetism applied to the terminal device 6, the direction of the geomagnetism applied to the terminal device 6 in a predetermined relative to the terminal device 6 orientation (i.e., predetermined orientation can be calculated terminal attitude of the device 6) relative to the. なお、端末装置6が配置されている実空間に、地磁気以外の磁界が発生している場合であっても、端末装置6の回転量を算出することができる。 Incidentally, in the real space in which the terminal device 6 is arranged, even if the magnetic field other than geomagnetism is occurring, it is possible to calculate the rotation amount of the terminal device 6. したがって、CPU10は、端末装置6で検出される加速度、角速度、および磁気を示すデータの少なくとも1つを用いれば、端末装置6の方向変化や姿勢を算出することができる。 Thus, CPU 10 can be used acceleration detected by the terminal device 6, the angular velocity, and at least one of data indicating a magnetic, it is possible to calculate the change in direction and the posture of the terminal device 6.

また、端末装置6の姿勢の具体的な算出方法はどのような方法であってもよいが、例えば、角速度データDab2が示す角速度に基づいて算出される端末装置6の姿勢を、加速度データDab1が示す加速度および磁気センサ602が検出した磁気の方向を用いて補正する方法が考えられる。 Further, specific method for calculating the attitude of the terminal device 6 may be any method, for example, the attitude of the terminal device 6 is calculated based on the angular velocity indicated by the angular velocity data Dab2, the acceleration data Dab1 method of correcting with the direction of the magnetic acceleration and the magnetic sensor 602 detects shown are conceivable.

具体的には、CPU10は、まず、角速度データDab2が示す角速度に基づいて端末装置6の姿勢を算出する。 Specifically, CPU 10 first calculates the attitude of the terminal device 6 on the basis of the angular velocity indicated by the angular velocity data Dab2. 端末装置6の姿勢を角速度から算出する方法はどのような方法であってもよいが、一例として、前回の姿勢(前回に算出された姿勢)と今回の角速度(今回の処理ループにおけるステップ42で取得された角速度)とを用いて算出される。 Method for calculating the attitude of the terminal device 6 from the angular velocity may be any method, as an example, in step 42 in the current angular velocity (current process loop and the previous posture (calculated posture last) It is calculated using the acquired angular velocity) and. CPU10は、前回の姿勢を今回の角速度で単位時間分だけ回転させることによって新たな姿勢を算出する。 CPU10 calculates the new position by rotating by unit time the last position in this angular velocity. なお、前回の姿勢は、現方向データDae2により表され、今回の角速度は、角速度データDab2により表される。 Incidentally, the last position is represented by current direction data DAE2, this angular velocity is represented by the angular velocity data Dab2. したがって、CPU10は、現方向データDae2および角速度データDab2を読み出して、端末装置6の姿勢を算出する。 Thus, CPU 10 reads out the current direction data Dae2 and the angular velocity data Dab2, calculates the attitude of the terminal device 6. なお、上述したように上記ステップ41において、端末装置6の初期姿勢が定められている。 Incidentally, in the step 41 as described above, the initial attitude of the terminal device 6 is defined. したがって、端末装置6の姿勢を角速度から算出する場合には、CPU10は、最初に算出された端末装置6の初期姿勢を基準として現時点における端末装置6の姿勢を算出することができる。 Therefore, when calculating the attitude of the terminal device 6 from the angular velocity is CPU 10 can calculate the attitude of the terminal device 6 at this moment the initial attitude of the originally calculated a terminal device 6 as a reference.

次に、CPU10は、角速度に基づいて算出した端末装置6の姿勢を、加速度データDab1が示す加速度を用いて補正する。 Then, CPU 10 is the attitude of the terminal device 6 which is calculated on the basis of the angular velocity is corrected using the acceleration represented by the acceleration data Dab1. 具体的には、CPU10は、加速度データDab1が示す加速度に基づいて端末装置6の姿勢を算出する。 Specifically, CPU 10 calculates the attitude of the terminal device 6 based on the acceleration indicated by the acceleration data Dab1. ここで、端末装置6がほぼ静止している状態では、端末装置6に対して加えられている加速度は重力加速度となる。 In a state in which the terminal device 6 is substantially stationary, the acceleration being applied to the terminal device 6 is the gravitational acceleration. したがって、この状態においては、加速度データDab1が示す加速度の方向を用いて重力加速度の方向(重力方向)を算出することができるので、重力方向に対する端末装置6の向き(姿勢)を算出することができる。 Therefore, in this state, it is possible to calculate the direction of the gravitational acceleration (gravity direction) using the direction of acceleration represented by the acceleration data Dab1, to calculate the orientation (posture) of the terminal device 6 with respect to the direction of gravity it can.

加速度に基づく端末装置6の姿勢が算出されると、CPU10は、加速度に基づく姿勢を用いて、角速度に基づく姿勢を補正する。 When the posture of the terminal device 6 based on the acceleration is calculated, CPU 10 uses the position based on the acceleration, it corrects the posture based on the angular velocity. 具体的には、CPU10は、角速度に基づいて算出された端末装置6の姿勢を、加速度に基づいて算出された端末装置6の姿勢へ所定の割合で近づける補正を行う。 Specifically, CPU 10 performs correction to bring the attitude of the terminal device 6, which is calculated on the basis of the angular velocity, at a predetermined rate to the attitude of the terminal device 6 that is calculated based on the acceleration. 上記所定の割合は、予め定められた固定値であってもよいし、加速度データDab1が示す加速度等に応じて設定されてもよい。 The predetermined percentage may be a fixed value set in advance or may be set according to the acceleration, etc. represented by the acceleration data Dab1. また、加速度に基づいて算出された端末装置6の姿勢に関しては、重力方向を軸とする回転方向については姿勢を算出することができないので、CPU10は、当該回転方向に関して補正を行わないようにしてもよい。 Regarding the attitude of the terminal device 6 that is calculated based on the acceleration, since the rotational direction of the gravity direction and the axis can not calculate the orientation, CPU 10 can not be performed to correct for the direction of rotation it may be. なお、角速度に基づいて算出された端末装置6の姿勢を、磁気センサ602が検出した磁気の方向に基づいて補正する場合には、CPU10は、角速度に基づいて算出された端末装置6の姿勢を、磁気の方向に基づいて算出された端末装置6の姿勢へと所定の割合で近づけるようにすればよい。 Incidentally, the attitude of the terminal device 6, which is calculated on the basis of the angular velocity, when the corrected based on the direction of the magnetic magnetic sensor 602 detects the CPU 10 is the attitude of the terminal device 6, which is calculated on the basis of the angular velocity it may be to the attitude of the terminal device 6 that is calculated based on the direction of the magnetic so as to approach a predetermined ratio. 以上によれば、CPU10は、端末装置6の姿勢を正確に算出することができる。 According to the above, CPU 10 can accurately calculate the orientation of the terminal device 6.

次に、CPU10は、プレイヤオブジェクトPoを設定し(ステップ83)、次のステップに処理を進める。 Next, CPU 10 sets the player object Po (step 83), and proceeds to the subsequent step. 以下、図14を参照して、上記ステップ83におけるプレイヤオブジェクト設定処理について説明する。 Referring to FIG. 14, a description will be given player object setting process in step 83.

図14において、CPU10は、実空間基準方向と現方向との間の水平角度差を算出し(ステップ120)、次のステップに処理を進める。 In FIG. 14, CPU 10 calculates a horizontal angle difference between the real space reference direction and the current direction (step 120), and proceeds to the subsequent step. ここで、上記水平角度差は、実空間における実空間基準方向と現方向との間の角度差を水平面に投影した角度差(例えば、図16に示す角度A)であり、端末装置6の初期姿勢から実空間の鉛直方向を軸として端末装置6の方向(端末装置6の背面が向いている方向(図3に示すz軸正方向))を変えた角度を示すものである。 Here, the horizontal angle difference is an angle difference of angle difference was projected on a horizontal plane between the real space reference direction and the current direction in the real space (for example, the angle A shown in FIG. 16), the initial terminal 6 shows the angle of changing the direction of the terminal device 6 (the direction facing the back of the terminal device 6 (z-axis positive direction shown in FIG. 3)) in the vertical direction as an axis of the real space from the attitude. 例えば、CPU10は、実空間基準方向データDae1が示す実空間基準方向と、現方向データDae2が示す現方向とを用いて、上記水平角度差を算出する。 For example, CPU 10 is a real space reference direction indicated by the real space reference direction data DAE1, by using the current direction indicated by the current direction data DAE2, calculates the horizontal angle difference.

次に、CPU10は、上記水平角度差および上下方向における端末装置6の姿勢(上下角度)に応じて、仮想世界基準方向に対する操作指示方向を算出し(ステップ121)、次のステップに処理を進める。 Then, CPU 10, depending on the attitude of the terminal device 6 (vertical angle) in the horizontal angle difference and the vertical direction, and calculates an operation instruction direction with respect to the virtual world reference direction (step 121), and proceeds to the subsequent step . 例えば、図16に示すように、CPU10は、仮想世界基準方向データDaf1が示す仮想世界基準方向を用いて、当該仮想世界基準方向と操作指示方向とを仮想世界の水平面に投影した場合に生じる角度差が、上記水平角度差となり、かつ、同じ位置関係となる(すなわち、実空間基準方向に対して現方向が左回転している場合は、仮想世界基準方向に対して操作指示方向も左回転した位置関係となるようにする)ように仮想世界における操作指示方向を算出する(図16に示す角度A)。 For example, as shown in FIG. 16, the angle CPU10 is caused when the virtual world reference direction data Daf1 using the virtual world reference direction indicated, by projecting a and operation instruction direction the virtual world reference direction in the horizontal plane of the virtual world the difference becomes the above horizontal angle difference, and the same positional relationship (i.e., if the current direction with respect to the real space reference direction is counterclockwise rotation, the operation instruction direction leftward rotation to the virtual world reference direction was set to be a positional relationship) so calculates the operation instruction direction in the virtual world (the angle a shown in FIG. 16). さらに、図17に示すように、CPU10は、現方向データDae2が示す現方向を用いて、仮想世界における水平方向と操作指示方向との角度差が、実空間における水平方向と当該現方向との角度差となり、かつ、同じ位置関係となる(すなわち、実空間の水平方向に対して現方向が下向きである場合は、仮想世界の水平方向に対して操作指示方向も下向きとなるようにする)ように仮想世界における操作指示方向を算出する(図17に示す角度C)。 Furthermore, as shown in FIG. 17, CPU 10 uses the current direction indicated by the current direction data DAE2, angular difference between the horizontal and the operation instruction direction in the virtual world, the horizontal and the current direction in the real space It becomes angular difference, and the same positional relationship (i.e., when the current direction to the horizontal direction in the real space is down also made to be a downward operation instruction direction with respect to the horizontal direction of the virtual world) calculating the operation instruction direction in the virtual world as (angle C shown in FIG. 17). そして、CPU10は、算出された操作指示方向を用いて、操作指示方向データDaf2を更新する。 Then, CPU 10 uses the calculated operation instruction direction, and updates the operation instruction direction data daf2.

次に、CPU10は、プレイヤオブジェクトPoが移動しているか否かを判断する(ステップ122)。 Then, CPU 10 determines whether or not the player object Po is moving (step 122). 例えば、CPU10は、移動ベクトルデータDahに移動ベクトルが設定されている場合、プレイヤオブジェクトPoが移動していると判断する。 For example, CPU 10, when the motion vector is set to the moving vector data Dah, it is determined that the player object Po is moving. そして、CPU10は、プレイヤオブジェクトPoが移動している場合、次のステップ123に処理を進める。 Then, CPU 10, when the player object Po is moving, the process proceeds to the next step 123. 一方、CPU10は、プレイヤオブジェクトPoが移動していない場合、次のステップ129に処理を進める。 Meanwhile, CPU 10, when the player object Po is not moving, the process proceeds to the next step 129.

ステップ123において、CPU10は、上記ステップ120で算出された水平角度差に応じて、回転移動角度を算出し、次のステップに処理を進める。 In step 123, CPU 10 in accordance with the horizontal angular difference calculated in step 120, calculates a rotational movement angle, and proceeds to the next step. 例えば、CPU10は、回転移動角度B(図16に示す角度B)を B=A×a1 For example, CPU 10 is rotational movement angle B (the angle shown in FIG. 16 B) to B = A × a1
で算出する。 In the calculation. ここで、Aは水平角度差であり、a1は1より小さい正の定数(例えば、0.001)である。 Here, A is a horizontal angle difference, a1 is less than one positive constant (e.g., 0.001).

次に、CPU10は、上記ステップ123で算出された回転移動角度に応じて、仮想世界基準方向を変化させて(ステップ124)、次のステップに処理を進める。 Then, CPU 10 in accordance with the rotational movement angle calculated in step 123, by varying the virtual world reference direction (step 124), and proceeds to the subsequent step. 例えば、CPU10は、仮想世界基準方向データDaf1が示す仮想世界基準方向を仮想世界の水平面に投影した場合に、上記回転移動角度だけ操作指示方向に近づけて仮想世界基準方向を変化させ、変化させた仮想世界基準方向を用いて仮想世界基準方向データDaf1を更新する。 For example, CPU 10 is virtual if global reference direction data Daf1 is obtained by projecting the virtual world reference direction in the horizontal plane of the virtual world indicated, changing the virtual world reference direction as close to the operation instruction direction the rotational movement angle was varied updates the virtual world reference direction data Daf1 using the virtual world reference direction.

次に、CPU10は、操作指示方向データDaf2が示す操作指示方向に基づいて、仮想世界におけるプレイヤオブジェクトPoの向きを設定し(ステップ125)、次のステップに処理を進める。 Then, CPU 10, based on the operation instruction direction indicated by the operation instruction direction data daf2, to set the orientation of the player object Po in the virtual world (step 125), and proceeds to the subsequent step. 一例として、CPU10は、操作指示方向データDaf2が示す操作指示方向をそのままプレイヤオブジェクトPoの向きとして、動作姿勢データDagを更新する。 As an example, CPU 10 is an operation instruction direction indicated by the operation instruction direction data Daf2 as the orientation of the player object Po as to update the operation posture data Dag. したがって、仮想世界におけるプレイヤオブジェクトPoの向きは、実空間における端末装置6の姿勢に基づいて設定されることになる。 Thus, the orientation of the player object Po in the virtual world will be set based on the attitude of the terminal device 6 in the real space. 例えば、ユーザが端末装置6の背面を上方向に向けた場合、当該背面が鉛直方向に対して仰向いている角度に応じた仰角にプレイヤオブジェクトPoの向きが設定される。 For example, if the user toward the back of the terminal device 6 upward, the elevation angle corresponding to the angle which the rear is Aomui the vertical direction the orientation of the player object Po is set. また、ユーザが端末装置6の背面を下方向に向けた場合、当該背面が鉛直方向に対して俯けられている角度に応じた俯角にプレイヤオブジェクトPoの向きが設定される。 When the user toward the back of the terminal device 6 in a downward direction, the depression angle corresponding to the angle which the rear is Utsumuke respect to the vertical direction the orientation of the player object Po is set. さらに、実空間基準方向に対する端末装置6の左右方向変化に基づいて、プレイヤオブジェクトPoの左右の向きが設定される。 Furthermore, based on the horizontal direction change in the terminal device 6 for real space reference direction, the left and right direction of the player object Po is set. 例えば、端末装置6がy軸回りの回転方向であるヨー方向(図3参照)に回動した場合、当該回転量に応じてプレイヤオブジェクトPoの向きも変化する。 For example, the terminal device 6 when rotated in the yaw direction (see FIG. 3) is a rotating direction of the y-axis also changes the orientation of the player object Po in accordance with the amount of rotation. 具体的には、端末装置6がy軸負方向からみて左方向へy軸周りの回動をした場合、当該回転量に応じてプレイヤオブジェクトPoの向きもプレイヤオブジェクトPoから見て左方向に変化する。 Specifically, when the terminal device 6 has a rotation around the y-axis to the left as viewed from the negative direction y axis, changes in the left direction as seen also the orientation of the player object Po from the player object Po in accordance with the amount of rotation to. また、実空間基準方向に対してユーザが端末装置6を左または右方向に回動させた状態を維持した場合、仮想世界基準方向が左または右方向へ変化し続けるため、上記ステップ121が実行されることによって仮想世界基準方向の変化に応じて操作指示方向も左または右方向へ変化し続ける。 Also, if the user maintains the state of being rotated to the terminal device 6 to the left or right direction with respect to the real space reference direction, because the virtual world reference direction continues to change to the left or right direction, the step 121 is executed operation instruction direction in response to changes in the virtual world reference direction by being also continue to change to the left or right. したがって、実空間基準方向に対してユーザが端末装置6を左または右方向に回動させた状態を維持した場合、プレイヤオブジェクトPoの向きもさらに左または右方向へ変化し続けることになる。 Therefore, if the user maintains the state of being rotated to the terminal device 6 to the left or right direction with respect to the real space reference direction, so that also the orientation of the player object Po continues to change further to the left or right direction. つまり、ユーザがプレイヤオブジェクトPoの向きを逆方向に反転させる等、大きく変化させたい場合であっても、端末装置6の向きを逆方向等に大きく変化させる必要がないため、ユーザの操作性を向上させることができる。 That is, like the user to reverse the direction of the player object Po in the reverse direction, even if it is desired to change significantly, there is no need to greatly change the orientation of the terminal device 6 in the opposite direction or the like, the operability of the user it is possible to improve.

次に、CPU10は、プレイヤオブジェクト動作設定処理を行い(ステップ126)、次のステップに処理を進める。 Then, CPU 10 performs a player object operation setting process (step 126), and proceeds to the subsequent step. 以下、図15を参照して、上記ステップ126で行うプレイヤオブジェクト動作設定処理について説明する。 Referring to FIG. 15, a description will be given player object operation setting process executed at step 126.

図15において、CPU10は、動作モードフラグデータDamが示す動作モードフラグがオフに設定されているか否かを判断する(ステップ140)。 In Figure 15, CPU 10, the operation mode flag indicating the operation mode flag data Dam determines whether it is set to OFF (step 140). そして、CPU10は、動作モードフラグがオフに設定されている場合、次のステップ141に処理を進める。 Then, CPU 10, when the operation mode flag is set to OFF, and proceeds to the subsequent step 141. 一方、CPU10は、動作モードフラグがオンに設定されている場合、次のステップ148に処理を進める。 Meanwhile, CPU 10, when the operation mode flag is set to ON, and proceeds to the subsequent step 148.

ステップ141において、CPU10は、合計荷重値が所定値以上であるか否かを判断する。 In step 141, CPU 10, the total load value is equal to or greater than a predetermined value. 例えば、CPU10は、荷重値データDacが示す最新の合計荷重値が、上記所定値以上であるか否かを判断する。 For example, CPU 10 is the latest total load value indicated by the load value data Dac it is determined whether or not the predetermined value or more. 上記所定値は、ボード型コントローラ9上でユーザが屈伸するような動作をしたことを判定するための閾値であり、一例としてボード型コントローラ9に乗っているユーザの体重に所定の割合(例えば、20%)を加算した値に設定される。 The predetermined value is a threshold value for determining that the user has the operation such as bending and stretching on-board controller 9, a predetermined ratio to the weight of the user riding on-board controller 9 as an example (e.g., It is set to a value obtained by adding 20%). ここで、ボード型コントローラ9に乗っているユーザの体重は、上記合計荷重値に基づいて算出(例えば、所定期間内に得られた合計荷重値の平均値)されてもいいし、ユーザが予め入力した値であってもよい。 Here, the weight of the user riding on-board controller 9, calculated based on the total load value (e.g., average value of the total load values ​​obtained in a predetermined period) is also to want a user in advance an input value may be. そして、CPU10は、合計荷重値が所定値以上である場合、次のステップ142に処理を進める。 Then, CPU 10, when the total load value is equal to or greater than a predetermined value, and proceeds to the subsequent step 142. 一方、CPU10は、合計荷重値が所定値未満である場合、次のステップ144に処理を進める。 Meanwhile, CPU 10, when the total load value is less than the predetermined value, and proceeds to the subsequent step 144.

ステップ142において、CPU10は、ドルフィンキックを打つ動作にオブジェクト動作を設定し、次のステップに処理を進める。 In step 142, CPU 10 sets the object operation to the operation hit the dolphin kick, and goes to the next step. 例えば、CPU10は、合計荷重値が上記所定値以上である場合、ボード型コントローラ9の上でユーザが屈伸運動したと判断する。 For example, CPU 10, when the total load value is equal to or greater than the predetermined value, the user on-board controller 9 determines that the bending and stretching exercises. この場合、CPU10は、プレイヤオブジェクトPoの動作をドルフィンキック泳法で泳ぐ動作に設定するとともに、ドルフィンキックを打つ動作に設定し、設定された動作を用いて動作姿勢データDagを更新する。 In this case, CPU 10 is configured to set the operation swim operation of the player object Po in dolphin kick swimming styles, set to operate hitting the dolphin kick, it updates the operation posture data Dag using an operation set.

次に、CPU10は、動作モードフラグをオンに設定し(ステップ143)、当該サブルーチンによる処理を終了する。 Next, CPU 10 sets the operation mode flag to ON (step 143), and exits the subroutine. 例えば、CPU10は、動作モードフラグデータDamが示す動作モードフラグをオンに変更する。 For example, CPU 10 changes the operation mode flag indicating the operation mode flag data Dam on.

一方、上記ステップ141において合計荷重値が所定値未満であると判定された場合、CPU10は、重心位置データDadが示す重心位置が右足領域外から右足領域内へ移動したか否かを判断する(ステップ144)。 On the other hand, the total load value at step 141 if it is determined to be less than the predetermined value, CPU 10 is the center of gravity position indicated by the gravity center position data Dad it is determined whether the moved from the outside of the right foot region to the right foot region ( step 144). そして、CPU10は、重心位置が右足領域外から右足領域内へ移動した場合、次のステップ145に処理を進める。 Then, CPU 10, when the center-of-gravity position has moved from outside the foot region to the right foot area, and proceeds to the subsequent step 145. 一方、CPU10は、重心位置が右足領域外から右足領域内へ移動していない場合、次のステップ146に処理を進める。 Meanwhile, CPU 10, when the center-of-gravity position has not moved from the outside of the right foot region to the right foot area, and proceeds to the subsequent step 146.

ここで、ボード型コントローラ9の台9a上の位置に対応する所定の座標系(例えば、台9aの中心を原点、台9aの長辺方向をX1軸方向、短辺方向をY1軸方向とするX1Y1座標系)には、ユーザが足踏み動作において左足を上げて右足を下げた場合に上記重心位置が移動する領域(右足領域)と、ユーザが足踏み動作において右足を上げて左足を下げた場合に上記重心位置が移動する領域(左足領域)とが設定される。 Here, the predetermined coordinate system corresponding to the position on the platform 9a of the board type controller 9 (e.g., origin at the center of the platform 9a, the long side direction of the X1 axis direction of the table 9a, the short-side direction and the Y1-axis direction the X1Y1 coordinate system), the user is a region (right foot region) in which the center of gravity moves when lowering the right foot by raising the left leg in the stepping operation, when the user lowers the left leg to raise the right foot in stepping motion region where the gravity center position moves the (left foot region) is set. 例えば、台9a上における左右(例えば、電源ボタン9cを下にした左右)に左足領域および右足領域が設定され、左足領域および右足領域の間には前後方向に延びる所定幅の中立領域が設定される。 For example, the left and right on the table 9a (e.g., the power button 9c has left and right down) are set left region and the right foot region, between the left region and the right foot area is set the neutral region of a predetermined width extending in the longitudinal direction that. 上記ステップ144の処理では、重心位置データDadが示す最新の重心位置が中立領域内から右足領域内に移動した場合等、右足領域外から右足領域内へ移動した場合に肯定判定される。 In the process of step 144, or when the latest position of the center of gravity indicated by the gravity center position data Dad has moved from the neutral region to the right foot region, an affirmative determination when moving from outside the foot region to the right foot area.

なお、ユーザは、ボード型コントローラ9上で向きを変えながら足踏みをすることが考えられる。 The user, it is conceivable to a standstill while changing the orientation on-board controller 9. この場合、上記左足領域、上記右足領域、および上記中立領域それぞれの位置を固定していると、正確な足踏み判定ができなくなることが考えられる。 In this case, the left foot region, the right foot region, and the securing the neutral regions of the respective positions, it is conceivable that not be accurate stepping determination. このような場合、上記座標系における重心位置の移動に基づいて、上記座標系における上記左足領域、上記右足領域、および上記中立領域を移動させればよい。 In this case, on the basis of the movement of the center of gravity position in the coordinate system, the left foot region in the coordinate system, may be moved above the right foot region, and the neutral area. 例えば、所定期間における重心位置の移動距離が所定長さ以上である場合、当該所定期間中における重心位置の移動軌跡の中心位置において当該移動軌跡に対して垂直に延びるように上記中立領域を移動させ、当該中立領域の移動に応じて上記左足領域および上記右足領域を移動させる。 For example, when the moving distance of the gravity center position in a predetermined period is equal to or greater than a predetermined length, moving the neutral region so as to extend perpendicularly to the movement locus at the center position of the movement locus of the position of the center of gravity during the predetermined time period , moving the left foot region and the right foot region in accordance with the movement of the neutral zone. このように上記左足領域、上記右足領域、および上記中立領域を移動させることによって、ボード型コントローラ9上で向きを変えながらユーザが足踏みしたとしても、正確に足踏み判定を行うことができる。 Thus the left foot region, by moving the right foot region, and the neutral region, even if the user stalled while changing the orientation on-board controller 9 can perform accurate stepping determination.

また、上述した足踏み判定では、ユーザがボード型コントローラ9上で足踏みした足が左足であるか右足であるかを判定しているが、このような左右の区別をしなくてもかまわない。 Further, in the foot determination described above, the user has a foot which is stepping on-board controller 9 has determined whether a right foot or a left foot, may be without distinction of such left and right. 例えば、上述した説明における「左足」を「一方の足」とし、「右足」を「他方の足」として処理を行った場合、ユーザが足踏みした足とプレイヤオブジェクトPoがバタ足で打つ足とが上述した処理の逆になる可能性があるものの、ユーザの足踏み動作にプレイヤオブジェクトPoのバタ足動作のタイミングを同期させた動作指示が可能となる。 For example, the "left" in the above description as "one foot", when performing the processing to "right" as the "other leg", foot and player object Po the user stepping there is a foot strike in flutter kick although it may be reversed in the above-described processing, the operation instruction is possible by synchronizing the timing of the flutter kick action of the player object Po to the stepping action of the user.

ステップ145において、CPU10は、右足でバタ足を打つ動作にオブジェクト動作を設定し、当該サブルーチンによる処理を終了する。 In step 145, CPU 10 sets the object operation to the operation hit the flutter kick right foot, and exits the subroutine. 例えば、CPU10は、重心位置が右足領域外から右足領域内へ移動した場合、ボード型コントローラ9の上でユーザが左足を上げて右足を下げる足踏み動作を行ったと判断する。 For example, CPU 10 determines that the center of gravity when moving from outside the foot region to the right foot area, a user on-board controller 9 has performed a stepping action to lower the right foot by raising the left leg. この場合、CPU10は、プレイヤオブジェクトPoの動作をバタ足泳法で泳ぐ動作に設定するとともに、右足でバタ足を打つ動作に設定し、設定された動作を用いて動作姿勢データDagを更新する。 In this case, CPU 10 is configured to set the operation swim operation of the player object Po in flutter kick swimming styles, set to operate hitting the flutter kick right foot, and updates the operation posture data Dag using an operation set.

ステップ146において、CPU10は、重心位置データDadが示す重心位置が左足領域外から左足領域内へ移動したか否かを判断する。 In step 146, CPU 10 determines whether the centroid position indicated by center-of-gravity position data Dad has moved from outside the left foot region to the left area. そして、CPU10は、重心位置が左足領域外から左足領域内へ移動した場合、次のステップ147に処理を進める。 Then, CPU 10, when the center-of-gravity position has moved from outside the left foot region to the left area, and proceeds to the subsequent step 147. 一方、CPU10は、重心位置が左足領域外から左足領域内へ移動していない場合、次のステップ151に処理を進める。 Meanwhile, CPU 10, when the center-of-gravity position has not moved from the outside of the left foot region to the left area, and proceeds to the subsequent step 151.

ステップ147において、CPU10は、左足でバタ足を打つ動作にオブジェクト動作を設定し、当該サブルーチンによる処理を終了する。 In step 147, CPU 10 sets the object operation to the operation hit the flutter kick left foot, and exits the subroutine. 例えば、CPU10は、重心位置が左足領域外から左足領域内へ移動した場合、ボード型コントローラ9の上でユーザが右足を上げて左足を下げる足踏み動作を行ったと判断する。 For example, CPU 10 determines that the center of gravity when moving from outside the left foot region to the left area, the user on the board type controller 9 has performed a stepping action of lowering the left leg to raise the right foot. この場合、CPU10は、プレイヤオブジェクトPoの動作をバタ足泳法で泳ぐ動作に設定するとともに、左足でバタ足を打つ動作に設定し、設定された動作を用いて動作姿勢データDagを更新する。 In this case, CPU 10 is configured to set the operation swim operation of the player object Po in flutter kick swimming styles, set to operate hitting the flutter kick left foot, and updates the operation posture data Dag using an operation set.

上記ステップ140において動作モードフラグがオンであると判定された場合、CPU10は、動作モードフラグがオンされてから所定時間が経過したか否かを判断する(ステップ148)。 If the operation mode flag in step 140 is determined to be ON, CPU 10 is operation mode flag is turned on a predetermined time after it is determined whether or not elapsed (step 148). そして、CPU10は、所定時間が経過した場合、次のステップ149に処理を進める。 Then, CPU 10, when the predetermined time has elapsed, proceeds to the subsequent step 149. 一方、CPU10は、所定時間が経過していない場合、次のステップ150に処理を進める。 Meanwhile, CPU 10, when the predetermined time has not elapsed, the process proceeds to the next step 150. ここで、上記所定時間は、ドルフィンキックが打たれてから次のドルフィンキック操作入力やバタ足操作入力を可能にするまでの時間であり、当該所定時間が経過するまでの間はボード型コントローラ9を用いたユーザの動作判定を行わない。 Here, the predetermined time is the time from the dolphin kick is struck until the enable subsequent dolphin kick operation input or flutter kick operation input, until the predetermined time elapses board type controller 9 It does not operate determination of the user with. これによって、ドルフィンキックを行った直後におけるユーザ動作の誤判定を防止することが可能となる。 This makes it possible to prevent erroneous determination of a user operation in immediately after the dolphin kick.

ステップ149において、CPU10は、動作モードフラグをオフに設定し、当該サブルーチンによる処理を終了する。 In step 149, CPU 10 sets off the operation mode flag, and it exits the subroutine. 例えば、CPU10は、動作モードフラグデータDamが示す動作モードフラグをオフに変更する。 For example, CPU 10 may vary off the operation mode flag indicating the operation mode flag data Dam,.

一方、ステップ150において、CPU10は、ドルフィンキック中にオブジェクト動作を設定し、当該サブルーチンによる処理を終了する。 On the other hand, in step 0.99, CPU 10 sets the object behavior during dolphin kick, and exits the subroutine. 例えば、CPU10は、プレイヤオブジェクトPoの動作をドルフィンキック泳法で泳ぐ動作に継続して設定するとともに、ドルフィンキック中に設定し、設定された動作を用いて動作姿勢データDagを更新する。 For example, CPU 10 is adapted to continuously set the operation swimming action of the player object Po in dolphin kick swimming styles, set during dolphin kick, updates the operation posture data Dag using an operation set.

動作モードフラグがオフ(上記ステップ140で否定判定)、合計荷重値が所定値未満(上記ステップ141で否定判定)、重心位置が右足領域外から右足領域内へ移動していない(上記ステップ144で否定判定)、および重心位置が左足領域外から左足領域内へ移動していない(上記ステップ146で否定判定)場合、CPU10は、現在設定されている動作を継続する動作に設定し(ステップ151)、当該サブルーチンによる処理を終了する。 Operation mode flag is OFF (negative determination in step 140), less than the total load value exceeds a predetermined value (negative determination in Step 141), the center of gravity position has not moved from the outside of the right foot region to the right foot area (in step 144 negative decision), and center-of-gravity position has not moved from the outside of the left foot region to the left foot region (negative determination) if in step 146, CPU 10 sets the operation to continue the operation that is currently set (step 151) , and it exits the subroutine. 例えば、CPU10は、足を打つ動作(例えば、バタ足を打つ動作)が設定されている場合は当該動作を解除し、オブジェクト動作として設定されているプレイヤオブジェクトPoの泳法はそのまま継続して設定し、設定された動作を用いて動作姿勢データDagを更新する。 For example, CPU 10 may operate hitting the legs (e.g., operation of hitting the leg kick) If is set to release the operation, swimming style of the player object Po that is set as an object action sets it continues to updates the operating orientation data Dag using an operation set.

図14に戻り、上記ステップ126におけるプレイヤオブジェクト動作設定処理の後、CPU10は、プレイヤオブジェクトPoの移動ベクトルを設定し(ステップ127)、次のステップに処理を進める。 Returning to Figure 14, after the player object operation setting process in step 126, CPU 10 sets the moving vector of the player object Po (step 127), and proceeds to the subsequent step. 例えば、CPU10は、荷重値データDacが示す合計荷重値の時系列的な配列(合計荷重値の変化履歴)および上記ステップ126で設定されたプレイヤオブジェクトPoの動作(泳法)に基づいて、プレイヤオブジェクトPoの移動速度を算出する。 For example, CPU 10, based on the time-series sequence (history of changes total load values) and the operation of the player object Po set in step 126 of the total load value indicated by the load value data Dac (swimming styles), the player object to calculate the Po movement speed of. 一例として、CPU10は、合計荷重値が変化する周期が短いほど、プレイヤオブジェクトPoが移動する速度を速く算出するとともに、合計荷重値の最大値や変化幅が大きいほど、プレイヤオブジェクトPoが移動する速度を速く算出する。 As an example, the rate CPU10 is shorter period the total load value is changed, with the player object Po is calculated faster the speed of movement, as the maximum value and the range of change in the total load value is large, the player object Po moves fast to calculate. つまり、ユーザがボード型コントローラ9上で足踏みしたり屈伸したりするピッチが短いほどプレイヤオブジェクトPoの移動速度が速くなり、ユーザがボード型コントローラ9上で足踏みしたり屈伸したりする強さが強いほどプレイヤオブジェクトPoの移動速度が速くなることになる。 That is, the user moving speed of the stepping or bending and higher pitch is shorter to or player object Po on-board controller 9 becomes faster, stronger intensity the user or bending or stepping on-board controller 9 enough so that the moving speed of the player object Po becomes faster. そして、CPU10は、算出された移動速度を設定されている泳法による係数で補正して、プレイヤオブジェクトPoの移動速度を決定する。 Then, CPU 10 corrects the factor by swimming style that is set the moving speed calculated, to determine the moving speed of the player object Po. また、プレイヤオブジェクトPoの移動速度は、足を打つタイミングにおいて相対的に速く設定し、次の足を打つタイミングまでは漸減的に遅くなるように設定される。 The moving speed of the player object Po is set relatively quickly at the timing to hit the legs until the timing to hit the next leg is set to be slower in decreasingly.

また、CPU10は、操作指示方向データDaf2が示す仮想世界における操作指示方向をプレイヤオブジェクトPoの移動方向とする。 Also, CPU 10 sets the operation instruction direction in the virtual world indicated by the operation instruction direction data Daf2 a moving direction of the player object Po. そして、CPU10は、上述したように算出されたプレイヤオブジェクトPoの移動速度および移動方向を用いて、仮想世界における移動ベクトルを算出し、算出された移動ベクトルを用いて移動ベクトルデータDahを更新する。 Then, CPU 10, using the moving speed and moving direction of the player object Po calculated as described above, it calculates the moving vector in the virtual world, and updates the movement vector data Dah using a moving vector calculated. 例えば、CPU10は、算出されたプレイヤオブジェクトPoの移動速度を用いて移動ベクトルの長さを設定し、操作指示方向データDaf2が示す操作指示方向を用いて移動ベクトルの方向を設定する。 For example, CPU 10, using the moving speed of the calculated player object Po set the length of the movement vector, to set the direction of the movement vector using the operation instruction direction indicated by the operation instruction direction data daf2.

次に、CPU10は、プレイヤオブジェクトPoの位置を算出し(ステップ128)、当該サブルーチンによる処理を終了する。 Then, CPU 10 calculates the position of the player object Po (step 128), and exits the subroutine. 例えば、CPU10は、移動ベクトルデータDahが示す移動ベクトルに基づいて、位置データDaiが示すプレイヤオブジェクトPoの位置を仮想世界内で移動させ、移動後の位置を用いて位置データDaiを更新する。 For example, CPU 10, based on the motion vector indicated by the motion vector data Dah, the position of the player object Po indicated by the position data Dai moved in the virtual world, and updates the position data Dai using the position after the movement.

一方、上記ステップ122においてプレイヤオブジェクトPoが移動していないと判定された場合、CPU10は、操作指示方向データDaf2が示す操作指示方向に基づいて、仮想世界におけるプレイヤオブジェクトPoの向きを設定し(ステップ129)、次のステップに処理を進める。 On the other hand, when the player object Po is determined not to be moving in step 122, CPU 10, based on the operation instruction direction indicated by the operation instruction direction data daf2, to set the orientation of the player object Po in the virtual world (step 129), and proceeds to the subsequent step. なお、上記ステップ129の処理については、上記ステップ125の処理と同様であるため詳細な説明を省略する。 The processing of step 129, a detailed description thereof will be omitted since it is similar to the process of step 125.

次に、CPU10は、静止状態にオブジェクト動作を設定し(ステップ130)、当該サブルーチンによる処理を終了する。 Next, CPU 10 sets the object operation in a stationary state (step 130), and exits the subroutine. 例えば、CPU10は、プレイヤオブジェクトPoの動作を静止状態(例えば、水中を泳ぐことなく漂っている状態)に設定し、設定された動作を用いて動作姿勢データDagを更新する。 For example, CPU 10 may operate the stationary state of the player object Po (e.g., a state in which floating without swim water) is set to, to update the operating orientation data Dag using an operation set.

図13に戻り、上記ステップ83のプレイヤオブジェクト設定処理の後、CPU10は、仮想カメラに関するパラメータを設定し(ステップ84)、次のステップに処理を進める。 Returning to Figure 13, after the player object setting process in step 83, CPU 10 sets the parameters relating to the virtual camera (step 84), and proceeds to the subsequent step. 例えば、端末用ゲーム画像およびモニタ用ゲーム画像は、仮想世界(仮想空間)内に仮想カメラを配置して、仮想カメラから見たゲーム空間を計算することによって得られる3次元のCG画像等によってそれぞれ生成される。 For example, a game image and the monitor terminal game image is a virtual world by placing a virtual camera (virtual space), respectively, by 3-dimensional CG image, etc. obtained by calculating the game space seen from the virtual camera It is generated. 具体的には、端末用ゲーム画像を生成するための第1仮想カメラは、仮想世界に配置されているプレイヤオブジェクトPoの背後近傍から見た仮想世界内の様子が含まれるように設定される。 Specifically, the first virtual camera for generating a game image terminal is configured to be in a state of virtual world as seen from the vicinity behind the player object Po provided in the virtual world. また、モニタ用ゲーム画像を生成するための第2仮想カメラは、上記第1仮想カメラが設定されている同じ仮想世界に設定され、当該仮想世界に配置されているプレイヤオブジェクトPoを遠方から鳥瞰した仮想世界内の様子が含まれるように設定される。 Further, the second virtual camera for generating a game image monitor, set to the same virtual world the first virtual camera is set, and bird's-eye view of the player object Po disposed in the virtual world from afar It is set to include the state of the virtual world. CPU10は、位置データDaiが示すプレイヤオブジェクトPoの位置や操作指示方向データDaf2に応じた操作指示方向(プレイヤオブジェクトPoの方向)に基づいて、第1仮想カメラおよび第2仮想カメラの仮想世界における位置(第1仮想カメラおよび第2仮想カメラに関するパラメータ)を設定する。 CPU10 based on the position and operating instructions corresponding to the direction data Daf2 operation instruction direction of the player object Po indicated by the position data Dai (direction of the player object Po), the position in the virtual world of the first virtual camera and the second virtual camera setting (parameter relating to the first virtual camera and the second virtual camera). このように、端末用ゲーム画像およびモニタ用ゲーム画像がそれぞれ異なる視点から見た仮想世界のゲーム画像となるため、それらが表示されるLCD61およびモニタ2にもそれぞれ異なる視点から見た仮想世界のゲーム画像が表示されることになる。 Since the game image game image and the monitor terminal becomes a virtual world of a game image as viewed from different viewpoints, the virtual world of the game they were viewed from different viewpoints to LCD61 and the monitor 2 are displayed so that the image is displayed. また、第1仮想カメラの向きが操作指示方向(プレイヤオブジェクトPoの方向)に基づいて設定されているが、上述したように端末装置6の姿勢に基づいて操作指示方向(プレイヤオブジェクトPoの方向)が設定されているため、結果的に端末装置6の姿勢に基づいて第1仮想カメラの向きを制御していることになる。 The first orientation of the virtual camera operation instruction direction has been set based on (direction of the player object Po), (the direction of the player object Po) Operation pointing direction based on the attitude of the terminal device 6, as described above There since have been set, so that controlling the result, the first virtual camera orientation based on the orientation of the terminal device 6. つまり、ユーザは、端末装置6本体を動かすことによって、端末装置6のLCD61に表示されている仮想世界画像を生成する第1仮想カメラを制御することが可能となる。 That is, the user, by moving the terminal device 6 body, it is possible to control the first virtual camera to generate a virtual world image displayed on the LCD61 of the terminal device 6. そして、端末装置6の姿勢および向きが第1仮想カメラの姿勢および向きに連動するため、ユーザは端末装置6のLCD61を介してあたかも仮想世界内を覗いているような感覚を味わうことができる。 Since the attitude and orientation of the terminal device 6 is linked to position and orientation of the first virtual camera, the user can enjoy the feeling of being though looking into the virtual world via the LCD61 of the terminal device 6.

次に、CPU10は、プレイヤオブジェクトPoの移動軌跡を設定し(ステップ85)、当該サブルーチンによる処理を終了する。 Next, CPU 10 sets a movement locus of the player object Po (step 85), and exits the subroutine. 例えば、CPU10は、移動軌跡データDakが示す移動軌跡に、位置データDaiが示すプレイヤオブジェクトPoの現在位置を追加し、現在位置が追加された移動軌跡を用いて移動軌跡データDakを更新する。 For example, CPU 10 is a movement locus indicated by the movement trajectory data Dak, to add the current position of the player object Po indicated by the position data Dai, and updates the movement trajectory data Dak using a moving track the current position is added.

図12に戻り、上記ステップ44におけるゲーム制御処理の後、CPU10およびGPU32は、モニタ2に表示するためのモニタ用ゲーム画像を生成し(ステップ45)、次のステップに処理を進める。 Returning to Figure 12, after the game control process in step 44, CPU 10 and GPU32 generates monitor game image to be displayed on the monitor 2 (step 45), and proceeds to the subsequent step. 例えば、CPU10およびGPU32は、上記ステップ44のゲーム制御処理の結果を表す各データをメインメモリから読み出し、モニタ用ゲーム画像を生成するために必要なデータをVRAM34から読み出してゲーム画像を生成し、生成されたモニタ用ゲーム画像をVRAM34に記憶する。 For example, CPU 10 and GPU32 reads the data representing the result of the game control process in the step 44 from the main memory, and generates a game image by reading the data necessary for generating game image monitor from VRAM 34, generates It has been a game image monitor and stored in VRAM 34. 上記モニタ用ゲーム画像は、上記ステップ44のゲーム制御処理の結果を表すものであればよく、どのような方法で生成されてもよい。 The monitor game image may be one representing the result of the game control process in the step 44, it may be generated by any method. 例えば、モニタ用ゲーム画像は、仮想カメラデータDajが示す第2仮想カメラに関するパラメータに基づいて仮想世界に第2仮想カメラを配置し、動作姿勢データDagおよび位置データDaiに基づいて仮想世界にプレイヤオブジェクトPoを配置し、移動軌跡データDakに基づいて仮想世界に移動軌跡Lpを配置して、当該第2仮想カメラから見た仮想世界を計算することによって得られる3次元のCG画像によって生成される。 For example, monitor game image, the second virtual camera placed in the virtual world on the basis of the parameters relating to the second virtual camera indicated by the virtual camera data Daj, the player object in the virtual world based on the operating attitude data Dag and position data Dai the Po was placed, on the basis of the movement locus data Dak place the movement trajectory Lp in the virtual world is generated by 3-dimensional CG image obtained by calculating the virtual world as seen from the second virtual camera.

次に、CPU10およびGPU32は、端末装置6に表示するための端末用ゲーム画像を生成し(ステップ46)、次のステップに処理を進める。 Then, CPU 10 and GPU32 generates terminal game image to be displayed on the terminal device 6 (step 46), and proceeds to the subsequent step. 例えば、CPU10およびGPU32は、上記ステップ44のゲーム制御処理の結果を表す各データをメインメモリから読み出し、端末用ゲーム画像を生成するために必要なデータをVRAM34から読み出してゲーム画像を生成し、生成されたモニタ用ゲーム画像をVRAM34に記憶する。 For example, CPU 10 and GPU32 reads the data representing the result of the game control process in the step 44 from the main memory, and generates a game image by reading the data necessary for generating game image terminal from VRAM 34, generates It has been a game image monitor and stored in VRAM 34. 端末用ゲーム画像についても、上記モニタ用ゲーム画像と同様に上記ステップ44のゲーム制御処理の結果を表すものであればよく、どのような方法で生成されてもよい。 For even the terminal game image may be those similar to the game image the monitor represents the result of the game control process in the step 44, it may be generated by any method. また、端末用ゲーム画像は、上記モニタ用ゲーム画像と同様の方法で生成されてもよいし、異なる方法で生成されてもよい。 Further, the terminal game image may be generated by the monitor game image and the same method may be generated in different ways. 例えば、端末用ゲーム画像は、仮想カメラデータDajが示す第1仮想カメラに関するパラメータに基づいて仮想世界に第1仮想カメラを配置し、動作姿勢データDagおよび位置データDaiに基づいて仮想世界にプレイヤオブジェクトPoを配置して、当該第1仮想カメラから見た仮想世界を計算することによって得られる3次元のCG画像によって生成される。 For example, the terminal game image, the first virtual camera placed in the virtual world based on the parameters relating to the first virtual camera indicated by the virtual camera data Daj, the player object in the virtual world based on the operating attitude data Dag and position data Dai by placing the Po, it is generated by 3-dimensional CG image obtained by calculating the virtual world as seen from the first virtual camera.

なお、動作姿勢データDagが示すプレイヤオブジェクトPoの動作が足を打つ動作(ドルフィンキックを打つ動作やバタ足を打つ動作)を示している場合、プレイヤオブジェクトPoが足を打つ動作を行うように上記仮想世界に配置してもよい。 Incidentally, when the operation of the player object Po showing the operation posture data Dag indicates an operation to hit the legs (operation hitting operation or flutter kick hit the dolphin kick), said to perform the operations of the player object Po hit the legs it may be placed in the virtual world. これによって、ユーザがボード型コントローラ9で行う動作(足踏み動作、屈伸動作)に同期させて、プレイヤオブジェクトPoを動作させることが可能となる。 Thus, the operation the user performs on the board type controller 9 (stepping action, bending operation) in synchronism with, it is possible to operate the player object Po.

次に、CPU10は、モニタ2のスピーカ2aに出力するためのモニタ用ゲーム音声を生成し(ステップ47)、次のステップに処理を進める。 Next, CPU 10 generates a monitor game sound to be outputted to the speaker 2a of the monitor 2 (step 47), and proceeds to the subsequent step. 例えば、CPU10は、上記ステップ44のゲーム制御処理の結果に応じてスピーカ2aから出力するためのモニタ用ゲーム音声をDSP33に生成させる。 For example, CPU 10 in accordance with the result of the game control process at step 44 to generate a monitor game sound to be output from the speaker 2a to DSP 33. 一例として、CPU10は、上記ステップ44のゲーム制御処理の結果に応じて設定された仮想世界において、第2仮想カメラの位置を基準として聞こえると想定される各オブジェクトの声、動作音、および効果音等に、モニタ2から出力させたいBGM等を加えたモニタ用ゲーム音声を、DSP33に生成させる。 As an example, CPU 10 is in the virtual world, which is set according to the result of the game control process in the step 44, the voice of each object is supposed to hear the position of the second virtual camera based, operation sound, and sound effects etc, the game sound monitor plus BGM or the like desired to be output from the monitor 2, to be generated by the DSP 33.

次に、CPU10は、端末装置6のスピーカ607に出力するための端末用ゲーム音声を生成し(ステップ48)、次のステップに処理を進める。 Next, CPU 10 generates a terminal game sound to be output to the speaker 607 of the terminal device 6 (step 48), and proceeds to the subsequent step. 例えば、CPU10は、上記ステップ44のゲーム制御処理の結果に応じてスピーカ607から出力するための端末用ゲーム音声をDSP33に生成させる。 For example, CPU 10 may generate the terminal game sound to be output from the speaker 607 according to the result of the game control process in the step 44 to the DSP 33. 一例として、CPU10は、上記ステップ44のゲーム制御処理の結果に応じて設定された仮想世界において、第1仮想カメラの位置を基準として聞こえると想定される各オブジェクトの声、動作音、および効果音等に、端末装置6から出力させたいBGM等を加えた端末用ゲーム音声を、DSP33に生成させる。 As an example, CPU 10 is in the virtual world, which is set according to the result of the game control process in the step 44, the voice of each object is supposed to hear the position of the first virtual camera as a reference, operation sound, and sound effects equal to, the terminal game sound plus BGM or the like desired to be output from the terminal device 6, to be generated by the DSP 33. なお、上記端末用ゲーム音声は、上記モニタ用ゲーム音声と同じであってもよいし、異なっていてもよい。 Incidentally, the terminal game sound may be the same as the monitor game sound, it may be different. また、上記端末用ゲーム音声は、上記モニタ用ゲーム音声に対して、一部の音声が異なる(例えば効果音は異なるが、BGMが同じ)ものでもよい。 Further, the terminal game sound, relative to the monitor game sound, some of the sound is different (although it is different from for example sound effects, BGM is the same) it may be one. なお、モニタ用ゲーム音声と端末用ゲーム音声とが同一である場合、ステップ48において端末用ゲーム音声の生成処理が実行されなくてもよい。 Incidentally, when the game sound and the terminal game sound monitor is the same, may not generate the processing of the terminal game sound is performed in step 48.

次に、CPU10は、モニタ2へモニタ用ゲーム画像およびモニタ用ゲーム音声を出力し(ステップ49)、次のステップに処理を進める。 Then, CPU 10 outputs the game game sound image and monitor the monitor to the monitor 2 (step 49), and proceeds to the subsequent step. 例えば、CPU10は、VRAM34に記憶されたモニタ用ゲーム画像のデータと、DSP33によって生成されたモニタ用ゲーム音声のデータとを、AV−IC15へ送る。 For example, CPU 10 includes data of the stored monitor game image in VRAM 34, and the data of the game audio monitor generated by the DSP 33, and sends the AV-IC 15. これに応じて、AV−IC15は、モニタ用ゲーム画像およびモニタ用ゲーム音声を示すデータを、AVコネクタ16を介してモニタ2へ出力する。 In response to this, AV-IC 15, the data indicating the game image and the monitor game sound monitor, output via an AV connector 16 to the monitor 2. これによって、モニタ用ゲーム画像がモニタ2に表示されるとともに、モニタ用ゲーム音声がスピーカ2aから出力される。 Thus, together with the monitor game image is displayed on the monitor 2, monitor game sound is output from the speaker 2a.

次に、CPU10は、端末装置6へ端末用ゲーム画像および端末用ゲーム音声を送信し(ステップ50)、次のステップに処理を進める。 Then, CPU 10 transmits a game image and game sound terminal terminal to the terminal device 6 (step 50), and proceeds to the subsequent step. 例えば、CPU10は、VRAM34に記憶された端末用ゲーム画像のデータおよびDSP33によって生成された端末用ゲーム音声のデータは、CPU10によってコーデックLSI27に送られ、コーデックLSI27によって所定の圧縮処理が行われる。 For example, CPU 10 may, game sound data terminal generated by the data and DSP33 the terminal game image stored in the VRAM 34, is sent to the codec LSI27 by CPU 10, a predetermined compression processing by the codec LSI27 is performed. さらに、圧縮処理が施された端末用ゲーム画像のデータおよび端末用ゲーム音声のデータは、コーデックLSI27によって端末通信モジュール28に送られ、アンテナ29を介して端末通信モジュール28によって端末装置6へ送信される。 Further, data of the data and the terminal game sound compression processing decorated with terminal game image is sent by the codec LSI27 to the terminal communication module 28, it is transmitted to the terminal device 6 by the terminal communication module 28 via the antenna 29 that. ゲーム装置本体5から送信された端末用ゲーム画像のデータおよび端末用ゲーム音声のデータは、端末装置6の無線モジュール610によって受信され、コーデックLSI606によって所定の伸張処理が行われる。 Game apparatus data in the data and the terminal game sound game image transmitted terminal from the main body 5 is received by the wireless module 610 of the terminal device 6, a predetermined expansion processing by the codec LSI606 is performed. そして、伸張処理が行われた端末用ゲーム画像のデータは、LCD61に出力され、伸張処理が行われた端末用ゲーム音声のデータ音声データは、サウンドIC608に出力される。 Then, the data of the game image decompression process is performed terminal is output to the LCD 61, a game sound data audio data decompression processing is performed terminal is output to the sound IC 608. これによって、端末用ゲーム画像がLCD61に表示されるとともに、端末用ゲーム音声がスピーカ607から出力される。 Thus, together with the terminal game image is displayed on the LCD 61, the terminal game sound is output from the speaker 607.

次に、CPU10は、ゲームを終了するか否かを判定する(ステップ51)。 Then, CPU 10 determines whether or not to end the game (step 51). ゲームを終了する条件としては、例えば、ゲームオーバーやゲームクリアとなる条件が満たされたことや、ユーザがゲームを終了する操作を行ったこと等がある。 The condition for terminating the game, for example, that the game is over or game clear become condition is satisfied and, and the like that the user has performed an operation for ending the game. CPU10は、ゲームを終了しない場合に上記ステップ42に戻って処理を繰り返し、ゲームを終了する場合に当該フローチャートによる処理を終了する。 CPU10, when the game is not to be ended repeats the processing returns to step 42, and ends the process of the flowchart in the case where the game is ended. 以降、ステップ42〜ステップ51の一連の処理は、ステップ51でゲームを終了すると判定されるまで繰り返し実行される。 Thereafter, the series of processes of steps 42 to step 51 is repeatedly performed until it is determined to end the game at step 51.

このように、上述した処理によれば、ボード型コントローラ9上でユーザ自身の動作に基づいた操作を行って当該ユーザ動作に基づいた処理を行う場合に、当該処理結果をユーザが把持している可搬型の端末装置6のLCD61で見ることができるため、端末装置6を把持して動作することによって好適な状況で処理結果を見ることが可能となる。 Thus, according to the process described above, when performing an operation based on the operation of the user's own on-board controller 9 performs processing based on the user operation, the processing result the user is grasping it is possible to see in LCD61 of the terminal device 6 portable, it is possible to see the processing result in the preferred situation by operating in gripping the terminal device 6. また、可搬型の端末装置6を動かすことによって仮想カメラやプレイヤオブジェクトPoの姿勢や移動方向を制御することができるため、あたかも仮想世界の中にユーザがいるような感覚を与えたり、あたかもユーザ自身がプレイヤオブジェクトPoになったかのような操作感覚をユーザに与えたりすることが可能となる。 Further, it is possible to control the posture and the moving direction of the virtual camera and the player object Po by moving the terminal device 6 portable, or give a feeling of being a user as if in a virtual world, as if the user himself but it is possible or giving the operation feeling as if became the player object Po to the user.

(第2の実施形態) (Second Embodiment)
端末装置6およびボード型コントローラ9を用いて操作するゲームは、上記第1のゲーム例に限らず、種々のゲーム例が考えられる。 Game operation using the terminal device 6 and the board type controller 9 is not limited to the first game example, it can be considered a variety of games example. 以下の第2の実施形態における情報処理の概要の説明においては、情報処理の一例として第2のゲーム例を用いる。 In the description of the outline of information processing in the following second embodiment, a second game as an example of an information processing. なお、第2の実施形態に係る情報処理プログラムを実行する情報処理装置および当該情報処理装置を含む情報処理システムについては、上述した第1の実施形態と同様であるため同じ構成要素には同一の参照符号を付して詳細な説明を省略する。 Note that the information processing system including an information processing apparatus and the information processing apparatus executes the information processing program according to the second embodiment, the same the same components are the same as those of the first embodiment described above omit the detailed description of those reference numerals.

まず、ゲーム装置本体5が行う第2の実施形態における具体的な処理を説明する前に、図18A、図18B、図19、および図20を用いてゲーム装置本体5で行う情報処理の概要について説明する。 Before describing a specific processing in the second embodiment the game apparatus body 5 performs, FIG. 18A, FIG. 18B, outline of an information processing performed by the game apparatus body 5 with reference to FIG. 19, and FIG. 20 explain. 以下の第2の実施形態における情報処理の概要の説明においては、情報処理の一例として第2のゲーム例を用いる。 In the description of the outline of information processing in the following second embodiment, a second game as an example of an information processing. なお、図18Aは、第2のゲーム例において、端末装置6のLCD61に表示される画像の一例を示す図である。 Incidentally, FIG. 18A, in the second game example, illustrates an example of an image displayed on the LCD61 of the terminal device 6. 図18Bは、第2のゲーム例において、モニタ2に表示される画像の一例を示す図である。 Figure 18B, in the second game example, illustrates an example of an image displayed on the monitor 2. 図19は、第2のゲーム例において、端末装置6のLCD61に表示される画像の他の例を示す図である。 19, in the second game example, is a diagram showing another example of an image displayed on the LCD61 of the terminal device 6. 図20は、端末装置6の姿勢に応じて仮想カメラの位置および姿勢が変化する一例を説明するための概要図である。 Figure 20 is a schematic diagram for explaining an example of the position and attitude of the virtual camera is changed according to the attitude of the terminal device 6.

第2のゲーム例では、図9に示した第1のゲーム例における操作と同様に、端末装置6およびボード型コントローラ9を用いてユーザが操作する。 In the second game example, similarly to the operation in the first game example shown in FIG. 9, the user operates using the terminal device 6 and the board type controller 9. 具体的には、第1のゲーム例における操作と同様に、ユーザは、端末装置6を把持しながら、ボード型コントローラ9上に乗って操作する。 Specifically, similarly to the operation in the first game example, the user, while holding the terminal device 6, operated ride on-board controller 9. そして、ユーザは、モニタ2に表示された画像や端末装置6のLCD61に表示された画像を見ながら、ボード型コントローラ9上で動作(例えば、ボード型コントローラ9上で屈伸動作したり、ボード型コントローラ9に加える荷重の重心位置を調整したりする動作)するとともに、端末装置6自体を動かす操作をすることによってプレイする。 Then, the user, while viewing the image displayed on the LCD61 of the image or the terminal device 6 that is displayed on the monitor 2, operating on-board controller 9 (for example, to bending operation on-board controller 9, the board-type together with the operation) to or adjusting the position of the center of gravity of the load applied to the controller 9, to play by the operation of moving the terminal device 6 itself. そして、端末装置6のLCD61およびモニタ2には、ユーザが把持する端末装置6の方向や姿勢と、ボード型コントローラ9上におけるユーザ動作とに応じて、仮想世界においてプレイヤオブジェクトPoや仮想カメラが動作(例えば、プレイヤオブジェクトPoの姿勢や移動方向が変化する動作や仮想カメラの位置や姿勢が変化する動作)し、プレイヤオブジェクトPoの位置や姿勢および/またはユーザ動作に応じて仮想世界に設定される仮想カメラの位置や姿勢を変化させたゲーム画像が表現される。 Then, the LCD61 and monitor second terminal device 6, the direction and posture of the terminal device 6 held by the user, in response to the user operation on-board controller 9, the player object Po and the virtual camera in the virtual world operation (e.g., the operating position and posture of the operation or a virtual camera position and moving direction of the player object Po is changed to change), and is set in the virtual world in accordance with the position and posture and / or the user operation of the player object Po game image obtained by changing the position and attitude of the virtual camera is represented.

図18Aに示すように、端末装置6のLCD61には仮想世界内を移動するプレイヤオブジェクトPoが表示される。 As shown in FIG. 18A, the LCD61 of the terminal device 6 player object Po moving in the virtual world is displayed. 図18Aに示した一例では、仮想世界の地上でホッピングするプレイヤオブジェクトPoの背後近傍に仮想カメラが設定され、当該仮想カメラから見た仮想世界内の様子がプレイヤオブジェクトPoとともに表示されている。 In the example shown in FIG. 18A, is set the virtual camera in the vicinity behind the player object Po hopping on the ground in the virtual world, state of the virtual world as seen from the virtual camera is displayed together with the player object Po. このように、プレイヤオブジェクトPoの背後近傍から見た仮想世界をLCD61に表示することによって、端末装置6を把持しているユーザに仮想世界の臨場感を与えるとともに、ユーザがプレイヤオブジェクトPoの移動方向や移動速度を直感的に知ることができる。 Thus, by displaying the virtual world as seen from the vicinity behind the player object Po in LCD 61, with giving realism of a virtual world user holding the terminal device 6, the moving direction of the user player object Po it is possible to know the and the moving speed to the intuitive.

また、図18Bに示すように、モニタ2にもLCD61に表示されている仮想世界と同じ仮想世界が表示される。 Further, as shown in FIG. 18B, the same virtual world and the virtual world displayed on the LCD61 in the monitor 2 is displayed. 図18Bに示した一例では、ホッピングするプレイヤオブジェクトPoを遠方から鳥瞰した仮想世界内の様子がプレイヤオブジェクトPoとともに表示されている。 In the example shown in FIG. 18B, how the virtual world is displayed together with the player object Po that bird's-eye player object Po hopping from afar. このように、プレイヤオブジェクトPoを遠方から鳥瞰した仮想世界内の様子をモニタ2に表示することによって、ユーザがプレイヤオブジェクトPoの周囲の状況が把握しやすくなるとともに、第2のゲーム例をユーザがプレイしている様子を見ている他の人が仮想世界をプレイヤオブジェクトPoが移動する様子を楽しむこともできる。 Thus, by displaying the state of the virtual world that bird's-eye player object Po from the distant to the monitor 2, the user with is likely to grasp the surrounding circumstances of the player object Po, the second game example user other people are looking at how you are playing can also enjoy how to move the virtual world is the player object Po.

一例として、ボード型コントローラ9上でユーザが屈伸(ジャンプ)するような動作をした場合、当該屈伸動作に応じた速度でプレイヤオブジェクトPoがホッピングでジャンプする動作をする。 As an example, when the operation as the user is bending (jump) on-board controller 9, the operation of the player object Po at a speed corresponding to the bending operation jumps hopping. また、プレイヤオブジェクトPoが仮想世界の空中にいる状態で、ユーザがボード型コントローラ9上に加える荷重の重心位置を変化させるような動作をした場合、プレイヤオブジェクトPoの空中における移動方向が当該重心位置の移動に応じた方向へ変化する。 Further, in a state that the player object Po is in the air in the virtual world, if the user performs an operation that changes the position of the center of gravity of the load applied on-board controller 9, the moving direction of the center of gravity position in the air of the player object Po It varies in a direction corresponding to the movement. このように、ユーザは、ボード型コントローラ9上の動作によって、プレイヤオブジェクトPoのジャンプ力(移動速度)や移動方向を変化させることができる。 In this way, the user, by operating on-board controller 9, jump force of the player object Po can be changed (moving speed) and the moving direction.

また、端末装置6の姿勢を変えたり端末装置6の向きが変わるように回転移動させたりすることによってプレイヤオブジェクトPoがジャンプする際に飛び出す移動方向や仮想カメラの位置および姿勢が変化する。 Also, the position and orientation of the moving direction and virtual camera jumping out when the player object Po jumps changed by or to rotational movement as the direction of the terminal device 6 of the posture change or the terminal device 6 is changed. 例えば、ユーザが端末装置6自体を実空間における左右方向へ向けることによって、当該方向変化に応じてプレイヤオブジェクトPoが仮想世界を移動する方向が変化する。 For example, the user by directing the terminal device 6 itself in the lateral direction in the real space, the player object Po is direction changes to move the virtual world in accordance with the change in direction. また、上記移動方向の変化に応じて、仮想カメラの視線方向を仮想世界の水平面に投影した水平視線方向が、当該移動方向を仮想世界の水平面に投影した水平移動方向と同じ方向となるように、当該仮想カメラの位置や姿勢が変化する。 Further, according to the change of the moving direction, as horizontal viewing direction obtained by projecting the line of sight direction of the virtual camera to the horizontal plane of the virtual world, the same direction as the horizontal movement direction obtained by projecting the movement direction in a horizontal plane of the virtual world , the position and orientation of the virtual camera is changed. 具体的には、ユーザが端末装置6の背面を左方向へ向けるように端末装置6自体の方向を変えた場合、仮想世界における左方向へプレイヤオブジェクトPoの移動方向が変化し、当該移動方向に視線方向を向けるとともに前方にプレイヤオブジェクトPoを置いた近傍に仮想カメラの位置および姿勢が変化する。 Specifically, if the user changes the direction of the terminal device 6 itself so as to direct the back of the terminal device 6 to the left, the moving direction of the player object Po leftward in the virtual world is changed, to the direction of movement the position and attitude of the virtual camera in the vicinity of placing the player object Po forward with direct line-of-sight direction changes.

また、ユーザが端末装置6自体を実空間における上下方向へ向けることによって、当該方向変化に応じて上記仮想カメラの位置や姿勢が変化する。 Further, by the user directs the terminal device 6 itself in the vertical direction in the real space, the position and attitude of the virtual camera is changed according to the direction change. 例えば、図20に示すように、ユーザが端末装置6の背面を実空間における水平方向へ向けるような姿勢(すなわち、端末装置6の背面やLCD61の表示面が水平方向に対して垂直となるような姿勢)で端末装置6自体を把持している場合、視線方向が仮想世界の水平方向となる姿勢でプレイヤオブジェクトPoの背後近傍となる主観位置に仮想カメラが配置される。 For example, as shown in FIG. 20, position as the user directs the back of the terminal device 6 to the horizontal direction in the real space (i.e., such that the display surface of the rear or LCD61 of the terminal device 6 is perpendicular to the horizontal direction If posture) gripping the terminal device 6 itself, viewing direction the virtual camera is placed in the subjective position where the vicinity behind the player object Po in a posture to be horizontal virtual world. この場合、図18Aに示すような仮想世界が端末装置6のLCD61に表示される。 In this case, the virtual world as shown in FIG. 18A is displayed on the LCD61 of the terminal device 6. 一方、ユーザが端末装置6の背面を実空間における下方向へ向けるような姿勢(すなわち、端末装置6の背面やLCD61の表示面が鉛直方向に対して垂直となり、当該背面が下を向いた姿勢)で端末装置6自体を把持している場合、視線方向が仮想世界の鉛直方向となる姿勢でプレイヤオブジェクトPoを上方から俯瞰し、注視点がプレイヤオブジェクトPoから移動方向へ向かう前方となる位置(俯瞰位置)に仮想カメラが配置される。 Meanwhile, the posture that the user posture (i.e., as direct downward in real space the back of the terminal device 6, it is perpendicular to the display surface vertical rear or LCD61 of the terminal device 6, the back surface facing down ) in case of gripping the terminal device 6 itself, and overhead the player object Po in a posture in which viewing direction is the vertical direction of the virtual world from above, the gazing point is forward directed from the player object Po moving direction position ( the virtual camera is placed in the overhead position). この場合、図19に示すような仮想世界が端末装置6のLCD61に表示される。 In this case, the virtual world as shown in FIG. 19 is displayed on the LCD61 of the terminal device 6. そして、ユーザが端末装置6自体を実空間における水平方向から下方向へ変化させた場合、仮想カメラの姿勢および位置も上記主観位置から上記俯瞰位置へ端末装置6の姿勢に応じて変化していく。 Then, if the user changes downward to the terminal device 6 itself in the horizontal direction in the real space, it will change in accordance with the attitude of the terminal device 6 from the orientation and position also above subjective position of the virtual camera into the overhead position .

このように、端末装置6の姿勢および向きを上記仮想カメラの姿勢および向きに連動させることによって、ユーザは端末装置6のLCD61を介してあたかも仮想世界内を覗いているような感覚を味わうことができる。 Thus, the attitude and orientation of the terminal device 6 by interlocking the attitude and orientation of the virtual camera, the user can enjoy the sensation of looking through a though virtual world via the LCD61 of the terminal device 6 it can. また、ユーザが端末装置6の背面を実空間における下方向へ向けるような姿勢で端末装置6を把持した場合、プレイヤオブジェクトPoの足下が端末装置6のLCD61に表示されるため、ユーザがプレイヤオブジェクトPoの着地点や足下の状況を確認することができる。 Also, if the user holds the terminal device 6 in a position such as to direct the rear of the terminal device 6 to the lower direction in the real space, since the foot of the player object Po is displayed on the LCD61 of the terminal device 6, the user player object it is possible to check the status of the landing point and the feet of the Po. つまり、ユーザが端末装置6の上下方向を変えることによって、プレイヤオブジェクトPoの移動方向への視野や足下への視野を確保することができ、ゲーム状況に応じてユーザ所望の画面を選択してLCD61に表示することができる。 That is, by the user changing the vertical direction of the terminal device 6, it is possible to secure the field of view of the visual field and feet in the moving direction of the player object Po, select a user desired screen depending on the game situation LCD61 it can be displayed on.

次に、ゲームシステム1において行われる第2の実施形態の処理の詳細を説明する。 Next, processing of the details of the second embodiment will be described which is performed in the game system 1. まず、図21を参照して、第1の実施形態における処理において用いられる主なデータについて説明する。 First, referring to FIG. 21, a description main data used for the processing in the first embodiment. なお、図21は、第2の実施形態においてゲーム装置本体5のメインメモリに記憶される主なデータおよびプログラムの一例を示す図である。 Incidentally, FIG. 21 is a diagram showing an example of main data and programs stored in the main memory of the game apparatus body 5 in the second embodiment.

図21に示すように、メインメモリのデータ記憶領域には、ボード操作データDba、端末操作データDbb、荷重値データDbc、重心位置データDbd、端末装置方向姿勢データDbe、操作方向データDbf、動作姿勢データDbg、移動ベクトルデータDbh、位置データDbi、仮想カメラデータDbj、ジャンプ力データDbk、ジャンプフラグデータDbm、しゃがみフラグデータDbn、および画像データDbo等が記憶される。 As shown in FIG. 21, the data storage area of ​​the main memory, board operation data Dba, terminal operation data Dbb, the load value data Dbc, the center of gravity position data dBd, terminal direction orientation data Dbe, operation direction data DBF, operation posture data Dbg, motion vector data Dbh, position data Dbi, virtual camera data Dbj, jump force data Dbk, jump flag data Dbm, squat flag data Dbn, and image data Dbo like are stored. なお、メインメモリには、図21に示す情報に含まれるデータの他、モニタ2やLCD61に表示される各種オブジェクトの画像データやゲームに使用される音声データ等、ゲーム処理に必要なデータが適宜記憶される。 Incidentally, in the main memory, other data contained in the information shown in FIG. 21, the monitor 2 and the audio data to be used for image data, game various objects displayed on the LCD 61, necessary for the game processing data appropriately It is stored. また、メインメモリのプログラム記憶領域には、第2の実施形態における情報処理プログラムを構成する各種プログラム群Pbが記憶される。 The program storage area of ​​the main memory, various programs Pb constituting the information processing program according to the second embodiment are stored.

ボード操作データDbaは、荷重データDba1等を含んでいる。 Board operation data Dba includes load data Dba1 like. なお、荷重データDba1は、第1の実施形態における荷重データDaa1と同様であるため詳細な説明を省略する。 Incidentally, the load data Dba1 is a detailed description thereof will be omitted because it is similar to the load data Daa1 in the first embodiment.

端末操作データDbbは、加速度データDbb1および角速度データDbb2等を含んでいる。 Terminal operation data Dbb includes acceleration data Dbb1 and angular velocity data Dbb2 like. なお、加速度データDbb1および角速度データDbb2は、それぞれ第1の実施形態における加速度データDab1および角速度データDab2と同様であるため詳細な説明を省略する。 The acceleration data Dbb1 and the angular velocity data Dbb2 is a detailed description thereof will be omitted because it is similar to that of the acceleration data Dab1 and the angular velocity data Dab2 in the first embodiment, respectively.

荷重値データDbcおよび重心位置データDbdは、それぞれ第1の実施形態における荷重値データDacおよび重心位置データDadと同様であるため詳細な説明を省略する。 Load value data Dbc and barycentric position data Dbd is to omit the detailed description is the same as the load value data Dac and barycentric position data Dad in the first embodiment, respectively.

端末装置方向姿勢データDbeは、実空間基準方向データDbe1および現方向データDbe2等を含んでいる。 Terminal direction orientation data Dbe includes real space reference direction data Dbe1 and the current direction data Dbe2 like. なお、実空間基準方向データDbe1および現方向データDbe2は、それぞれ第1の実施形態における実空間基準方向データDae1および現方向データDae2と同様であるため詳細な説明を省略する。 Incidentally, the real space reference direction data Dbe1 and the current direction data Dbe2 is a detailed description thereof will be omitted because it is similar to that of each of the first exemplary real space reference direction data Dae1 and the current direction data according DAE2.

操作方向データDbfは、仮想世界基準方向データDbf1および操作指示方向データDbf2等を含んでいる。 Operation direction data Dbf includes virtual world reference direction data Dbf1 and operating instructions direction data Dbf2 like. 仮想世界基準方向データDbf1は、仮想世界において設定される仮想世界基準方向を示すデータである。 Virtual world reference direction data Dbf1 is data showing the virtual world reference direction set in the virtual world. 操作指示方向データDbf2は、仮想世界に対して現時点でユーザから指示されている操作指示方向を示すデータである。 Operation pointing direction data Dbf2 is data indicating an operation instruction direction indicated by the user at the present time to the virtual world. なお、第2の実施形態における仮想世界基準方向および操作指示方向の算出方法については、後述する。 Note that the method for calculating the virtual world reference direction and the operation specified direction in the second embodiment will be described below.

動作姿勢データDbg、移動ベクトルデータDbh、位置データDbi、および仮想カメラデータDbjは、第1の実施形態とは後述するように算出方法が異なるものの、第1の実施形態と同様に、それぞれプレイヤオブジェクトPoの動作や姿勢を示すデータ、移動速度および移動方向を示すデータ、位置を示すデータ、および仮想カメラに関するデータである。 Motion posture data Dbg, motion vector data Dbh, position data Dbi, and virtual camera data Dbj, although the calculation method as the first embodiment described below is different, as in the first embodiment, respectively player object data indicating the behavior and attitude of Po, the data indicating the moving speed and moving direction, a data data, and a virtual camera showing the position.

ジャンプ力データDbkは、ボード型コントローラ9上のユーザ動作に基づいて算出されるプレイヤオブジェクトPoのジャンプ力(移動速度)を示すデータである。 Jumping data Dbk is data indicating jump force of the player object Po calculated based on the user operation on-board controller 9 (movement speed).

ジャンプフラグデータDbmは、プレイヤオブジェクトPoがジャンプ中である場合にオンされるジャンプフラグを示すデータである。 Jump flag data Dbm is data showing a jump flag player object Po is turned on when a jumping. しゃがみフラグデータDbnは、ボード型コントローラ9上でユーザがしゃがむような動作をしていると判定されている場合にオンされるしゃがみフラグを示すデータである。 Squat flag data Dbn is data representing the squat flag is turned on when the user on-board controller 9 is determined to be a squat such operations.

画像データDboは、プレイヤオブジェクトデータDbo1および背景画像データDbo2等を含んでいる。 Image data Dbo includes player object data Dbo1 and background image data Dbo2 like. プレイヤオブジェクトデータDbo1は、仮想世界に第2のゲーム例におけるプレイヤオブジェクトPoを配置してゲーム画像を生成するためのデータである。 Player object data Dbo1 is data for generating a game image by arranging a player object Po in the second game example in the virtual world. 背景画像データDbo2は、仮想世界に第2のゲーム例における背景を配置してゲーム画像を生成するためのデータである。 Background image data Dbo2 is data for generating a game image a background in the second game example arranged in the virtual world.

次に、図22〜図24を参照して、ゲーム装置本体5において行われる第2の実施形態における処理の詳細を説明する。 Next, with reference to FIGS. 22 to 24, the processing of the details of the second embodiment will be described which is performed by the game apparatus body 5. なお、図22は、ゲーム装置本体5において実行される第2の実施形態におけるプレイヤオブジェクト設定処理の一例を示すサブルーチンである。 Incidentally, FIG. 22 is a subroutine showing an example of a player object setting process in the second embodiment executed by the game apparatus body 5. 図23は、図22におけるステップ165のジャンプ動作設定処理の一例を示すサブルーチンである。 Figure 23 is a subroutine showing an example of the jump operation setting process in step 165 in FIG. 22. 図24は、合計荷重値の変化に対してしゃがみ判定および伸び判定された一例を説明するための図である。 Figure 24 is a diagram for explaining an example of the determination and elongation determined squatting with respect to the change of the total load value. ここで、図22および図23に示すフローチャートにおいては、処理のうち、端末装置6およびボード型コントローラ9を用いたユーザの操作に応じて、プレイヤオブジェクトPoが動作して表示される処理について主に説明し、本願発明と直接関連しない他の処理については詳細な説明を省略する。 Here, in the flowchart shown in FIGS. 22 and 23, of the processing, in accordance with a user operation using the terminal device 6 and the board type controller 9, mainly for processing the player object Po is displayed in operation described, for other processing not directly related to the present invention will not be described. また、図22および図23では、CPU10が実行する各ステップを「S」と略称する。 Further, in FIGS. 22 and 23, abbreviated as "S" each step CPU10 executes.

ゲーム装置本体5の電源が投入されると、ゲーム装置本体5のCPU10は、ROM/RTC13に記憶されている起動用のプログラムを実行し、これによってメインメモリ等の各ユニットが初期化される。 When the game apparatus body 5 is turned on, CPU 10 of the game apparatus body 5 executes a boot program stored in the ROM / RTC 13, whereby each unit such as the main memory are initialized. そして、光ディスク4に記憶された情報処理プログラムがメインメモリに読み込まれ、CPU10によって当該プログラムの実行が開始される。 The information processing program stored in the optical disc 4 is loaded to the main memory, it starts executing the program by the CPU 10. なお、以上の処理が完了した後に行われる第2の実施形態における処理は、第1の実施形態において図12を用いて説明したメインフローに対してステップ44におけるゲーム制御処理のみ異なり、他の処理は第1の実施形態と同様であるため、同様の処理についての詳細な説明を省略する。 The processing in the second embodiment to be performed after the above processing is completed, differ only game control process in the step 44 to the main flow described with reference to FIG. 12 in the first embodiment, other processing since it is similar to the first embodiment, detailed descriptions of the same processes. また、第2の実施形態において行われるステップ44のゲーム制御処理は、第1の実施形態において図13を用いて説明したサブルーチンに対してステップ83におけるプレイヤオブジェクト設定処理が異なり、ステップ85における移動軌跡を設定する処理を行わない。 The game control process of step 44 performed in the second embodiment is different from the player object setting process in step 83 with respect to the subroutine described with reference to FIG. 13 in the first embodiment, the movement trajectory in the step 85 It does not perform the process of setting. 上記ゲーム制御処理における他の処理は、第1の実施形態と同様であるため、同様の処理についての詳細な説明を省略する。 Other processing in the game control process is similar to the first embodiment, detailed descriptions of the same processes. 以下、図22を参照して、第2の実施形態で行われるステップ83におけるプレイヤオブジェクト設定処理について説明する。 Referring to FIG. 22, a description will be given player object setting process in step 83 to be performed in the second embodiment.

図22において、CPU10は、実空間基準方向と現方向との間の水平角度差を算出し(ステップ161)、次のステップに処理を進める。 In Figure 22, CPU 10 calculates a horizontal angle difference between the real space reference direction and the current direction (step 161), and proceeds to the subsequent step. ここで、上記水平角度差は、第1の実施形態と同様に、実空間における実空間基準方向と現方向との間の角度差を水平面に投影した角度差であり、端末装置6の初期姿勢から実空間の鉛直方向を軸として端末装置6の方向(端末装置6の背面が向いている方向(図3に示すz軸正方向))を変えた角度を示すものである。 Here, the horizontal angle difference, as in the first embodiment, an angle difference that is projected on a horizontal plane an angle difference between a real space reference direction and the current direction in the real space, the initial attitude of the terminal device 6 from shows the angle of changing the direction of the terminal device 6 (the direction facing the back of the terminal device 6 (z-axis positive direction shown in FIG. 3)) in the vertical direction as an axis of the real space. 例えば、CPU10は、実空間基準方向データDbe1が示す実空間基準方向と、現方向データDbe2が示す現方向とを用いて、上記水平角度差を算出する。 For example, CPU 10 is a real space reference direction indicated by the real space reference direction data DBE1, by using the current direction indicated by the current direction data Dbe2, it calculates the horizontal angle difference.

次に、CPU10は、上記水平角度差および上下方向における端末装置6の姿勢(上下角度)に応じて、仮想世界基準方向に対する操作指示方向を算出し(ステップ162)、次のステップに処理を進める。 Then, CPU 10, depending on the attitude of the terminal device 6 (vertical angle) in the horizontal angle difference and the vertical direction, and calculates an operation instruction direction with respect to the virtual world reference direction (step 162), and proceeds to the subsequent step . 例えば、CPU10は、仮想世界基準方向データDbf1が示す仮想世界基準方向を用いて、当該仮想世界基準方向と操作指示方向とを仮想世界の水平面に投影した場合に生じる角度差が、上記水平角度差となり、かつ、同じ位置関係となる(すなわち、実空間基準方向に対して現方向が左回転している場合は、仮想世界基準方向に対して操作指示方向も左回転した位置関係となるようにする)ように仮想世界における操作指示方向を算出する。 For example, CPU 10 is a virtual world reference direction data Dbf1 using the virtual world reference direction indicated by the angle difference caused when projected and the operation instruction direction the virtual world reference direction in the horizontal plane of the virtual world, the horizontal angle difference next, and the same positional relationship (i.e., if the current direction with respect to the real space reference direction is rotated to the left, as a positional relationship of the operation instruction direction was rotated to the left relative to the virtual world reference direction to) to calculate an operation instruction direction in the virtual world as. さらに、CPU10は、現方向データDbe2が示す現方向を用いて、仮想世界における水平方向と操作指示方向との角度差が、実空間における水平方向と当該現方向との角度差となり、かつ、同じ位置関係となる(すなわち、実空間の水平方向に対して現方向が下向きである場合は、仮想世界の水平方向に対して操作指示方向も下向きとなるようにする)ように仮想世界における操作指示方向を算出する。 Further, CPU 10 uses the current direction indicated by the current direction data Dbe2, angular difference between the operation instruction direction horizontally in the virtual world becomes the angular difference between the horizontal and the current direction in the real space, and the same a positional relationship (i.e., when the current direction to the horizontal direction in the real space is down also made to be a downward operation instruction direction with respect to the horizontal direction of the virtual world) operation instruction in the virtual world as to calculate the direction. そして、CPU10は、算出された操作指示方向を用いて、操作指示方向データDbf2を更新する。 Then, CPU 10 uses the calculated operation instruction direction, and updates the operation instruction direction data Dbf2.

なお、上記ステップ162における操作指示方向の設定においては、当該操作指示方向が設定可能な範囲を限定してもかまわない。 In the operation instruction direction of setting in step 162, may be limited to the operation specified direction is settable range. 一例として、仮想世界の水平方向に対して仮想世界基準方向を基準として左右それぞれ所定の角度範囲内に、かつ、仮想世界の鉛直方向に対して水平方向を基準として上下それぞれ所定の角度範囲内に操作指示方向が設定されるようにしてもよい。 As an example, the virtual world reference direction within a respective predetermined angle range right and left relative to the horizontal direction of the virtual world, and, within each predetermined angle range up and down relative to the horizontal direction with respect to the vertical direction of the virtual world operation instruction direction may also be set. この場合、上記角度範囲を越える操作指示方向が算出された場合、当該操作指示方向に最も近い角度範囲内に操作指示方向が変更される。 In this case, if the operation instruction direction exceeds the above angle range is calculated, the operation instruction direction is changed to the nearest angle range to the operation instruction direction. 他の例として、実空間の水平方向に対して実空間基準方向を基準として左右それぞれ所定の角度範囲内に、かつ、実空間の鉛直方向に対して水平方向を基準として上下それぞれ所定の角度範囲内に現方向が設定されるようにしてもよい。 As another example, a real-space reference direction dependent on the needs within a predetermined angular range as a reference with respect to the horizontal direction in the real space, and each predetermined angle range up and down relative to the horizontal direction with respect to the vertical direction in the real space may be present direction is set within. そして、上記角度範囲を越える現方向が算出された場合、当該現方向に最も近い角度範囲内に現方向が変更される。 Then, if the current direction exceeds the above angle range is calculated, the current direction is changed to the nearest angle range to the current direction. この場合であっても、操作指示方向が上記角度範囲内に限定された現方向に応じて算出されるため、結果的に操作指示方向も上下左右に設定された上記角度範囲内に設定されることになる。 Even in this case, the operation specified direction is set to the order is calculated according to the current direction is limited to the angular range, resulting in an operation instruction direction within the angle range set in the vertical and horizontal It will be.

次に、CPU10は、ジャンプフラグがオフに設定されているか否かを判断する(ステップ163)。 Then, CPU 10 determines whether the jump flag is set to OFF (step 163). 例えば、CPU10は、ジャンプフラグデータDbmが示すジャンプフラグがオフに設定されている場合、プレイヤオブジェクトPoがジャンプしていないと判断して次のステップ164に処理を進める。 For example, CPU 10, when the jumping flag indicated by the jump flag data Dbm is set to OFF, it is determined that the player object Po does not jump proceeds to the subsequent step 164. 一方、CPU10は、ジャンプフラグデータDbmが示すジャンプフラグがオンに設定されている場合、プレイヤオブジェクトPoがジャンプ中であると判断して次のステップ166に処理を進める。 Meanwhile, CPU 10, when the jumping flag indicated by the jump flag data Dbm is set to ON, it is determined that the player object Po is jumping proceeds to the subsequent step 166.

ステップ164において、CPU10は、ジャンプ準備状態にオブジェクト動作を設定し、次のステップに処理を進める。 In step 164, CPU 10 sets the object operation jumps ready, and goes to the next step. 例えば、CPU10は、プレイヤオブジェクトPoの動作をジャンプ準備状態(例えば、仮想世界の地面に着地して次のジャンプを行おうとしている状態)に設定し、設定された動作を用いて動作姿勢データDbgを更新する。 For example, CPU10 is, jump ready the action of the player object Po (for example, flat on the ground of the virtual world state that you are trying to following the jump) is set to, the operation posture data Dbg with reference to an operation that has been set to update.

次に、CPU10は、ジャンプ動作設定処理を行い(ステップ165)、当該サブルーチンによる処理を終了する。 Then, CPU 10 performs the jump operation setting process (step 165), and exits the subroutine. 以下、図23を参照して、上記ステップ165で行うジャンプ動作設定処理について説明する。 Referring to FIG. 23, described jump operation setting process executed at step 165.

図23において、CPU10は、しゃがみフラグデータDbnが示すしゃがみフラグがオフに設定されているか否かを判断する(ステップ181)。 In Figure 23, CPU 10, the flag squatting indicated squat flag data Dbn to determine whether it is set to OFF (step 181). そして、CPU10は、しゃがみフラグがオフに設定されている場合、次のステップ182に処理を進める。 Then, CPU 10, when the squat flag is set to OFF, and proceeds to the subsequent step 182. 一方、CPU10は、しゃがみフラグがオンに設定されている場合、次のステップ185に処理を進める。 Meanwhile, CPU 10, when the squat flag is set to ON, and proceeds to the subsequent step 185.

ステップ182において、CPU10は、合計荷重値が第1閾値以上であるか否かを判断する。 In step 182, CPU 10, the total load value is equal to or smaller than the first threshold value. 例えば、CPU10は、荷重値データDbcが示す最新の合計荷重値が、第1閾値以上であるか否かを判断する。 For example, CPU 10 is the latest total load value indicated by the load value data Dbc it is determined whether a first threshold value or more. 上記第1閾値は、ユーザがボード型コントローラ9上でしゃがむような動作をしたことを判定するための閾値であり、一例としてボード型コントローラ9に乗っているユーザの体重に所定の割合(例えば、20%)を加算した値に設定される。 The first threshold is a threshold for determining that the user has a squat like operating on-board controller 9, a predetermined ratio to the weight of the user riding on-board controller 9 as an example (e.g., It is set to a value obtained by adding 20%). なお、ボード型コントローラ9に乗っているユーザの体重は、上記合計荷重値に基づいて算出(例えば、所定期間内に得られた合計荷重値の平均値)されてもいいし、ユーザが予め入力した値であってもよい。 Incidentally, the weight of the user riding on-board controller 9, calculated based on the total load value (e.g., average value of the total load values ​​obtained in a predetermined period) is also to want, the user enters in advance it may be a value. そして、CPU10は、合計荷重値が第1閾値以上である場合、次のステップ183に処理を進める。 Then, CPU 10, when the total load value is smaller than the first threshold value, and proceeds to the subsequent step 183. 一方、CPU10は、合計荷重値が第1閾値未満である場合、次のステップ185に処理を進める。 Meanwhile, CPU 10, when the total load value is less than the first threshold value, and proceeds to the subsequent step 185.

ボード型コントローラ9上でユーザが屈伸(ジャンプ)するような動作をする場合、ボード型コントローラ9上でしゃがむような動作を行った後に上へ伸びるような動作を行うことが一般的である。 If a user on-board controller 9 to an operation such as bending and stretching (jump), that operate like extending upward after the squat like operating on-board controller 9 is common. そして、図24に示すように、ユーザがボード型コントローラ9上でしゃがむような動作を行った場合、合計荷重値が一旦ユーザの体重値より降下した後に当該体重値より上昇するような推移となる。 Then, as shown in FIG. 24, when the user performs a squat like operating on-board controller 9, a transition, such as higher than the weight value after the total load value is temporarily lowered than the weight value of the user . つまり、CPU10は、合計荷重値がユーザの体重値より上昇(第1閾値以上まで上昇)したことを検出することによって、ユーザがしゃがみ動作をしたことを検出することが可能となる。 That, CPU 10, by detecting that the total load value higher than the weight value of the user (increased to more than the first threshold value) were, it is possible to detect that the user has the operation squat.

ステップ183において、CPU10は、しゃがみ動作にオブジェクト動作を設定し、次のステップに処理を進める。 In step 183, CPU 10 sets the object operation squat operation proceeds to the subsequent step. 例えば、CPU10は、プレイヤオブジェクトPoの動作をしゃがみ動作(例えば、仮想世界の地面に着地した状態で次のジャンプを行うためにホッピングにおいてしゃがむような動作をしている状態)に設定し、設定された動作を用いて動作姿勢データDbgを更新する。 For example, CPU 10 sets the operation squatting motion of the player object Po (e.g., a state that the squat described operation in hopping in order to perform the next jump while landing on the ground in the virtual world), is set to update the operating posture data Dbg with reference to an operation was.

次に、CPU10は、しゃがみフラグをオンに設定し(ステップ184)、次のステップ185に処理を進める。 Next, CPU 10 sets ON the squat flag (step 184), and proceeds to the subsequent step 185. 例えば、CPU10は、しゃがみフラグデータDbnが示すしゃがみフラグをオンに変更する。 For example, CPU 10 is varied on the flag squatting indicated squat flag data Dbn.

ステップ185において、CPU10は、しゃがみフラグデータDbnが示すしゃがみフラグがオンに設定されているか否かを判断する。 In step 185, CPU 10 has the flag squatting indicated squat flag data Dbn to determine whether it is set to ON. そして、CPU10は、しゃがみフラグがオンに設定されている場合、次のステップ186に処理を進める。 Then, CPU 10, when the squat flag is set to ON, and proceeds to the subsequent step 186. 一方、CPU10は、しゃがみフラグがオフに設定されている場合、当該サブルーチンによる処理を終了する。 Meanwhile, CPU 10, when the squat flag is set to OFF, and ends the processing of this subroutine.

ステップ186において、CPU10は、合計荷重値が第2閾値未満であるか否かを判断する。 In step 186, CPU 10, the total load value is equal to or less than the second threshold value. 例えば、CPU10は、荷重値データDbcが示す最新の合計荷重値が、第2閾値未満であるか否かを判断する。 For example, CPU 10 is the latest total load value indicated by the load value data Dbc is, determines whether less than the second threshold value. 上記第2閾値は、ユーザがボード型コントローラ9上で伸びるような動作をしたことを判定するための閾値であり、一例としてボード型コントローラ9に乗っているユーザの体重に所定の割合(例えば、20%)を減算した値に設定される。 The second threshold is a threshold for determining that the user has the operation to extend over-board controller 9, a predetermined ratio to the weight of the user riding on-board controller 9 as an example (e.g., It is set to a value obtained by subtracting 20%). そして、CPU10は、合計荷重値が第2閾値以上である場合、次のステップ187に処理を進める。 Then, CPU 10, when the total load value is not smaller than the second threshold value, and proceeds to the subsequent step 187. 一方、CPU10は、合計荷重値が第2閾値未満である場合、次のステップ188に処理を進める。 Meanwhile, CPU 10, when the total load value is less than the second threshold value, and proceeds to the subsequent step 188.

上述したように、ボード型コントローラ9上でユーザが屈伸(ジャンプ)するような動作をする場合、ボード型コントローラ9上でしゃがむような動作を行った後に上へ伸びるような動作を行うことが一般的である。 As described above, when the user on-board controller 9 to an operation such as bending and stretching (jump), it is generally operate like extending upward after the squat like operating on-board controller 9 is a basis. そして、図24に示すように、ユーザがボード型コントローラ9上で伸びるような動作を行った場合、合計荷重値が一旦ユーザの体重値より上昇した後に当該体重値より下降するような推移となる。 Then, as shown in FIG. 24, when a user performs an operation such as extending on-board controller 9, a transition so as to descend from the weight value after the total load value is temporarily higher than the weight value of the user . つまり、CPU10は、しゃがみ動作を検出した後、合計荷重値がユーザの体重値より下降(第2閾値未満まで下降)したことを検出することによって、ユーザが伸び動作をしたことを検出することが可能となる。 That, CPU 10, after detecting the squat operation, by detecting that the total load value drops below the weight value of the user (falling to less than a second threshold value) were, to detect that the user has an elongation operation It can become.

ステップ187において、CPU10は、ジャンプ力を加算し、当該サブルーチンによる処理を終了する。 In step 187, CPU 10 adds the jumping, and ends the processing of this subroutine. 例えば、CPU10は、ジャンプ力データDbkが示すジャンプ力のパラメータに所定量を加算し、加算後のジャンプ力のパラメータを用いてジャンプ力データDbkを更新する。 For example, CPU 10 adds a predetermined amount as a parameter of the jump force indicated by the jump force data Dbk, updates the jumping data Dbk using the parameters of the jump force after addition. ここで、上記ステップ187の処理は、上記ステップ185で肯定判定(すなわち、しゃがみフラグオン)され、かつ、上記ステップ186で否定判定(すなわち、合計荷重値が第2閾値以上)された場合に行われる。 Here, the process of step 187 is affirmative determination is made in step 185 (i.e., squatting flag ON) is, and negative determination in step 186 (i.e., the total load value second threshold value or more) is performed when it is . すなわち、上記ステップ187の処理は、ボード型コントローラ9上でユーザがしゃがんだ状態になって伸び判定されるまでの期間で行われることになり、当該期間(しゃがみ期間)が長いほどジャンプ力が漸増的に加算されることになる。 That is, the process of step 187, will be performed in a period until it is determined elongation ready to squatting user on-board controller 9, the period (squatting period) longer jump force increasing becomes to summed are possible.

一方、ステップ188において、CPU10は、伸び動作にオブジェクト動作を設定し、次のステップに処理を進める。 On the other hand, in step 188, CPU 10 sets the object behavior elongation operation, and it goes to the next step. 例えば、CPU10は、プレイヤオブジェクトPoの動作を伸び動作(例えば、仮想世界の地面に着地した状態からホッピングで空中へ飛び出すような動作)に設定し、設定された動作を用いて動作姿勢データDbgを更新する。 For example, CPU10, the operation extends the action of the player object Po (for example, operations such as fly out into the air by hopping from a state in which landed on the ground of the virtual world) is set to the operation posture data Dbg with reference to an operation that has been set Update.

次に、CPU10は、操作指示方向およびジャンプ力に基づいて、プレイヤオブジェクトPoの移動ベクトルを設定し(ステップ189)、次のステップに処理を進める。 Then, CPU 10, based on the operation indication direction and the jump force, sets the motion vector of the player object Po (step 189), and proceeds to the subsequent step. 例えば、CPU10は、ジャンプ力データDbkが示すジャンプ力のパラメータに基づいて、プレイヤオブジェクトPoの移動速度を算出する。 For example, CPU 10, based on the parameters of the jump force indicated by the jump force data Dbk, calculates the moving speed of the player object Po. 一例として、CPU10は、ジャンプ力のパラメータに比例するように、プレイヤオブジェクトPoの移動速度を算出する。 As an example, CPU 10 is in proportion to the parameter of the jump force, and calculates the moving speed of the player object Po. また、CPU10は、操作指示方向データDbf2が示す操作指示方向に基づいて、プレイヤオブジェクトPoの移動方向を設定する。 Further, CPU 10, based on the operation instruction direction indicated by the operation instruction direction data Dbf2, sets the movement direction of the player object Po. 例えば、上記移動方向を仮想世界の水平面に投影した水平移動方向が、上記操作指示方向を仮想世界の水平面に投影した水平操作指示方向となるように、当該移動方向が設定される。 For example, horizontal movement direction obtained by projecting the movement direction in a horizontal plane in the virtual world, so that the horizontal operation instruction direction obtained by projecting the operation specified direction in a horizontal plane of the virtual world, the movement direction is set. また、上記移動方向における仮想世界の上方向に向かう上昇角度は、所定の角度に設定される。 Moreover, rising angle towards the direction over the virtual world in the movement direction is set to a predetermined angle. そして、CPU10は、上述したように算出されたプレイヤオブジェクトPoの移動速度および移動方向を用いて、仮想世界における移動ベクトルを算出し、算出された移動ベクトルを用いて移動ベクトルデータDbhを更新する。 Then, CPU 10, using the moving speed and moving direction of the player object Po calculated as described above, it calculates the moving vector in the virtual world, and updates the movement vector data Dbh using a moving vector calculated. 例えば、CPU10は、算出されたプレイヤオブジェクトPoの移動速度を用いて移動ベクトルの長さを設定し、操作指示方向データDbf2が示す操作指示方向に基づいて移動ベクトルの方向を設定する。 For example, CPU 10, using the moving speed of the calculated player object Po set the length of the movement vector, to set the direction of the movement vector based on the operation instruction direction indicated by the operation instruction direction data Dbf2.

次に、CPU10は、ジャンプ力を初期化し(ステップ190)、次のステップに処理を進める。 Next, CPU 10 initializes the jumping (step 190), and proceeds to the subsequent step. 例えば、CPU10は、ジャンプ力データDbkが示すジャンプ力のパラメータを所定の初期値に初期化してジャンプ力データDbkを更新する。 For example, CPU 10 updates the jumping data Dbk initialize the parameters of the jump force indicated by the jump force data Dbk to a predetermined initial value. なお、上記ステップ190で初期化する初期値は、ジャンプ力が0であることを示す値であってもいいし、相対的に弱いジャンプ力を示す値であってもよい。 The initial value for initializing at step 190, to good to a value indicating that jumping is 0, or a value indicating a relatively weak jumping.

次に、CPU10は、しゃがみフラグをオフに設定し(ステップ191)、次のステップに処理を進める。 Next, CPU 10 sets off the squat flag (step 191), and proceeds to the subsequent step. 例えば、CPU10は、しゃがみフラグデータDbnが示すしゃがみフラグをオフに変更する。 For example, CPU 10 may vary off the flag squatting indicated squat flag data Dbn.

次に、CPU10は、ジャンプフラグをオンに設定し(ステップ192)、当該サブルーチンによる処理を終了する。 Next, CPU 10 sets to select the jump flag (step 192), and exits the subroutine. 例えば、CPU10は、ジャンプフラグデータDbmが示すジャンプフラグをオンに変更する。 For example, CPU 10 is varied on the jump flag indicated by the jump flag data Dbm.

図22に戻り、上記ステップ163においてジャンプフラグがオンであると判定された場合、CPU10は、ジャンプ中状態にオブジェクト動作を設定し(ステップ166)、次のステップに処理を進める。 Returning to Figure 22, if the jump flag in step 163 is determined to be ON, CPU 10 sets the object behavior in jump state (step 166), and proceeds to the subsequent step. 例えば、CPU10は、プレイヤオブジェクトPoの動作をジャンプ中状態(例えば、ホッピングで仮想世界の空中を移動する状態)に設定し、設定された動作を用いて動作姿勢データDbgを更新する。 For example, CPU10 is, jump in the state the action of the player object Po (for example, state that moves through the air of the virtual world in the hopping) is set to, to update the operating posture data Dbg with reference to an operation that has been set.

次に、CPU10は、重心位置に基づいてプレイヤオブジェクトPoの移動ベクトルを修正し(ステップ167)、次のステップに処理を進める。 Then, CPU 10 corrects the motion vector of the player object Po based on the gravity center position (step 167), and proceeds to the subsequent step. 例えば、CPU10は、重心位置データDbdが示す最新の重心位置を用いて、移動ベクトルデータDbhが示す移動ベクトルを修正し、修正された移動ベクトルを用いて移動ベクトルデータDbhを更新する。 For example, CPU 10 uses the latest position of the center of gravity indicated by the gravity center position data dBd, correct the motion vector indicated by the motion vector data Dbh, and updates the movement vector data Dbh using a moving vector that has been modified. 一例として、CPU10は、台9aの中心から重心位置へ向かう修正ベクトルを算出し、当該修正ベクトルを現時点に設定されている移動ベクトルに加算することによって当該移動ベクトルを修正する。 As an example, CPU 10 calculates the correction vector from the center of the platform 9a to the center of gravity position, corrects the motion vector by adding the motion vector is set to the correction vector to the present time. なお、上記修正ベクトルの長さは、台9aの中心と重心位置との距離に所定の定数を乗算した値に設定してもいいし、固定値であってもよい。 The length of the modification vector is You can either set to a value obtained by multiplying a predetermined constant distance between the center of gravity position of the table 9a, it may be a fixed value. 例えば、ボード型コントローラ9の台9a上において、台9aの中心から左方向に距離Dだけ離れた位置に重心位置が存在する場合、現時点の移動方向を基準として仮想世界における左方向に距離Dに応じた長さの修正ベクトルが算出され、現時点に設定されている移動ベクトルに加算される。 For example, on the base 9a of the board type controller 9, when there is a center of gravity located in a position spaced a distance D in the left direction from the center of the table 9a, the movement direction of the current to the distance D to the left in the virtual world as a reference modification vector of corresponding length is calculated and added to the motion vector set in the present time. これによって、移動ベクトルは、台9aの中心から重心位置への距離に応じた量だけ、重心位置が位置する方向へ修正されることになる。 Thereby, the movement vector, by an amount corresponding to the distance to the gravity center position from the center of the platform 9a, so that the gravity center position is corrected in a direction to position.

次に、CPU10は、仮想世界に設定されている環境に基づいてプレイヤオブジェクトPoの移動ベクトルを修正し(ステップ168)、次のステップに処理を進める。 Then, CPU 10 corrects the motion vector of the player object Po based on the environment set in the virtual world (step 168), and proceeds to the subsequent step. 例えば、CPU10は、仮想世界に設定されている環境(重力、風、他のオブジェクトからの影響等)に基づいて、移動ベクトルデータDbhが示す移動ベクトルを修正し、修正された移動ベクトルを用いて移動ベクトルデータDbhを更新する。 For example, CPU 10 is the environment set in the virtual world on the basis of (gravity, wind, influence from other objects), to correct the motion vector indicated by the motion vector data Dbh, using the motion vector which has been modified to update the movement vector data Dbh.

次に、CPU10は、プレイヤオブジェクトPoの位置を算出し(ステップ169)、次のステップに処理を進める。 Then, CPU 10 calculates the position of the player object Po (step 169), and proceeds to the subsequent step. 例えば、CPU10は、移動ベクトルデータDbhが示す移動ベクトルに基づいて、位置データDbiが示すプレイヤオブジェクトPoの位置を仮想世界内で移動させ、移動後の位置を用いて位置データDbiを更新する。 For example, CPU 10, based on the motion vector indicated by the motion vector data Dbh, the position of the player object Po indicated by the position data Dbi is moved in the virtual world, and updates the position data Dbi using the position after the movement.

次に、CPU10は、プレイヤオブジェクトPoが仮想世界における空中から着地したか否かを判断する(ステップ170)。 Then, CPU 10 is the player object Po is determined whether landed from the air in the virtual world (step 170). 例えば、CPU10は、位置データDbiが示すプレイヤオブジェクトPoの位置を用いて、プレイヤオブジェクトPoが着地(例えば、プレイヤオブジェクトPoの位置が仮想世界における地形オブジェクト上や他のオブジェクト上にある)したか否かを判断する。 For example, whether or not the CPU 10, using the position of the player object Po indicated by the position data Dbi, and the player object Po is landing (e.g., the position of the player object Po is on a land object and other on the object in the virtual world) or the judges. そして、CPU10は、プレイヤオブジェクトPoが着地した場合、次のステップ171に処理を進める。 Then, CPU 10, when the player object Po is landed, and proceeds to the subsequent step 171. 一方、CPU10は、プレイヤオブジェクトPoが着地していない場合、当該サブルーチンによる処理を終了する。 Meanwhile, CPU 10, when the player object Po is not landed, and exits the subroutine.

ステップ171において、CPU10は、プレイヤオブジェクトPoの移動ベクトルを初期化し、次のステップに処理を進める。 In step 171, CPU 10 has the motion vector of the player object Po initializes, it proceeds to the subsequent step. 例えば、CPU10は、移動ベクトルデータDbhが示す移動ベクトルを初期化して移動ベクトルデータDbhを更新する。 For example, CPU 10 updates the movement vector data Dbh movement vector indicated by the motion vector data Dbh initialize. なお、上記ステップ171では、プレイヤオブジェクトPoが移動しないことを示すパラメータに初期化してもいいし、予め定められた移動ベクトルに初期化してもよい。 In step 171, it can either initialized to a parameter indicating that the player object Po does not move, may be initialized to motion vectors determined in advance.

次に、CPU10は、ジャンプフラグをオフに設定し(ステップ172)、当該サブルーチンによる処理を終了する。 Then, CPU 10 may set off a jump flag (step 172), and exits the subroutine. 例えば、CPU10は、ジャンプフラグデータDbmが示すジャンプフラグをオフに変更する。 For example, CPU 10 may vary off the jump flag indicated by the jump flag data Dbm.

なお、第2の実施形態における仮想カメラの設定処理(ステップ84)では、端末用ゲーム画像を生成するための第1仮想カメラは、操作指示方向データDbf2が示す操作指示方向に基づいて、表示範囲内に仮想世界に配置されている第1プレイヤオブジェクトPo1を含むように設定される。 In setting of the virtual camera processing in the second embodiment (step 84), the first virtual camera for generating a game image terminal, based on the operation instruction direction indicated by the operation instruction direction data Dbf2, display range It is set so as to include a first player object Po1 provided in the virtual world within. 具体的には、図20を用いて説明したように、操作指示方向が仮想世界における水平方向である場合、当該操作指示方向を視線方向とし、実質的に視体積の中央にプレイヤオブジェクトPoが配置されてプレイヤオブジェクトPoの近傍となる主観位置に第1仮想カメラが設定される。 Specifically, as described with reference to FIG. 20, when the operation instruction direction is the horizontal direction in the virtual world, the operation instruction direction and sight line direction, substantially viewed centrally player object Po placement volume first virtual camera is set to the subjective position where the vicinity of has been player object Po. また、操作指示方向が仮想世界における鉛直方向である場合、当該操作指示方向を視線方向とし、プレイヤオブジェクトPoから移動方向へ向かう前方となる位置を注視点として、プレイヤオブジェクトPoを上方から俯瞰する俯瞰位置に第1仮想カメラが設定される。 The operation when the specified direction is a vertical direction in the virtual world, the operation instruction direction and sight line direction, as the gaze point position serving as forward directed from the player object Po moving direction, looking down overhead player object Po from above first virtual camera is set to the position. そして、操作指示方向が上記水平方向と鉛直方向との間である場合、第1仮想カメラの姿勢および位置も上記主観位置から上記俯瞰位置へ当該操作指示方向の方向に応じて変化させて設定する。 When the operation instruction direction is between the horizontal and vertical directions, it is allowed to set varies depending on the direction of the first virtual camera orientation and position also the operation instruction direction to the overhead position from the subjective position . また、モニタ用ゲーム画像を生成するための第2仮想カメラは、上記第1仮想カメラが設定されている同じ仮想世界に設定され、当該仮想世界に配置されているプレイヤオブジェクトPoを、遠方から第1プレイヤオブジェクトPo1の正面方向へ鳥瞰した仮想世界内の様子が含まれるように設定される。 Further, the second virtual camera for generating a game image monitor, set to the same virtual world the first virtual camera is set, the player object Po disposed in the virtual world, the from afar is configured to be in a state in the virtual world that bird's eye toward the front direction of the first player object Po1. CPU10は、位置データDbiが示すプレイヤオブジェクトPoの位置や操作指示方向データDbf2が示す操作指示方向に基づいて、第1仮想カメラおよび第2仮想カメラの仮想世界における位置(第1仮想カメラおよび第2仮想カメラに関するパラメータ)を設定する。 CPU10, the position data Dbi based on an operation instruction direction indicated by the position and operating instructions direction data Dbf2 of the player object Po indicated, the position in the virtual world of the first virtual camera and the second virtual camera (the first virtual camera and the second to set the parameters) for the virtual camera.

そして、第2の実施形態におけるモニタ用ゲーム画像の生成処理(ステップ45)や端末用ゲーム画像の生成処理(ステップ46)では、第1の実施形態と同様に、上記ゲーム制御処理の結果を表す画像がそれぞれ生成される。 Then, in the process of generating the monitor game image in the second embodiment (step 45) and generation processing of the terminal game image (step 46), as in the first embodiment, representing the result of the game control process images are respectively generated. 例えば、モニタ用ゲーム画像は、仮想カメラデータDbjが示す第2仮想カメラに関するパラメータに基づいて仮想世界に第2仮想カメラを配置し、動作姿勢データDbgおよび位置データDbiに基づいて仮想世界にプレイヤオブジェクトPo等を配置して、当該第2仮想カメラから見た仮想世界を計算することによって得られる3次元のCG画像によって生成される。 For example, monitor game image, the second virtual camera placed in the virtual world on the basis of the parameters relating to the second virtual camera indicated by the virtual camera data Dbj, the player object in the virtual world based on the operating attitude data Dbg and position data Dbi by placing Po like, it is generated by 3-dimensional CG image obtained by calculating the virtual world as seen from the second virtual camera. また、端末用ゲーム画像は、仮想カメラデータDbjが示す第1仮想カメラに関するパラメータに基づいて仮想世界に第1仮想カメラを配置し、動作姿勢データDbgおよび位置データDbiに基づいて仮想世界にプレイヤオブジェクトPo等を配置して、当該第1仮想カメラから見た仮想世界を計算することによって得られる3次元のCG画像によって生成される。 Further, the terminal game image, the first virtual camera placed in the virtual world based on the parameters relating to the first virtual camera indicated by the virtual camera data Dbj, the player object in the virtual world based on the operating attitude data Dbg and position data Dbi by placing Po like, it is generated by 3-dimensional CG image obtained by calculating the virtual world as seen from the first virtual camera.

このように、上述した処理によれば、ボード型コントローラ9上でユーザ自身の動作に基づいた操作を行って当該ユーザ動作に基づいた処理を行う場合に、当該処理結果をユーザが把持している可搬型の端末装置6のLCD61で見ることができるため、端末装置6を把持して動作することによって好適な状況で処理結果を見ることが可能となる。 Thus, according to the process described above, when performing an operation based on the operation of the user's own on-board controller 9 performs processing based on the user operation, the processing result the user is grasping it is possible to see in LCD61 of the terminal device 6 portable, it is possible to see the processing result in the preferred situation by operating in gripping the terminal device 6. また、可搬型の端末装置6を動かすことによって仮想カメラの位置および姿勢やプレイヤオブジェクトPoの姿勢や移動方向を制御することができるため、あたかも仮想世界の中にユーザがいるような感覚を与えたり、あたかもユーザ自身がプレイヤオブジェクトPoになったかのような操作感覚をユーザに与えたりすることが可能となる。 Further, it is possible to control the posture and moving direction of the position and orientation and the player object Po of the virtual camera by moving the terminal device 6 portable, or give a feeling of being a user as if in a virtual world , as if the user himself becomes possible or giving the user the operation feeling as if became the player object Po. さらに、第2のゲーム例では、プレイヤオブジェクトPoの移動方向が可搬型の端末装置6の姿勢によって決定されるが、ジャンプした後の移動方向はボード型コントローラ9上のユーザ自身の動作に応じて調整される。 Furthermore, in the second game example, the moving direction of the player object Po is determined by the attitude of the terminal device 6 portable, moving direction after the jump in response to operation of the user's own on-board controller 9 It is adjusted. したがって、プレイヤオブジェクトPoの移動方向が端末装置6だけでなくボード型コントローラ9を用いた操作でも変化させることができるため、今までにない新たな操作感覚をユーザに与えることができる。 Accordingly, since the moving direction of the player object Po can be changed in operation using the board-type controller 9 not only the terminal device 6, it is possible to give a new operation feeling unprecedented user.

(第3の実施形態) (Third Embodiment)
以下、端末装置6およびボード型コントローラ9を用いて操作する他のゲーム例を用いて、第3の実施形態に係る情報処理について説明する。 Hereinafter, with reference to other games example operating with a terminal device 6 and the board type controller 9, illustrating the information processing according to the third embodiment. 以下の第3の実施形態における情報処理の概要の説明においては、情報処理の一例として第3のゲーム例を用いる。 In the description of the outline of information processing in the following third embodiment, a third game as an example of an information processing. なお、第3の実施形態に係る情報処理プログラムを実行する情報処理装置および当該情報処理装置を含む情報処理システムについては、上述した第1の実施形態と同様であるため同じ構成要素には同一の参照符号を付して詳細な説明を省略する。 Note that the information processing system including an information processing apparatus and the information processing apparatus executes the information processing program according to the third embodiment, the same the same components are the same as those of the first embodiment described above omit the detailed description of those reference numerals.

まず、ゲーム装置本体5が行う第3の実施形態における具体的な処理を説明する前に、図25A、図25B、および図26を用いてゲーム装置本体5で行う情報処理の概要について説明する。 Before describing the specific process in the third embodiment the game apparatus body 5 performs, Figure 25A, Figure 25B, and an overview of an information processing performed by the game apparatus body 5 with reference to FIG. 26 will be described. 以下の第3の実施形態における情報処理の概要の説明においては、情報処理の一例として第3のゲーム例を用いる。 In the description of the outline of information processing in the following third embodiment, a third game as an example of an information processing. なお、図25Aは、第3のゲーム例において、端末装置6のLCD61に表示される画像の一例を示す図である。 Incidentally, FIG. 25A, in the third game example, illustrates an example of an image displayed on the LCD61 of the terminal device 6. 図25Bは、第3のゲーム例において、モニタ2に表示される画像の一例を示す図である。 Figure 25B, in the third game example, illustrates an example of an image displayed on the monitor 2. 図26は、端末装置6の姿勢に応じた第1プレイヤオブジェクトPo1および第2プレイヤオブジェクトPo2の動作の一例を説明するための概要図である。 Figure 26 is a schematic diagram for explaining an example of the operation of the first player object Po1 and second player object Po2 corresponding to the attitude of the terminal device 6.

第3のゲーム例では、図9に示した第1のゲーム例における操作と同様に、端末装置6およびボード型コントローラ9を用いてユーザが操作する。 In the third game example, similarly to the operation in the first game example shown in FIG. 9, the user operates using the terminal device 6 and the board type controller 9. 具体的には、第1のゲーム例における操作と同様に、ユーザは、端末装置6を把持しながら、ボード型コントローラ9上に乗って操作する。 Specifically, similarly to the operation in the first game example, the user, while holding the terminal device 6, operated ride on-board controller 9. そして、ユーザは、モニタ2に表示された画像や端末装置6のLCD61に表示された画像を見ながら、ボード型コントローラ9上で動作(例えば、ボード型コントローラ9上で前に重心をかけたり、後ろに重心をかけたりするような動作)するとともに、端末装置6自体を動かす操作をすることによってプレイする。 Then, the user, while viewing the image displayed on the LCD61 of the image or the terminal device 6 that is displayed on the monitor 2, operating on-board controller 9 (e.g., apply the center of gravity in front on-board controller 9, with work) as or over the center of gravity back to play by the operation of moving the terminal device 6 itself. そして、端末装置6のLCD61およびモニタ2には、ユーザが把持する端末装置6の方向や姿勢と、ボード型コントローラ9上におけるユーザ動作とに応じて、仮想世界において第1プレイヤオブジェクトPo1および第2プレイヤオブジェクトPo2や照準オブジェクトTo(例えば、第1プレイヤオブジェクトPo1の方向や移動方向が変化する動作や、第2プレイヤオブジェクトPo2の方向が変化する動作や、照準オブジェクトToが移動する動作)し、第1プレイヤオブジェクトPo1の位置や方向に応じて仮想世界に設定される仮想カメラの位置や姿勢を変化させたゲーム画像が表現される。 Then, the LCD61 and monitor second terminal device 6, the direction and posture of the terminal device 6 held by the user, in response to the user operation on-board controller 9, first in the virtual world the player object Po1 and second player object Po2 and aim object to (e.g., operation and the direction and the moving direction of the first player object Po1 changes, behavior and the direction of the second player object Po2 is varied, operation aim object to move), and the game image obtained by changing the position and posture of the virtual camera is set in the virtual world in accordance with the position and direction of a player object Po1 is represented.

図25Aに示すように、端末装置6のLCD61には仮想世界内を移動するプレイヤオブジェクトPoが表示される。 As shown in FIG. 25A, the LCD61 of the terminal device 6 player object Po moving in the virtual world is displayed. 図25Aに示した一例では、プレイヤオブジェクトPoが2つのプレイヤオブジェクト(第1プレイヤオブジェクトPo1および第2プレイヤオブジェクトPo2)から構成されており、プレイヤオブジェクトPoの一例として仮想世界の地上を移動する戦車が例示されている。 In the example shown in FIG. 25A, it is constituted player object Po from two player object (the first player object Po1 and second player object Po2), tanks moving on the ground in the virtual world as an example of a player object Po is It is illustrated. 具体的には、第1プレイヤオブジェクトPo1が戦車の本体に相当し、第2プレイヤオブジェクトPo2が同じ戦車の砲塔に相当する。 Specifically, the first player object Po1 corresponds to the body of the tank, the second player object Po2 corresponds turret of the same tanks. そして、第1プレイヤオブジェクトPo1の背後近傍に仮想カメラが設定され、当該仮想カメラから見た仮想世界内の様子がプレイヤオブジェクトPoとともに表示されている。 Then, the virtual camera in the vicinity behind the first player object Po1 is set, how the virtual world as seen from the virtual camera is displayed together with the player object Po. また、図25Aに示した一例では、戦車の方向から砲弾が発射された場合の照準となる照準オブジェクトToが仮想世界に配置されており、当該戦車の砲塔(第2プレイヤオブジェクトPo2)の発射口先端から照準オブジェクトToまでの砲弾の予想軌跡Sが表示されている。 Further, in the example shown in FIG. 25A, the aim object To which the sight when shells are fired from the direction of the tank are arranged in the virtual world, ejection port turret of the tank (second player object Po2) It predicted locus S of ammunition from the tip to the aim object to is displayed. そして、プレイヤオブジェクトPoの敵となる敵オブジェクトEoが仮想世界に配置されて表示されている。 Then, the enemy object Eo to be the enemy of the player object Po are displayed are arranged in the virtual world. このように、プレイヤオブジェクトPoの背後近傍(具体的には、第1プレイヤオブジェクトPo1の背後近傍)から見た仮想世界をLCD61に表示することによって、端末装置6を把持しているユーザに仮想世界の臨場感を与えるとともに、ユーザがプレイヤオブジェクトPoの移動方向や移動速度を直感的に知ることができる。 Thus, (specifically, behind the vicinity of the first player object Po1) behind the vicinity of the player object Po by displaying a virtual world as seen from the LCD 61, the virtual world user holding the terminal device 6 together give realism, the user can know the moving direction and the moving speed of the player object Po intuitively.

また、図25Bに示すように、モニタ2にもLCD61に表示されている仮想世界と同じ仮想世界が表示される。 Further, as shown in FIG. 25B, the same virtual world and the virtual world displayed on the LCD61 in the monitor 2 is displayed. 図25Bに示した一例では、プレイヤオブジェクトPoを遠方から鳥瞰した仮想世界内の様子がプレイヤオブジェクトPo、照準オブジェクトTo、敵オブジェクトEo、および予想軌跡Sとともに表示されている。 In the example shown in FIG. 25B, it is displayed state of the virtual world that bird's-eye player object Po from the distant the player object Po, the aim object To, enemy object Eo, and with predicted locus S. このように、プレイヤオブジェクトPoを遠方から鳥瞰した仮想世界内の様子をモニタ2に表示することによって、ユーザがプレイヤオブジェクトPoの周囲の状況が把握しやすくなるとともに、第3のゲーム例をユーザがプレイしている様子を見ている他の人が仮想世界をプレイヤオブジェクトPoが移動する様子を楽しむこともできる。 Thus, by displaying the state of the virtual world that bird's-eye player object Po from the distant to the monitor 2, the user tends to grasp the surroundings of the player object Po, a third exemplary game users other people are looking at how you are playing can also enjoy how to move the virtual world is the player object Po.

一例として、ボード型コントローラ9に荷重をかける重心位置を、ユーザが前に移動させるような動作をした場合、台9aの中心から当該重心位置までの前方向長さに応じた速度でプレイヤオブジェクトPoが第1プレイヤオブジェクトPo1の方向に前進移動する。 As an example, the center of gravity position of the load is applied to the board type controller 9, when the user performs operations such as moving to the front, the player object Po at a speed corresponding to the forward direction length from the center of the pedestal 9a to the center of gravity position There moved forward in the direction of the first player object Po1. また、ボード型コントローラ9に荷重をかける重心位置を、ユーザが後ろに移動させるような動作をした場合、台9aの中心から当該重心位置までの後方向長さに応じた速度でプレイヤオブジェクトPoが第1プレイヤオブジェクトPo1の方向に後退移動する。 Further, the center of gravity position of the load is applied to the board type controller 9, when the user performs operations such as moving back, the player object Po at a speed corresponding to the direction length after from the center of the platform 9a to the center of gravity position It moves backward in the direction of the first player object Po1. このように、ユーザは、ボード型コントローラ9上の動作によって、プレイヤオブジェクトPoを前進または後退移動させることができる。 In this way, the user, by operating on-board controller 9 can be advanced or retracted move the player object Po.

また、端末装置6の姿勢を変えたり端末装置6の向きが変わるように回転移動させたりすることによってプレイヤオブジェクトPoの方向や照準オブジェクトToの位置が変化する。 The position of the direction or aim object To of the player object Po is changed by or to rotational movement as the direction of the terminal device 6 of posture changing or terminal device 6 is changed. 具体的には、図26に示すように、端末装置6の向きが砲塔/照準可動角度範囲内に対応する砲塔/照準方向操作範囲内で回転移動した場合、当該端末装置6の向きの変化に応じて、第2プレイヤオブジェクトPo2(砲塔)が仮想世界内で左右に回転するとともに、当該砲塔から砲弾が発射された場合の照準となる照準オブジェクトToの位置も仮想世界内で移動する。 Specifically, as shown in FIG. 26, when the direction of the terminal device 6 is rotated and moved in the turret / aiming direction operation range corresponding to the turret / sight movable angular range, to the change in the direction of the the terminal device 6 in response, the second player object Po2 (turret) rotates to the left and right in the virtual world, also moves in the virtual world location of the aim object to which the sight when shells from the turret has been fired. また、端末装置6の向きが砲塔/照準可動角度範囲外に対応する本体方向操作範囲内まで回転移動した場合、当該端末装置6の向きの変化に応じて、第2プレイヤオブジェクトPo2に加えて第1プレイヤオブジェクトPo1(戦車本体)も仮想世界内で左右に回転し、照準オブジェクトToの位置も第2プレイヤオブジェクトPo2の回転に応じて仮想世界内で移動する。 Further, when the direction of the terminal device 6 is rotated and moved to the body direction operation range corresponding to the outer turret / sight movable angular range, depending on the orientation change of the terminal device 6, the addition to the second player object Po2 1 player object Po1 (tank body) is also rotated to the left and right in the virtual world and moves in the virtual world in accordance with the rotation of the second player object Po2 the position of the aim object to. ここで、上述したように、第1プレイヤオブジェクトPo1の背後近傍に仮想カメラが設定されるため、第1プレイヤオブジェクトPo1の方向が変化することによって、仮想カメラの姿勢や位置も変化することになる。 Here, as described above, since the virtual camera in the vicinity behind the first player object Po1 is set, by the direction of the first player object Po1 changes, it will change the attitude or position of the virtual camera . したがって、実空間における砲塔/照準方向操作範囲内でユーザが端末装置6の左右向きを変えた場合、仮想カメラの位置や姿勢を変えることなく照準オブジェクトToの位置を変えることができるため、LCD61に表示されるゲーム画面を固定した状態で照準位置調整が可能となる。 Therefore, if the user changes the left and right direction of the terminal device 6 in the turret / aiming direction operation range in real space, it is possible to change the position of the aim object To without changing the position and attitude of the virtual camera, the LCD61 it is possible to aiming position adjustment in a state of fixing the game screen displayed. つまり、砲塔/照準方向操作範囲内での端末装置6を用いた操作は、敵オブジェクトEo等に向かって砲撃するために照準オブジェクトToの位置を調整するために好適な操作環境となる。 That is, operation using the terminal device 6 in the turret / aiming direction operation range is a suitable operating environment in order to adjust the position of the aim object To to bombardment toward the enemy object Eo like. また、実空間における本体方向操作範囲内でユーザが端末装置6の左右向きを変えた場合、第1プレイヤオブジェクトPo1の方向や仮想カメラの位置および方向を変えることができるため、プレイヤオブジェクトPoの移動方向を変えたり、LCD61に表示されるゲーム画面外へ照準位置調整をしたりすることが可能となる。 When the user within the body direction operation range in the real space is changed laterally extending of the terminal device 6, it is possible to change the position and direction of the direction or the virtual camera of the first player object Po1, the movement of the player object Po changing the direction, it becomes possible or to the aim position adjustment to the game screen out to be displayed on the LCD 61. このように、少なくとも2段階の操作範囲を設定することによって、ユーザが様々な操作を1つのデバイスの姿勢によって行うことが可能となる。 Thus, by setting the operating range of the at least two stages, it is possible to perform the attitude of the users one different operation devices.

また、端末装置6の向きが上下方向に変化した場合、当該端末装置6の向きの変化に応じて、第2プレイヤオブジェクトPo2の砲塔方向が仮想世界内で上下に変化するとともに、当該砲塔から砲弾が発射された場合の照準となる照準オブジェクトToの位置も仮想世界内で移動する。 Further, when the direction of the terminal device 6 is changed in the vertical direction, according to the change in the direction of the the terminal device 6, the turret direction of the second player object Po2 varies up and down in the virtual world, shells from the turret There is also the position of the aim object to which the sight when it is fired to move in the virtual world. つまり、ユーザは、端末装置6の向きによって砲塔が向く方向(照準オブジェクトToの位置)を上下左右に変化させることができるため、把持する端末装置6の方向だけでユーザが所望する方向(位置)に砲塔を向ける(照準オブジェクトToを配置)ことが可能となる。 That is, the user, since it is possible to change the direction (position of the aim object To) facing it turret vertically and horizontally depending on the orientation of the terminal device 6, gripped terminal device 6 only in the direction that the user desires direction (position) directing the turret (the aim object to place) it becomes possible to.

次に、ゲームシステム1において行われる第3の実施形態の処理の詳細を説明する。 Next, a third embodiment of the details of the process performed by the game system 1. まず、図27を参照して、第3の実施形態における処理において用いられる主なデータについて説明する。 First, referring to FIG. 27, it described main data used in the process according to the third embodiment. なお、図27は、第3の実施形態においてゲーム装置本体5のメインメモリに記憶される主なデータおよびプログラムの一例を示す図である。 Incidentally, FIG. 27 is a diagram showing an example of main data and programs stored in the main memory of the game apparatus body 5 in the third embodiment.

図27に示すように、メインメモリのデータ記憶領域には、ボード操作データDca、端末操作データDcb、荷重値データDcc、重心位置データDcd、端末装置方向姿勢データDce、操作方向データDcf、動作姿勢データDcg、移動ベクトルデータDch、位置データDci、仮想カメラデータDcj、および画像データDck等が記憶される。 As shown in FIG. 27, the data storage area of ​​the main memory, board operation data Dca, terminal operation data Dcb, load value data Dcc, centroid position data Dcd, terminal direction orientation data Dce, operation direction data Dcf, operation posture data Dcg, motion vector data Dch, the position data Dci, virtual camera data Dcj, and image data Dck like are stored. なお、メインメモリには、図27に示す情報に含まれるデータの他、モニタ2やLCD61に表示される各種オブジェクトの画像データやゲームに使用される音声データ等、ゲーム処理に必要なデータが適宜記憶される。 Incidentally, in the main memory, other data contained in the information shown in FIG. 27, the monitor 2 and the audio data to be used for image data, game various objects displayed on the LCD 61, necessary for the game processing data appropriately It is stored. また、メインメモリのプログラム記憶領域には、第3の実施形態における情報処理プログラムを構成する各種プログラム群Pcが記憶される。 The program storage area of ​​the main memory, various programs Pc constituting the information processing program according to the third embodiment are stored.

ボード操作データDcaは、荷重データDca1等を含んでいる。 Board operation data Dca includes load data Dca1 like. なお、荷重データDca1は、第1の実施形態における荷重データDaa1と同様であるため詳細な説明を省略する。 Incidentally, the load data Dca1 is a detailed description thereof will be omitted because it is similar to the load data Daa1 in the first embodiment.

端末操作データDcbは、加速度データDcb1および角速度データDcb2等を含んでいる。 Terminal operation data Dcb includes acceleration data Dcb1 and angular velocity data Dcb2 like. なお、加速度データDcb1および角速度データDcb2は、それぞれ第1の実施形態における加速度データDab1および角速度データDab2と同様であるため詳細な説明を省略する。 The acceleration data Dcb1 and the angular velocity data Dcb2 is a detailed description thereof will be omitted because it is similar to that of the acceleration data Dab1 and the angular velocity data Dab2 in the first embodiment, respectively.

荷重値データDccおよび重心位置データDcdは、それぞれ第1の実施形態における荷重値データDacおよび重心位置データDadと同様であるため詳細な説明を省略する。 Load value data Dcc and the centroid position data Dcd is to omit the detailed description is the same as the load value data Dac and barycentric position data Dad in the first embodiment, respectively.

端末装置方向姿勢データDceは、実空間基準方向データDce1および現方向データDce2等を含んでいる。 Terminal direction orientation data Dce includes real space reference direction data Dce1 and the current direction data Dce2 like. なお、第1の実施形態と同様に、実空間基準方向データDce1は実空間における端末装置6の基準方向を示すデータであり、現方向データDce2は実空間における端末装置6の現時点の方向および姿勢を示すデータであるが、第3の実施形態では各種補正が行われてそれぞれの方向データが設定される。 As in the first embodiment, the real space reference direction data Dce1 is data indicating a reference direction of the terminal device 6 in the real space, current direction and the orientation of the terminal device 6 in the current direction data Dce2 real space is a data indicating, in the third embodiment each direction data is performed various corrections are set. 第3の実施形態における実空間基準方向および現方向の算出方法については、後述する。 The real space reference direction and the current direction calculation method according to the third embodiment will be described later.

操作方向データDcfは、仮想世界基準方向データDcf1および操作指示方向データDcf2等を含んでいる。 Operation direction data Dcf includes a virtual world reference direction data Dcf1 and operating instructions direction data Dcf2 like. 仮想世界基準方向データDcf1は、仮想世界において設定される仮想世界基準方向を示すデータである。 Virtual world reference direction data Dcf1 is data showing the virtual world reference direction set in the virtual world. 操作指示方向データDcf2は、仮想世界に対して現時点でユーザから指示されている操作指示方向を示すデータである。 Operation pointing direction data Dcf2 is data indicating an operation instruction direction indicated by the user at the present time to the virtual world. なお、第3の実施形態における仮想世界基準方向および操作指示方向の算出方法については、後述する。 Note that the method for calculating the virtual world reference direction and the operation specified direction in the third embodiment will be described below.

動作姿勢データDcgは、本体姿勢データDcg1および砲塔姿勢データDcg2等を含んでいる。 Operation attitude data Dcg includes a body posture data Dcg1 and turret orientation data Dcg2 like. 本体姿勢データDcg1は、仮想世界における第1プレイヤオブジェクトPo1(戦車本体)の動作や姿勢を示すデータである。 Body attitude data Dcg1 is data representing the operation and the posture of the first player object Po1 in the virtual world (tank body). 砲塔姿勢データDcg2は、仮想世界における第2プレイヤオブジェクトPo2(砲塔)の動作や姿勢を示すデータである。 Turret orientation data Dcg2 is data representing the operation and the posture of the second player object Po2 (turret) in the virtual world.

移動ベクトルデータDchは、第1の実施形態とは後述するように算出方法が異なるものの、第1の実施形態と同様に、それぞれプレイヤオブジェクトPo(第1プレイヤオブジェクトPo1および第2プレイヤオブジェクトPo2)や弾オブジェクトの移動速度および移動方向を示すデータである。 Movement vector data Dch, although the calculation method as the first embodiment described below is different, as in the first embodiment, each player object Po (the first player object Po1 and second player object Po2) Ya data indicating the moving speed and moving direction of the bullet object.

位置データDciは、仮想世界におけるプレイヤオブジェクトPo、照準オブジェクトTo、および弾オブジェクト等の位置をそれぞれ示すデータである。 Position data Dci is data indicating the player object Po in the virtual world, the aim object To, and bullet the position of an object such as, respectively. 仮想カメラデータDcjは、第1の実施形態とは後述するように算出方法が異なるものの、第1の実施形態と同様に仮想カメラに関するデータである。 Virtual camera data Dcj, although the calculation method as the first embodiment described below is different, the data relating to the virtual camera as in the first embodiment.

画像データDckは、プレイヤオブジェクトデータDck1および背景画像データDck2等を含んでいる。 Image data Dck includes player object data Dck1 and background image data Dck2 like. プレイヤオブジェクトデータDck1は、仮想世界に第3のゲーム例におけるプレイヤオブジェクトPo(第1プレイヤオブジェクトPo1および第2プレイヤオブジェクトPo2)、照準オブジェクトTo、および弾オブジェクトを配置してゲーム画像を生成するためのデータである。 Player object data Dck1 the third player in the game Example Object Po (the first player object Po1 and second player object Po2) in the virtual world, the aim object To, and the bullet object arranged for generating a game image it is the data. 背景画像データDck2は、仮想世界に第3のゲーム例における背景を配置してゲーム画像を生成するためのデータである。 Background image data Dck2 is data for generating a game image by arranging a background in the third exemplary game in the virtual world.

次に、図28および図29を参照して、ゲーム装置本体5において行われる第3の実施形態における処理の詳細を説明する。 Next, with reference to FIGS. 28 and 29, a third detail of the processing in the embodiment will be described which is performed by the game apparatus body 5. なお、図28は、ゲーム装置本体5において実行される第3の実施形態におけるプレイヤオブジェクト設定処理の一例を示すサブルーチンである。 Incidentally, FIG. 28 is a subroutine showing an example of a player object setting process in the third embodiment executed by the game apparatus body 5. 図29は、図28におけるステップ201の操作指示方向算出処理の一例を示すサブルーチンである。 Figure 29 is a subroutine showing an example of an operation instruction direction calculation processing in step 201 in FIG. 28. ここで、図28および図29に示すフローチャートにおいては、処理のうち、端末装置6およびボード型コントローラ9を用いたユーザの操作に応じて、プレイヤオブジェクトPoが動作して表示される処理について主に説明し、本願発明と直接関連しない他の処理については詳細な説明を省略する。 Here, in the flowchart shown in FIGS. 28 and 29, of the processing, in accordance with a user operation using the terminal device 6 and the board type controller 9, mainly for processing the player object Po is displayed in operation described, for other processing not directly related to the present invention will not be described. また、図28および図29では、CPU10が実行する各ステップを「S」と略称する。 Further, in FIGS. 28 and 29, abbreviated as "S" each step CPU10 executes.

ゲーム装置本体5の電源が投入されると、ゲーム装置本体5のCPU10は、ROM/RTC13に記憶されている起動用のプログラムを実行し、これによってメインメモリ等の各ユニットが初期化される。 When the game apparatus body 5 is turned on, CPU 10 of the game apparatus body 5 executes a boot program stored in the ROM / RTC 13, whereby each unit such as the main memory are initialized. そして、光ディスク4に記憶された情報処理プログラムがメインメモリに読み込まれ、CPU10によって当該プログラムの実行が開始される。 The information processing program stored in the optical disc 4 is loaded to the main memory, it starts executing the program by the CPU 10. なお、以上の処理が完了した後に行われる第3の実施形態における処理は、第1の実施形態において図12を用いて説明したメインフローに対してステップ41における基準方向の設定処理およびステップ44におけるゲーム制御処理のみ異なり、他の処理は第1の実施形態と同様であるため、同様の処理についての詳細な説明を省略する。 Incidentally, in the third process in the embodiment, the reference direction of the setting process and step 44 in the step 41 to the main flow described with reference to FIG. 12 in the first embodiment to be performed after the above processing is completed the only difference game control process, since other processes are the same as those in the first embodiment to omit the detailed description of the same processes. また、第3の実施形態において行われるステップ44のゲーム制御処理は、第1の実施形態において図13を用いて説明したサブルーチンに対してステップ83におけるプレイヤオブジェクト設定処理が異なり、ステップ85における移動軌跡を設定する処理を行わない。 The game control process of step 44 performed in the third embodiment is different from the player object setting process in step 83 with respect to the subroutine described with reference to FIG. 13 in the first embodiment, the movement trajectory in the step 85 It does not perform the process of setting. 上記ゲーム制御処理における他の処理は、第1の実施形態と同様であるため、同様の処理についての詳細な説明を省略する。 Other processing in the game control process is similar to the first embodiment, detailed descriptions of the same processes.

第3の実施形態におけるメインフローにおいて、ステップ41における基準方向の設定処理では、端末装置6の姿勢および方向に各種補正が行われた後に基準方向が設定され、当該補正後の基準方向を用いて実空間基準方向データDce1が更新されている。 In the main flow in the third embodiment, the reference direction of the setting process in step 41, the reference direction is set after the various corrections is performed in the position and direction of the terminal device 6, using the reference direction after the correction real space reference direction data Dce1 has been updated. また、補正後の実空間基準方向を仮想世界におけるモデル座標系に変換し、当該変換後の方向を仮想世界における基準方向として仮想世界基準方向データDcf1が更新されている。 Further, to convert the real space reference direction after correction to the model coordinate system in the virtual world, the virtual world reference direction data Dcf1 is updated direction after the conversion as the reference direction in the virtual world. なお、端末装置6の姿勢および方向の補正方法については後述して説明する。 Incidentally, for the orientation and direction of the correction method of the terminal device 6 will be described later. 以下、図28を参照して、第3の実施形態で行われるステップ83におけるプレイヤオブジェクト設定処理について説明する。 Referring to FIG. 28, a description will be given player object setting process in step 83 performed in the third embodiment.

図28において、CPU10は、操作指示方向算出処理を行い(ステップ201)、次のステップに処理を進める。 In Figure 28, CPU 10 performs an operation specified direction calculation processing (step 201), and proceeds to the subsequent step. 以下、図29を参照して、上記ステップ201で行う操作指示方向算出処理について説明する。 Referring to FIG. 29, a description will be given of an operation instruction direction calculating process performed in step 201.

図29において、CPU10は、端末装置6の上下正面方向の補正を行い(ステップ221)、次のステップに処理を進める。 In Figure 29, CPU 10 performs a vertical front direction of the correction of the terminal device 6 (step 221), and proceeds to the subsequent step. 例えば、CPU10は、実空間の水平方向に対して所定の角度(例えば、42°)下に向いた状態が水平方向の指示となるように、端末装置6の方向(姿勢)を補正する。 For example, CPU 10 is a predetermined angle with respect to the horizontal direction in the real space (e.g., 42 °) as a state of facing the lower is the horizontal indication to correct the direction of the terminal device 6 (attitude). 具体的には、上記ステップ82において、CPU10は、加速度データDcb1が示す加速度および角速度データDcb2が示す角速度に基づいて、端末装置6の実空間におけるXYZ軸の方向をそれぞれ算出し、算出されたXYZ軸方向を現方向として現方向データDce2を更新する。 XYZ Specifically, in step 82, the CPU 10, based on the angular velocity indicated by the acceleration and the angular velocity data Dcb2 represented by the acceleration data Dcb1, calculates the direction of the XYZ axes in the real space of the terminal device 6, respectively, are calculated It updates the current direction data Dce2 axial as the current direction. そして、CPU10は、上記ステップ221において、現方向データDce2が示すXYZ軸それぞれの方向を用いて、X軸を中心にY軸方向およびZ軸方向が上記所定の角度だけ上方に向くように(すなわち、X軸方向に見て当該X軸周りに所定の角度だけ右周りにY軸方向およびZ軸方向を回転させる)、Y軸方向およびZ軸方向を補正する。 Then, CPU 10, in step 221, using the direction of the respective XYZ axes indicated current direction data DCE2, as Y-axis direction and the Z-axis direction about the X axis is directed upward by the predetermined angle (i.e. , viewed in the X-axis direction rotates the Y-axis direction and the Z-axis direction at a predetermined angle only clockwise around the X axis), corrects the Y-axis and Z-axis directions.

次に、CPU10は、Z軸周りの傾きを補正し(ステップ222)、次のステップに処理を進める。 Then, CPU 10 corrects the tilt around the Z-axis (step 222), and proceeds to the subsequent step. 例えば、CPU10は、端末装置6のX軸が実空間における水平方向となるように、端末装置6の方向(姿勢)を補正する。 For example, CPU 10 is, X-axis of the terminal device 6 such that the horizontal direction in the real space, to correct the direction of the terminal device 6 (attitude). 具体的には、CPU10は、上記ステップ221で補正されたXYZ軸方向を用いて、当該X軸方向を強制的に実空間の水平方向に補正し、補正されたX軸方向とY軸方向との外積によって新たにZ軸方向を算出する。 Specifically, CPU 10 uses the XYZ-axis direction is corrected in step 221 is corrected in the horizontal direction of the force the real space the X-axis direction, and the corrected X-axis direction and the Y-axis direction newly calculates the Z-axis direction by the cross product. そして、新たに算出されたZ軸方向と水平方向に補正されたX軸方向との外積によって新たにY軸方向を算出する。 The newly calculated Y-axis direction by the outer product of the corrected X-axis direction in the Z axis direction and the horizontal direction which is newly calculated.

次に、CPU10は、端末装置6の上下方向に傾きを制限する補正を行い(ステップ223)、次のステップに処理を進める。 Then, CPU 10 performs a correction to limit the tilt in the vertical direction of the terminal device 6 (step 223), and proceeds to the subsequent step. 例えば、CPU10は、上記ステップ222で新たに算出されたZ軸方向を、実空間の上下方向に対して所定の範囲内に制限し、当該範囲を超える場合は最も近い当該範囲内に再設定する。 For example, CPU 10 is a Z-axis direction that is newly calculated at step 222, to limit within a predetermined range with respect to the vertical direction in the real space, if it exceeds the range is reset to the nearest within the range . そして、再設定されたZ軸方向と上記ステップ222で水平方向に補正されたX軸方向との外積によって新たにY軸方向を算出する。 The newly calculated Y-axis direction by the outer product of the corrected X-axis direction in the horizontal direction in the Z axis direction and the step 222 is re-set. また、当該新たに算出されたY軸方向と再設定されたZ軸方向との外積によって新たにX軸方向を算出する。 Further, newly calculated X-axis direction by the outer product of the newly calculated Y-axis direction and reconfigured Z-axis direction. そして、新たに算出されたX軸方向およびY軸方向と、再設定されたZ軸方向とを用いて、現方向データDce2を更新する。 Then, using the newly calculated X-axis direction and the Y-axis direction and a Z-axis direction is reset, and updates the current direction data DCE2.

なお、上記ステップ41における基準方向の設定処理においても、上記ステップ221〜ステップ223と同様に端末装置6のXYZ軸方向が補正され、補正後のZ軸方向を実空間基準方向として実空間基準方向データDce1が更新される。 Even in the setting process of the reference direction in step 41, similarly to the step 221 to step 223 XYZ axis direction of the terminal device 6 is corrected, the real space reference direction in the Z-axis direction after correction as the real space reference direction data Dce1 is updated.

次に、CPU10は、実空間基準方向と現方向との間の水平角度差を算出し(ステップ224)、次のステップに処理を進める。 Then, CPU 10 calculates a horizontal angle difference between the real space reference direction and the current direction (step 224), and proceeds to the subsequent step. ここで、上記水平角度差は、実空間における実空間基準方向と現方向データDce2が示すZ軸方向との間の角度差を水平面に投影した角度差であり、端末装置6の初期姿勢から実空間の鉛直方向を軸として端末装置6の方向(端末装置6の背面が向いている方向(図3に示すz軸正方向))を変えた角度を示すものである。 Here, the horizontal angle difference is an angle difference that is projected on the horizontal plane the angular difference between the real space reference direction and the Z-axis direction indicated by the current direction data Dce2 in the real space, the actual from the initial attitude of the terminal device 6 shows the angle of changing the direction of the terminal device 6 (the direction facing the back of the terminal device 6 (z-axis positive direction shown in FIG. 3)) in the vertical direction as an axis of the space. 例えば、CPU10は、実空間基準方向データDce1が示す実空間基準方向と、現方向データDce2が示すZ軸方向とを用いて、上記水平角度差を算出する。 For example, CPU 10 is a real space reference direction indicated by the real space reference direction data DCE1, by using the Z-axis direction indicated by the current direction data DCE2, calculates the horizontal angle difference.

次に、CPU10は、実空間の水平方向と現方向との間の上下角度差を算出し(ステップ225)、次のステップに処理を進める。 Then, CPU 10 calculates the vertical angular difference between the horizontal and the current direction of the real space (step 225), and proceeds to the subsequent step. 例えば、CPU10は、現方向データDce2が示すZ軸方向を用いて、実空間における水平方向と当該Z軸方向との角度差を上下角度差として算出する。 For example, CPU 10, using the Z-axis direction indicated by the current direction data DCE2, calculates the angular difference between the horizontal and the Z-axis direction in the real space as a vertical angular difference.

次に、CPU10は、上記ステップ224で算出された水平角度差および上記ステップ225で算出された上下角度差に応じて、仮想世界基準方向に対する操作指示方向を算出し(ステップ226)、当該サブルーチンによる処理を終了する。 Then, CPU 10, in response to the vertical angular difference calculated by the horizontal angle difference and the step 225 calculated in step 224, calculates an operation instruction direction with respect to the virtual world reference direction (step 226), according to the subroutine the process is terminated. 例えば、CPU10は、仮想世界基準方向データDcf1が示す仮想世界基準方向を用いて、当該仮想世界基準方向と操作指示方向とを仮想世界の水平面に投影した場合に生じる角度差が、上記水平角度差となり、かつ、同じ位置関係となる(すなわち、実空間基準方向に対してZ軸方向が左回転している場合は、仮想世界基準方向に対して操作指示方向も左回転した位置関係となるようにする)ように仮想世界における操作指示方向を算出する。 For example, CPU 10 is a virtual world reference direction data Dcf1 using the virtual world reference direction indicated by the angle difference caused when projected and the operation instruction direction the virtual world reference direction in the horizontal plane of the virtual world, the horizontal angle difference next, and the same positional relationship (i.e., if the Z-axis direction with respect to the real space reference direction is left rotated, so that a positional relationship in which the operation instruction direction was rotated to the left relative to the virtual world reference direction to) to calculate an operation instruction direction in the virtual world as. さらに、CPU10は、仮想世界における水平方向と操作指示方向との角度差が、上記上下角度差となり、かつ、同じ位置関係となる(すなわち、実空間の水平方向に対してZ軸方向が下向きである場合は、仮想世界の水平方向に対して操作指示方向も下向きとなるようにする)ように仮想世界における操作指示方向を算出する。 Further, CPU 10 is the angle difference between the operation instruction direction horizontally in the virtual world, it is the vertical angular difference, and the same positional relationship (i.e., in the Z axis direction with respect to the horizontal direction in the real space is down If so, it calculates the operation instruction direction of the operation instruction direction to be downward) as virtual world with respect to the horizontal direction of the virtual world. そして、CPU10は、算出された操作指示方向を用いて、操作指示方向データDcf2を更新する。 Then, CPU 10 uses the calculated operation instruction direction, and updates the operation instruction direction data DCF 2.

図28に戻り、上記ステップ201における操作指示方向算出処理の後、CPU10は、操作指示方向が第1の操作範囲内か否かを判断する(ステップ202)。 Returning to Figure 28, after the operation instruction direction calculation processing in step 201, CPU 10 is an operation instruction direction is determined whether the first operating range (step 202). そして、CPU10は、操作指示方向が第1の操作範囲内である場合、次のステップ203に処理を進める。 Then, CPU 10, when the operation instruction direction is within the first operating range, proceeds to the subsequent step 203. 一方、CPU10は、操作指示方向が第1の操作範囲内でない場合、次のステップ204に処理を進める。 Meanwhile, CPU 10, when operating the specified direction is not within the first operating range, it proceeds to the subsequent step 204. ここで、第1の操作範囲は、操作指示方向に応じて第2プレイヤオブジェクトPo2の方向および照準オブジェクトToの位置だけを変化させる水平方向の回転角度範囲である。 Here, the first operating range is the rotation angle range in the horizontal direction to change only the position of the direction and the aim object To of the second player object Po2 in response to an operation instruction direction. 例えば、第1の操作範囲は、仮想世界基準方向を中心に−5°〜+5°の範囲に設定される。 For example, the first operating range is set in a range of -5 ° ~ + 5 ° about the virtual world reference direction. そして、CPU10は、上記ステップ202において、仮想世界基準方向データDcf1が示す仮想世界基準方向および操作指示方向データDcf2が示す操作指示方向を用いて、当該仮想世界基準方向と操作指示方向とを仮想世界の水平面に投影した場合に生じる角度差が、上記第1の操作範囲内であるか否かを判定する。 Then, CPU 10 is virtual in step 202, using the operation instruction direction indicated by virtual world reference direction and the operation instructing direction data Dcf2 indicated virtual world reference direction data DCF1, and an operation instructing direction the virtual world reference direction World angular difference caused when projected on a horizontal plane of the is equal to or within the first operating range. なお、第1の操作範囲は、図26に示す砲塔/照準方向操作範囲の一例に相当する。 The first operating range corresponds to an example of a turret / aiming direction operation range shown in Figure 26.

ステップ203において、CPU10は、操作指示方向に応じて、第2プレイヤオブジェクトPo2の方向(砲塔角度)および照準オブジェクトToの位置(照準位置)を設定し、次のステップ209に処理を進める。 In step 203, CPU 10 in response to an operation instruction direction, sets the direction of the second player object Po2 the position (turret angle) and the aim object To (aim position), and proceeds to the subsequent step 209. 例えば、CPU10は、操作指示方向データDcf2が示す操作指示方向をそのまま第2プレイヤオブジェクトPo2の砲塔方向に設定し、設定された砲塔方向を用いて砲塔姿勢データDcg2を更新する。 For example, CPU 10 sets the operation instruction direction indicated by the operation instruction direction data Dcf2 directly turret direction of the second player object Po2, updates the turret orientation data Dcg2 using the set turret direction. そして、第2プレイヤオブジェクトPo2の砲塔方向および位置データDciが示すプレイヤオブジェクトPoの位置を用いて、第2プレイヤオブジェクトPo2が弾オブジェクトを所定弾速度で砲撃した場合に仮想世界に着弾する位置を照準オブジェクトToの位置として算出し、当該位置を用いて位置データDciが示す照準オブジェクトToの位置を更新する。 Then, using the position of the player object Po that turret orientation and position data Dci of the second player object Po2 shows, aiming the position landing on the virtual world when the second player object Po2 was bombarded bullet object at a predetermined bullet speed calculated as the position of the object to, updates the position of the aim object to indicated by the position data Dci by using the position.

一方、ステップ204において、CPU10は、操作指示方向が第2の操作範囲内か否かを判断する。 On the other hand, in step 204, CPU 10 is an operation instruction direction determines whether the second operation range. そして、CPU10は、操作指示方向が第2の操作範囲内である場合、次のステップ205に処理を進める。 Then, CPU 10, when the operation instruction direction is within the second operating range, proceeds to the subsequent step 205. 一方、CPU10は、操作指示方向が第2の操作範囲内でない場合、次のステップ207に処理を進める。 Meanwhile, CPU 10, when the operation instruction direction is not within the second operating range, proceeds to the subsequent step 207. ここで、第2の操作範囲は、操作指示方向に応じて第2プレイヤオブジェクトPo2の方向および照準オブジェクトToの位置を変化させるとともに、第1プレイヤオブジェクトPo1の正面方向(本体方向)も所定の角度ずつ当該操作指示方向に近づくように変化させる水平方向の回転角度範囲である。 Here, the second operation range, along with changing the position in the direction and the aim object To of the second player object Po2 in response to an operation instruction direction, the front direction (main direction) of the first player object Po1 also predetermined angle by a rotation angle range in the horizontal direction to vary so as to approach to the operation instruction direction. 例えば、第2の操作範囲は、仮想世界基準方向を中心に−87°〜−5°および+5°〜+87°の範囲に設定される。 For example, the second operation range is set in a range of -87 ° ~-5 ° and + 5 ° ~ + 87 ° around the virtual world reference direction. そして、CPU10は、上記ステップ204において、仮想世界基準方向データDcf1が示す仮想世界基準方向および操作指示方向データDcf2が示す操作指示方向を用いて、当該仮想世界基準方向と操作指示方向とを仮想世界の水平面に投影した場合に生じる角度差が、上記第2の操作範囲内であるか否かを判定する。 Then, CPU 10 is virtual in step 204, using the operation instruction direction indicated by virtual world reference direction and the operation instructing direction data Dcf2 indicated virtual world reference direction data DCF1, and an operation instructing direction the virtual world reference direction World angular difference caused when projected on a horizontal plane of the is equal to or within the second operating range. なお、第2の操作範囲は、図26に示す本体方向操作範囲の一部の一例に相当する。 The second operating range corresponds to a part of an example of a main direction operation range shown in Figure 26.

ステップ205において、CPU10は、操作指示方向に応じて、第2プレイヤオブジェクトPo2の方向(砲塔角度)および照準オブジェクトToの位置(照準位置)を設定し、次のステップに処理を進める。 In step 205, CPU 10 in response to an operation instruction direction, sets the direction of the second player object Po2 the position (turret angle) and the aim object To (aim position), and proceeds to the subsequent step. 例えば、CPU10は、操作指示方向データDcf2が示す操作指示方向をそのまま第2プレイヤオブジェクトPo2の砲塔方向に設定し、設定された砲塔方向を用いて砲塔姿勢データDcg2を更新する。 For example, CPU 10 sets the operation instruction direction indicated by the operation instruction direction data Dcf2 directly turret direction of the second player object Po2, updates the turret orientation data Dcg2 using the set turret direction. そして、CPU10は、第2プレイヤオブジェクトPo2の砲塔方向および位置データDciが示すプレイヤオブジェクトPoの位置を用いて、第2プレイヤオブジェクトPo2が弾オブジェクトを所定弾速度で砲撃した場合に仮想世界に着弾する位置を照準オブジェクトToの位置として算出し、当該位置を用いて位置データDciが示す照準オブジェクトToの位置を更新する。 Then, CPU 10 uses the position of the player object Po indicated turret orientation and position data Dci of the second player object Po2, lands on the virtual world when the second player object Po2 was bombarded bullet object at a predetermined bullet speed calculated position as the position of the aim object to, updates the position of the aim object to indicated by the position data Dci by using the position.

次に、CPU10は、操作指示方向に応じて、第1プレイヤオブジェクトPo1の正面方向(本体方向)を設定し(ステップ206)、次のステップ209に処理を進める。 Then, CPU 10, in response to an operation instruction direction, the front direction of the first player object Po1 Set (body direction) (step 206), and proceeds to the subsequent step 209. 例えば、CPU10は、本体姿勢データDcg1が示す第1プレイヤオブジェクトPo1の正面方向および操作指示方向データDcf2が示す操作指示方向を用いて、第1プレイヤオブジェクトPo1の正面方向と操作指示方向とを仮想世界の水平面に投影した場合に生じる角度差θdを算出する。 For example, CPU 10, using the operation instruction direction indicated by front direction and the operation instruction direction data Dcf2 the first player object Po1 indicated body posture data DCG1, virtual an operation indication direction and the front direction of the first player object Po1 world calculates an angle difference θd caused when the projection on a horizontal plane. そして、CPU10は、第1プレイヤオブジェクトPo1の正面方向を変化させる変化角度θc2を、 Then, CPU 10 may change the angle θc2 changing the front direction of the first player object Po1,
θc2=1.0−cosθd θc2 = 1.0-cosθd
で算出する。 In the calculation. そして、CPU10は、算出された変化角度θc2だけ操作指示方向に近づくように、第1プレイヤオブジェクトPo1の正面方向を変化させ、変化後の正面方向を用いて本体姿勢データDcg1を更新する。 Then, CPU 10, as only the calculated change angle θc2 approaching operation instruction direction, to change the front direction of the first player object Po1, updates the main orientation data Dcg1 using front direction after the change. また、LCD61に表示するゲーム画像を得るための仮想カメラは、第1プレイヤオブジェクトPo1が向く方向を視線方向として設定されるため、CPU10は、仮想世界基準方向データDcf1が示す仮想世界基準方向についても、第1プレイヤオブジェクトPo1の正面方向と同じ方向に同じ変化角度θc2だけ変化させ、変化後の仮想世界基準方向を用いて仮想世界基準方向データDcf1を更新する。 Further, the virtual camera for obtaining a game image to be displayed on the LCD 61, to be set a direction in which the first player object Po1 faces as gaze direction, CPU 10 is, for the virtual world reference direction indicated by the virtual world reference direction data Dcf1 , it is changed by the same change angle θc2 in the same direction as the front direction of the first player object Po1, updates the virtual world reference direction data Dcf1 using virtual world reference direction after the change.

一方、上記ステップ204において操作指示方向が第2の操作範囲内でないと判断された場合、CPU10は、操作指示方向が第3の操作範囲内にあると判断する。 On the other hand, if the operation specified direction in step 204 is determined not to be within the second operating range, CPU 10 is an operation instruction direction is determined to be within the third operating range. そして、CPU10は、操作指示方向に応じて、第1プレイヤオブジェクトPo1の方向(本体方向)を設定し(ステップ207)、次のステップに処理を進める。 Then, CPU 10, in response to an operation instruction direction, the direction of the first player object Po1 Set (body direction) (step 207), and proceeds to the subsequent step. ここで、第3の操作範囲は、操作指示方向に応じて第1プレイヤオブジェクトPo1の正面方向(本体方向)を第2の操作範囲よりも相対的に大きな変化角度で変化させる水平方向の回転角度範囲である。 Here, the third control range, the rotation angle of the horizontal direction that changes in a relatively large change angle than the first player front direction of an object Po1 the (main direction) the second operating range in response to the operation instruction direction it is in the range. 例えば、第3の操作範囲は、仮想世界基準方向を中心に−180°〜−87°および+87°〜+180°の範囲に設定される。 For example, the third operating range, is set within a range of -180 ° ~-87 ° and + 87 ° ~ + 180 ° around the virtual world reference direction. なお、第3の操作範囲は、図26に示す本体方向操作範囲の一部の一例に相当し、上記第2の操作範囲と第3の操作範囲とを合わせて図26に示す本体方向操作範囲の一例に相当する。 The third operating range corresponds to a part of an example of a main direction operation range shown in Figure 26, the second operation range and the body direction operation range shown in Figure 26 by combining the third operating range It corresponds to an example of.

上記ステップ207において、例えば、CPU10は、本体姿勢データDcg1が示す第1プレイヤオブジェクトPo1の正面方向および操作指示方向データDcf2が示す操作指示方向を用いて、所定の変化角度θc3(例えば、1.0°)だけ操作指示方向に近づくように、第1プレイヤオブジェクトPo1の正面方向を変化させ、変化後の正面方向を用いて本体姿勢データDcg1を更新する。 In step 207, for example, CPU 10, using the operation instruction direction indicated by front direction and the operation instruction direction data Dcf2 the first player object Po1 indicated body posture data DCG1, predetermined change angle Shitashi3 (e.g., 1.0 °) so that only approach the operation specified direction, to change the front direction of the first player object Po1, updates the main orientation data Dcg1 using front direction after the change. また、LCD61に表示するゲーム画像を得るための仮想カメラは、第1プレイヤオブジェクトPo1が向く方向を視線方向として設定されるため、CPU10は、仮想世界基準方向データDcf1が示す仮想世界基準方向についても、第1プレイヤオブジェクトPo1の正面方向と同じ方向に同じ変化角度θc3だけ変化させ、変化後の仮想世界基準方向を用いて仮想世界基準方向データDcf1を更新する。 Further, the virtual camera for obtaining a game image to be displayed on the LCD 61, to be set a direction in which the first player object Po1 faces as gaze direction, CPU 10 is, for the virtual world reference direction indicated by the virtual world reference direction data Dcf1 , it is changed by the same change angle θc3 in the same direction as the front direction of the first player object Po1, updates the virtual world reference direction data Dcf1 using virtual world reference direction after the change.

次に、CPU10は、本体方向に応じて、第2プレイヤオブジェクトPo2の方向(砲塔角度)および照準オブジェクトToの位置(照準位置)を設定し(ステップ208)、次のステップ209に処理を進める。 Then, CPU 10, depending on the body direction, the direction of the second player object Po2 (turrets angle) and the position of the aim object To the (aim position) is set (step 208), and proceeds to the subsequent step 209. 例えば、第3の操作範囲では、第1プレイヤオブジェクトPo1上に配置されている第2プレイヤオブジェクトPo2(砲塔)は、第1プレイヤオブジェクトPo1との間の位置関係を保ったまま第1プレイヤオブジェクトPo1とともに方向が変化し、第1プレイヤオブジェクトPo1の方向変化に応じて照準オブジェクトToの位置も変化する。 For example, in the third operating range, the second player object is located on the first player object Po1 Po2 (turret), the first player object while maintaining the positional relationship between the first player object Po1 Po1 with direction changes, also changes the position of the aim object to depending on the direction change of the first player object Po1. したがって、CPU10は、砲塔姿勢データDcg2が示す第2プレイヤオブジェクトPo2の砲塔方向についても、第1プレイヤオブジェクトPo1の正面方向と同じ方向に同じ変化角度θc3だけ変化させ、変化後の砲塔方向を用いて砲塔姿勢データDcg2を更新する。 Thus, CPU 10 can turret regard to turret direction of the second player object Po2 indicated attitude data DCG2, it is changed by the same change angle θc3 in the same direction as the front direction of the first player object Po1, using turret direction after change to update the turret orientation data Dcg2. また、CPU10は、第2プレイヤオブジェクトPo2の砲塔方向および位置データDciが示すプレイヤオブジェクトPoの位置を用いて、第2プレイヤオブジェクトPo2が弾オブジェクトを所定弾速度で砲撃した場合に仮想世界に着弾する位置を照準オブジェクトToの位置として算出し、当該位置を用いて位置データDciが示す照準オブジェクトToの位置を更新する。 Further, CPU 10 uses the position of the player object Po indicated turret orientation and position data Dci of the second player object Po2, lands on the virtual world when the second player object Po2 was bombarded bullet object at a predetermined bullet speed calculated position as the position of the aim object to, updates the position of the aim object to indicated by the position data Dci by using the position. つまり、上記ステップ208の処理では、第2プレイヤオブジェクトPo2の砲塔方向は、第1プレイヤオブジェクトPo1に対して上記第2の操作範囲と第3の操作範囲との境界に対応する角度(例えば、−87°または+87°)を保ったまま第1プレイヤオブジェクトPo1と共に仮想世界内で回転することになる。 That is, in the processing of the above step 208, turret direction of the second player object Po2, the angle corresponding to the boundary between the first player object Po1 and the second operating range the third operating range (e.g., - with 87 ° or + 87 °) while maintaining the first player object Po1 will rotate in the virtual world.

ステップ209において、CPU10は、重心位置および本体方向に基づいて移動ベクトルを設定して、次のステップに処理を進める。 In step 209, CPU 10 sets the motion vector based on the gravity center position and the body direction, and goes to the next step. 例えば、CPU10は、重心位置データDcdが示す最新の重心位置に基づいて、プレイヤオブジェクトPoの移動速度を算出する。 For example, CPU 10 is based on the most recent gravity center position indicated by center-of-gravity position data Dcd, and calculates the moving speed of the player object Po. 一例として、CPU10は、ボード型コントローラ9の台9a上の位置に対応する所定の座標系における、重心位置のY1軸値(短辺方向の座標値)に基づいて、プレイヤオブジェクトPoの移動速度を算出する。 As an example, CPU 10 is in a predetermined coordinate system corresponding to the position on the platform 9a of the board type controller 9, based on the Y1-axis value of the center-of-gravity position (coordinate values ​​in the short side direction), the moving speed of the player object Po calculate. 例えば、台9aの中心が原点に設定されている場合、重心位置のY1軸値が所定の数値より大きければ(すなわち、台9aの中心から前方または後方へ所定の処理以上離れた位置に重心位置が配置されてれば)、プレイヤオブジェクトPoの前進または後退速度を当該数値に応じて設定する。 For example, when the center of the platform 9a is set to the origin, if Y1 axis value of the center-of-gravity position is greater than the predetermined value (i.e., the center of gravity located at the center position spaced a predetermined process or forward or backward from the platform 9a There be arranged), it is set in accordance with forward or reverse speed of the player object Po to the number. 具体的には、ボード型コントローラ9の前方(図6に示す荷重センサ94cおよび94dが設けられている方向)がY1軸正方向に設定されている場合、重心位置のY1軸値が正の値で所定の数値より絶対値が大きければ、プレイヤオブジェクトPoの前進速度(例えば、正の移動速度)を当該数値に応じて設定する。 Specifically, if the front of the board type controller 9 (direction in which the load sensor 94c and 94d shown in FIG. 6 are provided) is set to Y1 axis positive direction, Y1-axis value of the center of gravity position is a positive value if in absolute value than the predetermined value is large, the forward speed of the player object Po (e.g., a positive movement speed) is set in accordance with the number. また、重心位置のY1軸値が負の値で所定の数値より絶対値が大きければ、プレイヤオブジェクトPoの後進速度(例えば、負の移動速度)を当該数値に応じて設定する。 Further, if the absolute value than the predetermined value in the Y1-axis value is a negative value of the position of the center of gravity is large, is set in accordance reverse speed of the player object Po (e.g., the negative moving speed) to the numerical value.

また、CPU10は、プレイヤオブジェクトPoの前進速度(例えば、正の移動速度)が設定された場合、本体姿勢データDcg1が示す第1プレイヤオブジェクトPo1の正面方向をプレイヤオブジェクトPoの移動方向とする。 Further, CPU 10 is the forward speed of the player object Po (e.g., a positive movement speed) When is set, the front direction of the first player object Po1 indicated body posture data Dcg1 the moving direction of the player object Po. また、プレイヤオブジェクトPoの後退速度(例えば、負の移動速度)が設定された場合、本体姿勢データDcg1が示す第1プレイヤオブジェクトPo1の正面方向の逆方向をプレイヤオブジェクトPoの移動方向とする。 Further, retracting speed of the player object Po (e.g., the negative moving speed) If is set to the reverse direction in the front direction of the first player object Po1 indicated body posture data Dcg1 the moving direction of the player object Po. そして、CPU10は、上述したように算出されたプレイヤオブジェクトPoの移動速度および移動方向を用いて、仮想世界における移動ベクトルを算出し、算出された移動ベクトルを用いて移動ベクトルデータDchを更新する。 Then, CPU 10, using the moving speed and moving direction of the player object Po calculated as described above, it calculates the moving vector in the virtual world, and updates the movement vector data Dch using a moving vector calculated. 例えば、CPU10は、算出されたプレイヤオブジェクトPoの移動速度を用いて移動ベクトルの長さを設定し、本体姿勢データDcg1が示す第1プレイヤオブジェクトPo1の正面方向またはその逆方向を用いて移動ベクトルの方向を設定する。 For example, CPU 10, using the moving speed of the calculated player object Po set the length of the movement vectors, the movement vector using the front direction or the opposite direction of the first player object Po1 indicated body posture data Dcg1 to set the direction.

次に、CPU10は、プレイヤオブジェクトPoの位置を算出し(ステップ210)、次のステップに処理を進める。 Then, CPU 10 calculates the position of the player object Po (step 210), and proceeds to the subsequent step. 例えば、CPU10は、移動ベクトルデータDchが示す移動ベクトルに基づいて、位置データDciが示すプレイヤオブジェクトPoの位置を仮想世界内で移動させ、移動後の位置を用いて位置データDciを更新する。 For example, CPU 10, based on the motion vector indicated by the motion vector data Dch, the position of the player object Po indicated by the position data Dci is moved in the virtual world, and updates the position data Dci using the position after the movement.

次に、CPU10は、プレイヤオブジェクトPoが砲撃中か否かを判断する(ステップ211)。 Then, CPU 10 is the player object Po is determined whether during bombardment (step 211). そして、CPU10は、プレイヤオブジェクトPoが砲撃中である場合、次のステップ212に処理を進める。 Then, CPU 10, when the player object Po is being bombarded, and proceeds to the subsequent step 212. 一方、CPU10は、プレイヤオブジェクトPoが砲撃中でない場合、当該サブルーチンによる処理を終了する。 Meanwhile, CPU 10, when the player object Po is not being bombarded, and exits the subroutine. ここで、プレイヤオブジェクトPoは、第2プレイヤオブジェクトPo2から照準オブジェクトToに向かって弾オブジェクトを発射することが可能であり、ユーザの所定の操作(例えば、端末装置6の攻撃ボタン(操作ボタン64E)を押下する操作)に応じて、設定されている砲塔方向へ砲塔から砲弾が発射される。 Here, the player object Po is capable of the second player object Po2 toward the aim object To fire the bullet object, a predetermined operation of the user (e.g., attack button of the terminal device 6 (the operation button 64E) depending on the pressing operation), ammunition is fired from turret to turret direction set. そして、砲撃中とは、プレイヤオブジェクトPoが弾オブジェクトを照準オブジェクトToに向かって発射される上記操作が行われた時点から、当該弾オブジェクトが他のオブジェクト等と衝突して消滅するまでの期間を示している。 Then, as during shelling, the period from the time when the operation of the player object Po is launched toward the bullet object to aim object To is performed, until the bullet object disappears collide with other objects, etc. shows.

ステップ212において、CPU10は、弾オブジェクトの位置および移動ベクトルを算出し、当該サブルーチンによる処理を終了する。 In step 212, CPU 10 calculates the position and movement vector of the bullet object, and exits the subroutine. 例えば、CPU10は、弾オブジェクトを発射する上記操作が行われた場合、弾オブジェクトの位置を第2プレイヤオブジェクトPo2の砲塔内部に設定するとともに、砲塔方向に所定の弾速度を有する移動ベクトルを設定して、移動ベクトルデータDchが示す弾オブジェクトの移動ベクトルおよび位置データDciが示す弾オブジェクトの位置を更新する。 For example, CPU 10, when the above operation to fire the bullet object is performed, and sets the position of the bullet object turret inside the second player object Po2, sets the motion vector having a predetermined bullet velocity turret direction Te, and it updates the position of the bullet object indicated by the movement vector and location data Dci of the bullet object indicated by the movement vector data Dch. そして、CPU10は、弾オブジェクトが発射された後は、設定された移動ベクトルに基づいて弾オブジェクトを仮想世界内で移動させて新たな弾オブジェクトの位置を設定し、設定された位置を用いて位置データDciが示す弾オブジェクトの位置を更新する。 Then, CPU 10 may, after the bullet object has been fired, the position using by moving the bullet object in the virtual world based on the movement vector set to set the position of the new bullet object, set position data Dci to update the position of the bullet object indicated. また、CPU10は、仮想世界に設定されている環境(重力、風、他のオブジェクトからの影響等)に基づいて移動ベクトルを修正し、修正後の移動ベクトルを用いて移動ベクトルデータDchが示す弾オブジェクトの移動ベクトルを更新する。 Further, CPU 10 corrects the motion vector based on the environment set in the virtual world (gravity, wind, etc. influence from other objects), bullet item indicated by the transfer vector data Dch using the moving vector of the corrected to update the movement vector of the object.

なお、第3の実施形態における仮想カメラの設定処理(ステップ84)では、端末用ゲーム画像を生成するための第1仮想カメラは、仮想世界に配置されている第1プレイヤオブジェクトPo1の背後近傍から見た仮想世界内の様子が含まれるように設定される。 In the third process of setting the virtual camera in the embodiment of (step 84), the first virtual camera for generating a game image terminal, from the vicinity behind the first player object Po1 provided in the virtual world It is set to include the state of the virtual world as seen. また、モニタ用ゲーム画像を生成するための第2仮想カメラは、上記第1仮想カメラが設定されている同じ仮想世界に設定され、当該仮想世界に配置されているプレイヤオブジェクトPoを、遠方から第1プレイヤオブジェクトPo1の正面方向へ鳥瞰した仮想世界内の様子が含まれるように設定される。 Further, the second virtual camera for generating a game image monitor, set to the same virtual world the first virtual camera is set, the player object Po disposed in the virtual world, the from afar is configured to be in a state in the virtual world that bird's eye toward the front direction of the first player object Po1. CPU10は、位置データDciが示すプレイヤオブジェクトPoの位置や本体姿勢データDcg1が示す第1プレイヤオブジェクトPo1の正面方向に基づいて、第1仮想カメラおよび第2仮想カメラの仮想世界における位置(第1仮想カメラおよび第2仮想カメラに関するパラメータ)を設定する。 CPU10 on the basis of the front direction of the first player object Po1 indicated by the position data Dci the player object position and body posture data Dcg1 of Po indicating the position in the virtual world of the first virtual camera and the second virtual camera (the first virtual setting a parameter) related to the camera and a second virtual camera.

そして、第3の実施形態におけるモニタ用ゲーム画像の生成処理(ステップ45)や端末用ゲーム画像の生成処理(ステップ46)では、第1の実施形態と同様に、上記ゲーム制御処理の結果を表す画像がそれぞれ生成される。 Then, in the process of generating the monitor game image in the third embodiment (step 45) and generation processing of the terminal game image (step 46), as in the first embodiment, representing the result of the game control process images are respectively generated. 例えば、モニタ用ゲーム画像は、仮想カメラデータDcjが示す第2仮想カメラに関するパラメータに基づいて仮想世界に第2仮想カメラを配置し、動作姿勢データDcgおよび位置データDciに基づいて仮想世界にプレイヤオブジェクトPo(第1プレイヤオブジェクトPo1および第2プレイヤオブジェクトPo2)、照準オブジェクトTo、および弾オブジェクト等を配置して、当該第2仮想カメラから見た仮想世界を計算することによって得られる3次元のCG画像によって生成される。 For example, monitor game image, the second virtual camera placed in the virtual world on the basis of the parameters relating to the second virtual camera indicated by the virtual camera data Dcj, the player object in the virtual world based on the operating attitude data Dcg and position data Dci Po (the first player object Po1 and second player object Po2), the aim object to, and by placing the bullet object such as 3-dimensional CG image obtained by calculating the virtual world as seen from the second virtual camera It is generated by. また、端末用ゲーム画像は、仮想カメラデータDcjが示す第1仮想カメラに関するパラメータに基づいて仮想世界に第1仮想カメラを配置し、動作姿勢データDcgおよび位置データDciに基づいて仮想世界にプレイヤオブジェクトPo、照準オブジェクトTo、および弾オブジェクト等を配置して、当該第1仮想カメラから見た仮想世界を計算することによって得られる3次元のCG画像によって生成される。 Further, the terminal game image, the first virtual camera placed in the virtual world based on the parameters relating to the first virtual camera indicated by the virtual camera data Dcj, the player object in the virtual world based on the operating attitude data Dcg and position data Dci Po, by arranging the aim object to, and the bullet object like are generated by 3-dimensional CG image obtained by calculating the virtual world as seen from the first virtual camera.

このように、上述した処理によれば、砲塔/照準方向操作範囲内(第1の操作範囲内)での端末装置6を用いた操作は、第2プレイヤオブジェクトPo2の方向や照準オブジェクトToの位置のみが変化し、第1プレイヤオブジェクトPo1の方向やLCD61に表示する仮想世界の表示範囲は変化しない。 Thus, according to the process described above, the turret / aiming direction operation range terminal device 6 operation using at (first operation range), the position of the direction or aim object To of the second player object Po2 only changes the display range of the virtual world displayed on the direction and the LCD61 of the first player object Po1 does not change. したがって、砲塔/照準方向操作範囲内(第1の操作範囲内)での端末装置6を用いた操作は、当該操作によって動作するオブジェクトが限定されるとともに、敵オブジェクトEo等に向かって砲撃するために照準オブジェクトToの位置を調整するために好適な操作環境となる。 Thus, the turret / aiming direction operation range terminal device 6 operation using the at (first operation range), together with objects operated by the operation is limited, in order to bombard toward the enemy object Eo like a suitable operating environment in order to adjust the position of the aim object to the. また、実空間における本体方向操作範囲内(第2の操作範囲または第3の操作範囲内)での端末装置6を用いた操作は、第2プレイヤオブジェクトPo2の方向や照準オブジェクトToの位置だけでなく、第1プレイヤオブジェクトPo1の方向や仮想カメラの位置および方向を変えることができる。 Further, operation using the terminal device 6 in the body direction operation range (the second operation range or the third operating range) in the real space, only the position of the direction or aim object To of the second player object Po2 no, it is possible to change the position and direction of the direction or the virtual camera of the first player object Po1. したがって、本体方向操作範囲内での端末装置6を用いた操作は、当該操作によって砲塔/照準方向操作範囲内で操作可能なオブジェクトとは異なるオブジェクトの操作が可能になるとともに、プレイヤオブジェクトPoの移動方向を変えたり、LCD61に表示される表示範囲を変えたりするために好適となる。 Accordingly, operation using the terminal device 6 in the body direction operation range, it becomes possible to operate the different object from the object can be manipulated in turret / aiming direction operation range by the operation, the movement of the player object Po changing the direction, which is suitable for changing the display range of the LCD 61. このように、少なくとも2段階の操作範囲を設定することによって、ユーザが様々な操作を1つのデバイスの姿勢によって行うことが可能となる。 Thus, by setting the operating range of the at least two stages, it is possible to perform the attitude of the users one different operation devices.

なお、上述した第1〜第3のゲーム例では、端末装置6の姿勢に基づいてLCD61に表示する画像を生成するための仮想カメラ(第1仮想カメラ)の制御(位置の制御や方向の制御)が行われている。 In the first to third game example described above, the terminal device control and direction of the control of the control (position of 6 virtual camera for generating an image to be displayed on the LCD61 based on the attitude of the (first virtual camera) ) has been carried out. このような制御によって、LCD61を介して仮想世界内を覗いているような画像をユーザに提供することができ、当該ユーザに仮想世界にいるかのような感覚を与えることができる。 Such control can provide a feeling as if the virtual world image as looking into the virtual world can be provided to the user, to the user via the LCD 61. また、端末装置6の姿勢を用いた操作は、鉛直方向周り(例えば、Y軸方向周り)の左右振り運動(ヨー)、左右水平方向周り(例えば、X軸方向周り)の上下振り運動(ピッチ)、前後水平方向周り(例えば、Z軸方向周り)の左右回転運動(ロール)のように3方向への回転操作が可能となり、仮想世界においても同様の動きが可能な仮想カメラの制御に好適であり、実空間における端末装置6の姿勢と同じ姿勢になるように仮想世界における仮想カメラの姿勢を制御することによって、仮想世界においてユーザが希望する方向を覗いたような画像を提供することができる。 Furthermore, operations using the attitude of the terminal device 6, the left and right swing movement around the vertical direction (e.g., Y-axis direction around) (yaw), the vertical swing motion (pitch of the left and right horizontal direction around (e.g., X-axis direction around) ), longitudinal horizontal direction around (e.g., the rotating operation of the three directions as the left and right rotational movement of the Z about axis direction) (roll) becomes possible, preferably for the control of the virtual camera capable same movement also in the virtual world , and the by controlling the attitude of the virtual camera in the virtual world to be the same orientation as the orientation of the terminal device 6 in the real space, to provide an image as the user looks into the direction desired in the virtual world it can. また、上述した第1〜第3のゲーム例では、ボード型コントローラ9上でユーザが動作することに応じて、プレイヤオブジェクトの動作(例えば、移動動作)が行われる。 Further, in the first to third game examples described above, in response to operation a user on-board controller 9, the operation of the player object (e.g., movement) is carried out. つまり、ユーザは、LCD61に表示される画像によって仮想世界にいるかのような感覚が与えられることに加えて、さらに自分自身が実空間におけるプレイヤキャラクタになったかのような操作感覚が与えられるため、さらに仮想世界にいるかのような感覚が高まることになる。 That is, the user, because in addition to being given feeling as if the virtual world by the image displayed on the LCD 61, is given further operation feeling as if his own becomes the player character in the real space, further It will be feeling like you are in the virtual world increases.

また、上述した第1〜第3のゲーム例では、端末装置6の姿勢に基づいてLCD61に表示されるプレイヤオブジェクトPoの姿勢が制御されている。 Further, in the first to third game examples described above, the posture of the player object Po is controlled to be displayed on the LCD61 based on the attitude of the terminal device 6. このような制御によって、端末装置6自体がプレイヤオブジェクトPoとなったかのような操作環境をユーザに提供することができ、当該ユーザが仮想世界のプレイヤオブジェクトPoになったような感覚やプレイヤオブジェクトPoを直接操作しているかのような感覚を与えることができる。 This control, the terminal device 6 itself can provide an operating environment, such as if a player object Po to the user, a sense or player object Po as the user becomes the player object Po of the virtual world it is possible to give a feeling as if they were operating directly. また、端末装置6の姿勢を用いた操作は、鉛直方向周り(例えば、Y軸方向周り)の左右振り運動(ヨー)、左右水平方向周り(例えば、X軸方向周り)の上下振り運動(ピッチ)、前後水平方向周り(例えば、Z軸方向周り)の左右回転運動(ロール)のように3方向への回転操作が可能となり、仮想世界においても同様の動きが可能なプレイヤオブジェクトPoの制御に好適である。 Furthermore, operations using the attitude of the terminal device 6, the left and right swing movement around the vertical direction (e.g., Y-axis direction around) (yaw), the vertical swing motion (pitch of the left and right horizontal direction around (e.g., X-axis direction around) ), longitudinal horizontal direction around (e.g., the rotating operation of the three directions as the left and right rotational movement of the Z about axis direction) (roll) becomes possible, the control of the player object Po capable same movement also in the virtual world it is preferred. 例えば、第1のゲーム例の場合、端末装置6のLCD61に沿った縦方向(Y軸方向)周りの左右振り運動(ヨー)をプレイヤオブジェクトPoの左右方向への姿勢変化(ヨー)に対応させ、LCD61に沿った左右方向(X軸方向)周りの上下振り運動(ピッチ)をプレイヤオブジェクトPoの上下方向への姿勢変化(ピッチ)に対応させ、LCD61の奥行方向(Z軸方向)周りの左右回転運動(ロール)をプレイヤオブジェクトPoの正面方向を中心とした回転姿勢変化(ロール)に対応させることによって、仮想世界においてユーザが希望する姿勢に変化するオブジェクト画像を提供することができる。 For example, if the first game example, to correspond to the vertical direction change in the posture of the (Y axis direction) lateral swinging movement around the (yaw) to the left-right direction of the player object Po along the LCD61 of the terminal device 6 (yaw) , in correspondence with the vertical appearance movement in the horizontal direction (X axis direction) around along the LCD61 change in the posture of the (pitch) in the vertical direction of the player object Po (pitch), the depth direction (Z axis direction) of the LCD61 left around by corresponding to the rotational movement (roll) rotating posture change around the front direction of the player object Po (the role), it is possible to provide an object image that changes orientation desired by the user in the virtual world. また、上述した第1〜第3のゲーム例では、ボード型コントローラ9上でユーザが動作することに応じて、プレイヤオブジェクトの動作(例えば、移動動作)が行われる。 Further, in the first to third game examples described above, in response to operation a user on-board controller 9, the operation of the player object (e.g., movement) is carried out. つまり、ユーザは、複数のデバイス(端末装置6およびボード型コントローラ9)によって1つのプレイヤオブジェクトを操作することになり、今までにない操作が可能となる。 That is, the user will be manipulating one of the player object by a plurality of devices (terminal devices 6 and board type controller 9), unprecedented operation becomes possible. また、端末装置6の姿勢によるプレイヤオブジェクトの姿勢制御によって、ユーザが仮想世界のプレイヤオブジェクトになったような感覚やプレイヤオブジェクトを直接操作しているかのような感覚が与えられることに加えて、ボード型コントローラ9上の操作によってさらに自分自身が実空間におけるプレイヤキャラクタになったかのような操作感覚が与えられるため、さらに仮想世界にいるかのような感覚が高まることになる。 Further, the posture control of the player object by the attitude of the terminal device 6, the user in addition to feeling as if operating a sense or player object as was in the virtual world of the player object directly is given, Board to further himself by operating on the mold controller 9 operation feeling as if were the player character in the real space is given, so that the increasing feeling as if further being in the virtual world. また、上述した第1および第3のゲーム例では、プレイヤオブジェクトの正面方向にプレイヤオブジェクトを移動させることができる。 In the first and third game examples described above, it is possible to move the player object in front direction of the player object. したがって、ユーザは、端末装置6の姿勢によってプレイヤオブジェクトの姿勢(正面方向)を設定できるとともに、当該プレイヤオブジェクトの移動方向も設定することができ、移動方向を設定する操作が直感的で当該移動方向をユーザが所望する方向に合わせることが容易となる。 Thus, the user, it is possible to set the orientation of the player object (the front direction) by the attitude of the terminal device 6, the moving direction of the player object can also be set, operation of setting the moving direction intuitive the moving direction users can be easily adjusted to the desired direction. また、上述したプレイヤオブジェクトの姿勢と同様に、端末装置6の3方向への回転操作に応じてプレイヤオブジェクトの移動方向を設定することも可能となるため、仮想世界においてユーザが希望する移動方向をそのまま設定することが可能となる。 Also, as with the posture of the player object as described above, since it is possible to set the moving direction of the player object in response to the rotating operation of the three directions of the terminal device 6, the moving direction the user desires in the virtual world it becomes possible to set.

また、上述した第1〜第3のゲーム例では、端末装置6の姿勢に基づいてプレイヤオブジェクトPoの移動方向が設定される。 Further, in the first to third game examples described above, the moving direction of the player object Po is set on the basis of the attitude of the terminal device 6. このような移動方向の設定によって、端末装置6自体がプレイヤオブジェクトPoとなったかのような操作環境をユーザに提供することができ、当該ユーザが仮想世界のプレイヤオブジェクトPoになったような感覚やプレイヤオブジェクトPoを直接操作しているかのような感覚を与えることができる。 Such movement direction of the setting, the terminal device 6 itself can provide some kind of operation environment becomes player object Po to the user, sensory or player, such as the user becomes the player object Po of the virtual world it is possible to give a feeling as if they were manipulating the object Po directly. また、端末装置6の姿勢を用いた操作は、鉛直方向周り(例えば、Y軸方向周り)の左右振り運動(ヨー)、左右水平方向周り(例えば、X軸方向周り)の上下振り運動(ピッチ)、前後水平方向周り(例えば、Z軸方向周り)の左右回転運動(ロール)のように3方向への回転操作が可能となり、仮想世界においても当該3方向の少なくとも1方向への移動方向の設定が可能なプレイヤオブジェクトPoの制御に好適である。 Furthermore, operations using the attitude of the terminal device 6, the left and right swing movement around the vertical direction (e.g., Y-axis direction around) (yaw), the vertical swing motion (pitch of the left and right horizontal direction around (e.g., X-axis direction around) ), longitudinal horizontal direction around (e.g., the rotating operation of the three directions as the left and right rotational movement of the Z about axis direction) (roll) is possible, even in the virtual world of the movement direction in at least one direction of said three directions set is suitable for the control of possible player object Po. 例えば、第1のゲーム例の場合、端末装置6のLCD61に沿った縦方向(Y軸方向)周りの左右振り運動(ヨー)をプレイヤオブジェクトPoの左右方向への移動方向変化(ヨー)に対応させ、LCD61に沿った左右方向(X軸方向)周りの上下振り運動(ピッチ)をプレイヤオブジェクトPoの上下方向への移動方向変化(ピッチ)に対応させることによって、仮想世界においてユーザが希望する移動方向へ移動するオブジェクト制御を提供することができる。 For example, if the first game example, corresponds to the longitudinal movement direction change of the (Y axis direction) lateral swinging movement around the (yaw) to the left-right direction of the player object Po along the LCD61 of the terminal device 6 (yaw) It is, by associating the vertical swinging movement direction change of movement (pitch) in the vertical direction of the player object Po in the horizontal direction (X axis direction) around along the LCD 61 (pitch), moving the user desires in the virtual world it is possible to provide an object control to move to the direction. また、上述した第1〜第3のゲーム例では、ボード型コントローラ9上でユーザが動作することに応じて、プレイヤオブジェクトの移動動作(例えば、移動速度の設定)が行われる。 Further, in the first to third game examples described above, in response to operation a user on-board controller 9, movement of the player object (e.g., setting of the moving speed) is performed. つまり、ユーザは、複数のデバイス(端末装置6およびボード型コントローラ9)によって1つのプレイヤオブジェクトの移動方向と移動速度とを操作することになり、今までにない操作が可能となる。 That is, the user will be manipulating a plurality of devices (terminal devices 6 and board type controller 9) moving direction and the moving speed of the one of the player object by unprecedented operation becomes possible. また、端末装置6の姿勢によるプレイヤオブジェクトの移動方向設定によって、ユーザが仮想世界のプレイヤオブジェクトになったような感覚やプレイヤオブジェクトを直接操作しているかのような感覚が与えられることに加えて、ボード型コントローラ9上の操作によってさらに自分自身が実空間におけるプレイヤキャラクタになったかのような操作感覚が与えられるため、さらに仮想世界にいるかのような感覚が高まることになる。 Further, the movement direction setting of the player object by the attitude of the terminal device 6, the user in addition to feeling as if operating a sense or player object as was in the virtual world of the player object directly is given, to further himself by operating on-board controller 9 operation feeling as if were the player character in the real space is given, so that the increasing feeling as if further being in the virtual world.

また、上述した第1〜第3のゲーム例では、端末装置6のLCD61に表示されている仮想世界の方向を、プレイヤオブジェクトの移動方向とすることができる。 Further, in the first to third game examples described above, the direction of the virtual world displayed on the LCD61 of the terminal device 6 may be a moving direction of the player object. したがって、ユーザは、端末装置6の姿勢によってプレイヤオブジェクトの移動方向を設定できるとともに、その移動方向を見た仮想世界がLCD61に表示されるために、移動方向を設定する操作が直感的で当該移動方向をユーザが所望する方向に合わせることが容易となる。 Thus, the user, it is possible to set the moving direction of the player object by the attitude of the terminal device 6, the to virtual world viewed movement direction is displayed on the LCD 61, intuitive and the moving operation of setting the moving direction the direction the user can be easily adjusted to the desired direction. また、上述した仮想カメラの方向と同様に、端末装置6の3方向への回転操作に応じてプレイヤオブジェクトの移動方向を設定することも可能となるため、仮想世界においてユーザが希望する移動方向をそのまま設定することが可能となる。 Similarly to the direction of the virtual camera described above, since it is possible to set the moving direction of the player object in response to the rotating operation of the three directions of the terminal device 6, the moving direction the user desires in the virtual world it becomes possible to set.

また、上述した第1〜第3のゲーム例では、プレイヤオブジェクトPoを少なくとも含む仮想世界の画像を端末装置6のLCD61に表示したが、他の態様の仮想世界の画像をLCD61に表示してもかまわない。 Further, in the first to third game example described above, has been displaying the image of the virtual world, including at least a player object Po on LCD61 of the terminal device 6, also display an image of the virtual world of the other aspects in LCD61 It does not matter. 例えば、プレイヤオブジェクトPoを表示せずに、プレイヤオブジェクトPoから見た主観視点の仮想世界画像をLCD61に表示してもよい。 For example, without displaying the player object Po, it may display a virtual world image of the subjective point of view as seen from the player object Po to LCD61. この場合、LCD61に主観視点で表示されている仮想世界の方向は、プレイヤオブジェクトPoの移動方向と同じであってもいいし、プレイヤオブジェクトPoの移動方向と異なっていてもよい。 In this case, the direction of the virtual world is being displayed in a subjective point of view to the LCD61, it can either be the same as the moving direction of the player object Po, may be different from the moving direction of the player object Po. LCD61に主観視点で表示されている仮想世界の方向と、プレイヤオブジェクトPoの移動方向と同じである場合、移動方向を見た仮想世界がLCD61に表示されるために、移動方向を設定する操作が直感的で当該移動方向をユーザが所望する方向に合わせることが容易となることは言うまでもない。 The direction of the virtual world is displayed in the subjective viewpoint LCD 61, if it is the same as the moving direction of the player object Po, to the virtual world viewed movement direction is displayed on the LCD 61, the operation of setting the moving direction intuitive to the moving direction the user can be easily adjusted to the desired direction of course.

なお、上述した第1〜第3のゲーム例では、端末装置6の姿勢に基づいて決定された操作指示方向に応じて、即時に仮想カメラの位置や姿勢の制御が連動するような処理例を用いた。 In the first to third game examples described above, according to the operation instruction direction determined based on the attitude of the terminal device 6, a processing example such as control of the position and attitude of the virtual camera is interlocked immediately Using. しかしながら、操作指示方向の変化に応じて、所定の時間遅れて仮想カメラの位置や姿勢の制御が行われるような処理でもかまわない。 However, according to the change of the operation instructing direction, it may be a process such as control of the position and attitude of the virtual camera with a delay of a predetermined time is performed. この場合、プレイヤオブジェクトの向きが変わった後に、所定時間遅れて当該向きに追従して仮想カメラの位置や向きが変化することになる。 In this case, after the changed orientation of the player object, the position and orientation of the virtual camera so that the changes following to the direction in predetermined time delay.

また、上述した第1〜第3のゲーム例では、端末装置6のLCD61に表示されるゲーム画像と、モニタ2に表示されるゲーム画像とは、何れも同じ仮想世界(仮想空間)の様子を示す画像であるが、当該仮想世界(仮想空間)を見る視点や範囲が異なる画像である。 Further, in the first to third game examples described above, the game image displayed on the LCD61 of the terminal device 6, the game image displayed on the monitor 2, the state of both the same virtual world (virtual space) it is an image showing, but perspectives and range to see the virtual world (virtual space) are different images. したがって、ユーザは、2つの表示画面に表示された異なる視界や表示範囲となった仮想世界(仮想空間)を見ることが可能となり、ゲーム状況等に応じて適宜好適なゲーム画像を見ることが可能となる。 Therefore, the user can be viewed can be viewed virtual world becomes different visibility and display range displayed on the two display screens (virtual space) and makes the appropriate suitable game image in accordance with the game situation, etc. to become. また、上述した第1〜第3のゲーム例では、ユーザが端末装置6を把持して操作を行い、実空間における端末装置6の姿勢や位置に応じてプレイヤオブジェクトや仮想カメラを位置や姿勢を変化させるとともに、LCD61に表示される画像もプレイヤオブジェクトや仮想カメラの位置や姿勢に応じて変化させることもできる。 Further, in the first to third game examples described above, the user performs the operation by gripping the terminal device 6, the position and orientation of the player object or a virtual camera in accordance with the attitude and the position of the terminal device 6 in the real space with changing, can be changed depending on the image is also the player object and the position and posture of the virtual camera is displayed on the LCD 61. したがって、端末装置6を把持しながらLCD61に表示される画像を見るユーザに、仮想世界(仮想空間)の臨場感を与えることができる。 Thus, the user viewing the image displayed on the LCD61 while gripping the terminal device 6 can provide a sense of realism of a virtual world (virtual space). その一方で、LCD61に表示される画像だけを見ていると仮想世界(仮想空間)全体に対する位置やプレイヤオブジェクトの周囲の状況の把握が難しくなることも考えられるが、モニタ2に相対的に広い範囲の仮想世界(仮想空間)を表示することによって、このような問題を解消することができる。 On the other hand, a virtual world (virtual space), but grasp around the position and the player object to the whole situation is also conceivable that difficult, relatively wide on the monitor 2 are seeing only images to be displayed on the LCD61 range of the virtual world by displaying (virtual space), it is possible to solve such a problem.

また、上述した第1〜第3のゲーム例では、ユーザは、ボード型コントローラ9にかける荷重変化によって操作が可能であるとともに、プレイヤオブジェクトを含むゲーム画像が表示される端末装置6を把持して行う操作(本体姿勢や位置による操作、タッチ操作、ボタン操作等)も可能となっている。 Further, in the first to third game examples described above, the user, along with it can be operated by a load change applied to the board type controller 9, holding the terminal device 6 which the game image is displayed including the player object operations to be performed (operation by the body posture and position, touch operation, button operation, etc.) it is also made possible. そして、端末装置6に表示されるプレイヤオブジェクトは、ボード型コントローラ9にかける荷重変化によって操作および/または端末装置6を用いた操作に応じて、仮想世界(仮想空間)内で動作する。 Then, the player object displayed on the terminal device 6 in response to an operation using the operation and / or the terminal device 6 by the load variation applied to the board type controller 9 operates in the virtual world (virtual space). したがって、ユーザ自身がプレイヤオブジェクトとなって動作して仮想世界(仮想空間)を見ているような感覚をユーザに与えたり、プレイヤオブジェクトを実空間で操作しているような感覚をユーザに与えたりすることが可能となる。 Therefore, or give or give the sensation of the user himself looking at the virtual world (virtual space) is currently operating a player object to the user, the feeling of being operating the player object in the real space to the user it is possible to become.

ここで、上述したボード型コントローラ9を用いた操作では、ボード型コントローラ9に掛かる荷重の有無、荷重変化、および荷重の重心位置を用いて、プレイヤオブジェクトの様々な動作制御に用いられている。 Here, in the operation using the board-type controller 9 described above, the presence or absence of load applied to the board type controller 9, using a load change, and the center of gravity of the load are used in a variety of operation control of the player object. 例えば、上述した第1〜第3のゲーム例では、ボード型コントローラ9に掛かる荷重変化や荷重の重心位置によって、プレイヤオブジェクトの動作、移動速度、および移動方向等を変化させている。 For example, in the first to third game examples described above, the load change and the position of the center of gravity of the load applied to the board type controller 9, the operation of the player object, and changing the movement speed, and the moving direction and the like. なお、上記ゲーム例では、ユーザの操作方向に応じて仮想世界(仮想空間)における方向(例えば、プレイヤオブジェクトの移動方向や正面方向等)が設定されるゲーム例ではあるが、当該方向が端末装置6の姿勢(方向)に基づいて設定されている。 In the above game example, the direction in the virtual world (virtual space) in accordance with an operation direction of the user (e.g., the moving direction and the front direction of the player object), but is a game example is set, the direction of the terminal device It is set on the basis of the 6 posture (direction). また、第2のゲーム例における仮想世界の空中における移動方向の修正や、第3のゲーム例における前進/後退の切替等については、ボード型コントローラ9に掛かる荷重の重心位置によって設定されている。 Further, modifications and the moving direction of the air in the virtual world in the second game example, for the forward / reverse switching of the third game example, is set by the position of the center of gravity of the load applied to the board type controller 9. これは、端末装置6の姿勢による操作とボード型コントローラ9を用いた操作とを比較した場合に、方向を設定する操作が容易であったりゲームの臨場感が増したりする方が選択されている例であり、端末装置6の姿勢およびボード型コントローラ9に掛かる荷重の重心位置の適切な方をゲーム内容に応じて方向指示を行う操作として選択することができる。 This, when compared with operation and using the operation and board type controller 9 according to the attitude of the terminal device 6, who or increases the realism of the game or an easy operation to set the direction is selected is an example, it can be selected as an operation which performs direction indicator according to appropriate ones of the center of gravity of the load applied to the attitude and the board type controller 9 of the terminal device 6 to the game content. このように、端末装置6およびボード型コントローラ9を操作手段として用いる場合、ユーザの操作に応じて仮想世界(仮想空間)における方向を設定する際、複数の操作を選択肢として好適な方式を選択することが可能となる。 Thus, when used as an operation means terminal device 6 and the board type controller 9, when setting the direction in the virtual world (virtual space) in accordance with the operation by the user, selects a suitable manner a plurality of operation as an option it becomes possible.

なお、ゲームシステム1は、端末装置6およびボード型コントローラ9を操作手段として、上記で説明したように種々のゲームを行うことが可能である。 The game system 1, as an operation means terminal device 6 and the board type controller 9, it is possible to perform various game as described above. 端末装置6は、可搬形のディスプレイや第2のディスプレイとしても使用することができる一方で、本体の動きによる操作、タッチ操作、ボタン操作等による入力を行うコントローラとしても使用することができ、ゲームシステム1によれば、幅広いゲームを実施することが可能となる。 Terminal device 6, even while it is possible to use, can also be used as a controller for performing operation by the movement of the body, a touch operation, an input by button operation or the like as a display and a second display of portable, game According to the system 1, it is possible to implement a wide range of games. つまり、端末装置6は、表示装置として機能するものであるため、モニタ2やコントローラ7を使用せずに端末装置6を表示手段として使用し、ボード型コントローラ9を操作手段として使用するようなゲームシステムのような形態もあり得る。 That is, the terminal device 6, since it functions as a display device, the monitor 2 and the controller 7 is used as the display means the terminal device 6 without using the game such as a board-type controller 9 as operating means there may be forms such as system. また、端末装置6は、表示装置として機能するとともに、操作装置としても機能するものであるため、モニタ2およびコントローラ7を使用せずに端末装置6を表示手段として使用し、端末装置6およびボード型コントローラ9を操作手段として使用するようなゲームシステムのような形態もあり得る。 The terminal device 6 functions as a display device, since it also functions as an operation device, is used as the display means the terminal device 6 without using the monitor 2 and the controller 7, the terminal device 6 and the board form also can be as a game system to use a type controller 9 as operating means. さらに、端末装置6は、表示装置として機能するとともに、操作装置としても機能するものであるため、モニタ2、コントローラ7、およびボード型コントローラ9を使用せずに端末装置6を表示手段として使用し、端末装置6を操作手段として使用するようなゲームシステムのような形態もあり得る。 Further, the terminal device 6 functions as a display device, since it also functions as an operation unit, a monitor 2, is used as the display means the terminal device 6 without using the controller 7 and the board type controller 9, , there may be forms such as a game system that uses a terminal device 6 as an operation means.

また、上記実施形態においては、端末装置6は、ゲーム処理を実行しない、いわゆるシンクライアント端末として機能するものであった。 In the above embodiment, the terminal device 6 does not execute a game process, it was to function as a so-called thin client terminal. しかしながら、端末装置6は、上記実施形態においてゲーム装置本体5によって実行される一連のゲーム処理のうち、少なくとも一部の処理が端末装置6によって実行されてもよい。 However, the terminal device 6, the series of game processing executed by the game apparatus body 5 in the above embodiment, at least a part of the processing may be performed by the terminal device 6. 一例として、一部の処理(例えば、端末用ゲーム画像の生成処理)を端末装置6が実行するようにしてもよい。 As an example, part of the processing (e.g., generation processing of the terminal game image) may also as the terminal device 6 is performed. 他の例として、ゲーム装置本体5によって実行される一連のゲーム処理全てを端末装置6が実行するようにしてもよい。 As another example, all series of game processing executed by the game apparatus body 5 may be the terminal device 6 is performed. この場合、端末装置6は、表示装置として機能するとともに、ゲーム処理を実行する処理装置としても機能するものであるため、モニタ2、ゲーム装置本体5、およびコントローラ7を使用せずに端末装置6を表示手段として使用し、ボード型コントローラ9を操作手段として使用し、端末装置6を処理手段として使用するようなゲームシステムのような形態もあり得る。 In this case, the terminal device 6 functions as a display device, since it also functions as a processing unit for executing game processing, the terminal without using the monitor 2, the game apparatus body 5, and the controller 7 6 use as a display means, and a board-type controller 9 as operating means, there may be forms such as gaming systems, such as for use as a processing means terminal device 6. 当該ゲームシステムでは、端末装置6およびボード型コントローラ9のみが無線または有線によって接続され、ボード型コントローラ9からボード操作データを端末装置6へ出力することによって、種々のゲームを行うことができる。 In the game system, only the terminal device 6 and the board type controller 9 is connected by wireless or wired, by outputting the board operation data to the terminal device 6 from the board type controller 9 can perform various game. また、ボード型コントローラ9も使用しない場合、端末装置6を表示手段、操作手段、および処理手段として使用するような形態もあり得ることは言うまでもない。 Further, when the board-type controller 9 do not use, the display means the terminal device 6, the operating means, and also possible of course form as employed as the processing unit.

また、上記実施形態においては、端末装置6の動き(位置や姿勢、あるいは、位置や姿勢の変化を含む)を算出するために用いられる姿勢データ(例えば、磁気センサ602、加速度センサ603、およびジャイロセンサ604から出力される少なくとも1つのデータ)を端末装置6からゲーム装置本体5へ出力され、ゲーム装置本体5における情報処理によって端末装置6の動きが算出されている。 In the embodiment described above, movement of the terminal device 6 (position and attitude or, involving a change in the position and posture) position data used to calculate the (e.g., a magnetic sensor 602, an acceleration sensor 603, and the gyro at least one data) output from the sensor 604 is outputted from the terminal device 6 to the game apparatus body 5, by information processing in the game apparatus body 5 movement of the terminal device 6 is calculated. しかしながら、ゲーム装置本体5において算出されている端末装置6の動きを、端末装置6において算出してもかまわない。 However, the movement of the terminal device 6 that are calculated by the game apparatus body 5, may be calculated in the terminal device 6. この場合、端末装置6で算出された端末装置6の動きを示すデータ(すなわち、上記姿勢データを用いて算出された、端末装置6の位置や姿勢、あるいは、位置や姿勢の変化を示すデータ)が、端末装置6からゲーム装置本体5へ出力され、ゲーム装置本体5における情報処理において当該データが利用されることになる。 In this case, data indicating the motion of the terminal device 6 that is calculated by the terminal device 6 (i.e., calculated by using the orientation data, the position and attitude of the terminal device 6 or the data indicating the change in position and orientation) but is output from the terminal device 6 to the game apparatus body 5, the data is to be utilized in the information processing in the game apparatus body 5.

なお、上述した説明では、端末装置6とゲーム装置本体5との間およびボード型コントローラ9とゲーム装置本体5との間がそれぞれ無線通信によって接続された態様を用いたが、他の態様によって装置間の無線通信が行われてもかまわない。 Incidentally, in the above description, was used aspects between are connected by radio communication respectively, and between the board type controller 9 and the game apparatus body 5 of the terminal device 6 and the game apparatus body 5, the device by another embodiment wireless communication between is not may be performed. 第1の例として、端末装置6が他の無線通信の中継装置として機能する。 As a first example, the terminal device 6 functions as a relay apparatus of another radio communication. この場合、ボード型コントローラ9のボード操作データが端末装置6へ無線送信され、受信したボード操作データと共に端末装置6の端末操作データを、端末装置6がゲーム装置本体5へ無線送信する。 In this case, the board operation data-board controller 9 is wirelessly transmitted to the terminal device 6, the terminal operation data of the terminal device 6 with the received board operation data, the terminal device 6 wirelessly transmits to the game apparatus body 5. この場合、端末装置6とゲーム装置本体5とが無線通信によって直接的に接続されるが、ボード型コントローラ9は、端末装置6を介してゲーム装置本体5と無線通信によって接続されることになる。 In this case, although the terminal device 6 and the game apparatus body 5 is directly connected to each other by wireless communication, board type controller 9 will be connected by the game apparatus body 5 and the wireless communication via the terminal device 6 . 第2の例として、ボード型コントローラ9が他の無線通信の中継装置として機能する。 As a second example, the board-type controller 9 serves as a relay apparatus of another radio communication. この場合、端末装置6の端末操作データがボード型コントローラ9へ無線送信され、受信した端末操作データと共にボード型コントローラ9のボード操作データを、ボード型コントローラ9がゲーム装置本体5へ無線送信する。 In this case, the terminal operation data of the terminal device 6 is wirelessly transmitted to the board type controller 9, the board operation data-board controller 9 with the received terminal operation data, board type controller 9 is wirelessly transmitted to the game apparatus body 5. この場合、ボード型コントローラ9とゲーム装置本体5とが無線通信によって直接的に接続されるが、端末装置6は、ボード型コントローラ9を介してゲーム装置本体5と無線通信によって接続されることになる。 In this case, although the board type controller 9 and the game apparatus body 5 is directly connected by a wireless communication, the terminal device 6 via a board-type controller 9 to be connected by the game apparatus body 5 and the radio communication Become. なお、他の装置が中継してゲーム装置本体5に操作データを送信する場合、ケーブルを介して当該操作データを生成する装置と当該操作データを中継する他の装置との間を電気的に接続してもかまわない。 Incidentally, if the other device transmits the operation data to the game apparatus body 5 to the relay, electrical connection between the other device for relaying apparatus and the operation data for generating the operation data via the cable it is also possible to.

また、端末装置6および/またはボード型コントローラ9と、ゲーム装置本体5とがケーブルを介して電気的に接続されてもかまわない。 Further, the terminal device 6 and / or board type controller 9, and the game apparatus body 5 may be electrically connected via a cable. この場合、端末装置6および/またはボード型コントローラ9に接続されたケーブルをゲーム装置本体5の接続端子に接続する。 In this case, the cable connected to the terminal device 6 and / or board type controller 9 to the connection terminal of the game apparatus body 5. 第1の例として、端末装置6とゲーム装置本体5とが第1のケーブルを介して電気的に接続され、ボード型コントローラ9とゲーム装置本体5とが第2のケーブルを介して電気的に接続される。 First as one example, a terminal device 6 and the game apparatus body 5 are electrically connected via a first cable, and board type controller 9 and the game apparatus body 5 via a second cable electrically It is connected. 第2の例として、端末装置6とゲーム装置本体5との間がケーブルを介して電気的に接続される。 As a second example, between the terminal device 6 and the game apparatus body 5 are electrically connected via a cable. この場合、ボード型コントローラ9のボード操作データは、端末装置6へ無線送信された後に上記ケーブルを介してゲーム装置本体5に送信されてもいいし、ボード型コントローラ9から直接ゲーム装置本体5に無線送信されてもよい。 In this case, the board operation data-board controller 9 it can either be transmitted to the game apparatus body 5 via the cable after being wirelessly transmitted to the terminal device 6, to direct the game apparatus body 5 from the board type controller 9 it may be transmitted by radio. 第3の例として、第3の例として、ボード型コントローラ9とゲーム装置本体5との間がケーブルを介して電気的に接続される。 As a third example, as a third example, between the board-shaped controller 9 and the game apparatus body 5 are electrically connected via a cable. この場合、端末装置6の端末操作データは、ボード型コントローラ9へ無線送信された後に上記ケーブルを介してゲーム装置本体5に送信されてもいいし、端末装置6から直接ゲーム装置本体5に無線送信されてもよい。 In this case, the terminal operation data of the terminal device 6, to good to be transmitted to the game apparatus body 5 via the cable after being wirelessly transmitted to the board type controller 9, the direct game apparatus body 5 from the terminal device 6 wirelessly it may be transmitted.

また、上記実施形態においては、ゲームシステム1が端末装置6およびボード型コントローラ9をそれぞれ1つ有する構成であったが、ゲームシステム1は、複数組の端末装置6およびボード型コントローラ9を有する構成であってもよい。 The configuration in the above embodiment, the game system 1 was configured to have one of each of the terminal devices 6 and board type controller 9, the game system 1, having a plurality of sets of terminals 6 and board type controller 9 it may be. すなわち、ゲーム装置本体5は、複数組の端末装置6およびボード型コントローラ9とそれぞれ無線通信可能であり、ゲーム画像のデータとゲーム音声のデータと制御データとを各端末装置6へ送信し、端末操作データとカメラ画像データとマイク音データとボード操作データとを各端末装置6およびボード型コントローラ9から受信するものであってもよい。 That is, the game apparatus body 5, respectively with a plurality of sets of terminals 6 and board type controller 9 is capable wireless communication, and transmits the game image data and the game sound data and control data to each terminal device 6, the terminal the operation data and camera image data and the microphone sound data and board operation data may be one received from the terminal device 6 and the board type controller 9. なお、ゲーム装置本体5は、複数の端末装置6およびボード型コントローラ9のそれぞれと無線通信を行うが、このとき、ゲーム装置本体5は、各端末装置6およびボード型コントローラ9との無線通信を時分割で行ってもよいし、周波数帯域を分割して行ってもよい。 The game apparatus body 5 performs the respective wireless communication with a plurality of terminal devices 6 and board type controller 9, this time, the game apparatus body 5, the wireless communication with the terminal devices 6 and board type controller 9 may be performed in time division may be performed by dividing the frequency band.

上記のように複数組の端末装置6およびボード型コントローラ9を有する場合には、ゲームシステム1を用いてより多くの種類のゲームを行うことができる。 If you are having a plurality of sets of terminals 6 and board type controller 9 as described above, it is possible to perform more types of game using a game system 1. 例えば、ゲームシステム1が2組の端末装置6およびボード型コントローラ9を有する場合には、2人のユーザが同時にゲームを行うことができる。 For example, in the case where the game system 1 has two sets of terminals 6 and board type controller 9, two users can play the game simultaneously. また、ゲームシステム1が2組の端末装置6およびボード型コントローラ9を有する場合には、ゲームシステム1は3つの表示装置を有することになるので、3人のユーザのそれぞれのためのゲーム画像を生成し、各表示装置に表示させることができる。 Further, if the game system 1 has two sets of terminals 6 and board type controller 9, since the game system 1 will have three display device, a game image for each of three users produced can be displayed on the display device.

また、上述した説明では、ボード型コントローラ9に複数の荷重センサ94を設けているが、上記処理においてボード型コントローラ9に加わっている荷重の重心位置の情報が不要であれば、荷重センサ94を少なくとも1つボード型コントローラ9に設けてもかまわない。 Further, in the above description, it is provided with the plurality of load sensors 94 in-board controller 9, if information of the barycentric position of the load being applied to the board type controller 9 in the above-described processing is not required, the load sensor 94 it may be provided on at least one board type controller 9.

また、上記実施例では、据置型のゲーム装置3を用いて説明したが、携帯型のゲーム装置や一般的なパーソナルコンピュータ等の情報処理装置で本発明の情報処理プログラムを実行して、本発明を実現してもかまわない。 In the above embodiment has been described using a stationary game apparatus 3 executes the information processing program of the present invention in a portable information processing apparatus such as a game apparatus or a general personal computer, the present invention it may be realized. また、他の実施形態では、ゲーム装置に限らず任意の携帯型電子機器、例えば、PDA(Personal Digital Assistant)や携帯電話、パーソナルコンピュータ、カメラ等であってもよい。 Further, in another embodiment, any of the portable electronic device is not limited to a game apparatus, for example, PDA (Personal Digital Assistant) or a cellular phone, a personal computer, a camera or the like. 何れの装置であっても、当該装置と端末装置6およびボード型コントローラ9とを無線または有線で接続することによって、本発明を実現することができる。 In either device, by connecting the said device and the terminal device 6 and the board type controller 9 wirelessly or wired, it is possible to implement the present invention.

また、上述した説明では情報処理をゲーム装置本体5で行う例を用いたが、上記情報処理における処理ステップの少なくとも一部をゲームシステム1の外部に設けられた他の装置で行ってもかまわない。 Although in the above description using the example of performing information processing in the game apparatus body 5, it may be performed at least some of the processing steps in the information processing with other apparatus provided outside of the game system 1 . 例えば、ゲーム装置本体5が他の装置(例えば、サーバや他のゲーム装置)と通信可能に構成されている場合、上記情報処理における処理ステップは、ゲーム装置本体5および当該他の装置が協働することによって実行してもよい。 For example, the game apparatus body 5 is another device (e.g., a server or another game apparatus) if configured to communicate with the processing steps of the above-mentioned information processing, the game apparatus body 5 and the other devices cooperate it may be performed by. 一例として、他の装置において、プレイヤオブジェクトおよび仮想世界等を設定する処理が行われ、ゲーム装置本体5からプレイヤオブジェクトの動作や姿勢に関するデータが他の装置へ送信されて、上記情報処理が行われることが考えられる。 As an example, in another system, the processing of setting the player object and the virtual world or the like is performed, the data from the game apparatus body 5 about the operation and the posture of the player object is transmitted to another apparatus, the information processing is performed it is conceivable. そして、他の装置で生成された仮想世界を示す画像データがゲーム装置本体5へ送信され、当該仮想世界がモニタ2やLCD61に表示される。 Then, image data representing a virtual world generated by another device is transmitted to the game apparatus body 5, the virtual world is displayed on the monitor 2 and LCD 61. このように、上記情報処理における処理ステップの少なくとも一部を他の装置で行うことによって、上述した情報処理と同様の処理が可能となる。 Thus, by performing at least some of the processing steps in the information processing in other devices, it is possible to process the same information as described above. なお、上記情報処理における処理ステップの少なくとも一部をボード型コントローラ9(マイコン100)で行ってもよい。 It may be carried out at least some of the processing steps in the information processing board-type controller 9 (microcomputer 100). また、上述した情報処理は、少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行されることが可能である。 Further, the information processing described above, is capable of being executed by the cooperation of a processor or a plurality of processors included in an information processing system constituted by at least one information processing apparatus. また、上記実施形態においては、ゲーム装置本体5のCPU10が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われたが、ゲーム装置本体5が備える専用回路によって上記処理の一部または全部が行われてもよい。 Further, in the above embodiment, by CPU10 of the game apparatus body 5 executes a predetermined program, the processing of the flowchart described above has been performed, the game apparatus body 5 or a part of the processing by comprises a dedicated circuit all may be performed.

また、上述したゲーム装置本体5の形状や、端末装置6、コントローラ7、およびボード型コントローラ9の形状および各種操作ボタンやセンサの形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。 Further, the shape of the game apparatus body 5 described above, the shape and various operation buttons and the shape of the sensor of the terminal device 6, the controller 7 and the board type controller 9, the number and installation position, etc., of the other merely illustrative shape, number, and even installation position, it may be used to realize the present invention. また、上述した情報処理で用いられる処理順序、設定値、表示態様、判定に用いられる値等は、単なる一例に過ぎず他の順序、表示態様、値であっても、本発明を実現できることは言うまでもない。 Further, the processing order used in the information processing described above, setting value display mode, the value or the like used in the determination, other orders merely illustrative, display mode, be a value, to be able to realize the present invention needless to say.

また、上記情報処理プログラム(ゲームプログラム)は、光ディスク4等の外部記憶媒体を通じてゲーム装置本体5に供給されるだけでなく、有線または無線の通信回線を通じてゲーム装置本体5に供給されてもよい。 Further, the information processing program (game program) is not only supplied to the game apparatus body 5 via an external storage medium of the optical disc 4 or the like, may be supplied to the game apparatus body 5 via a wired or wireless communication line. また、情報処理プログラムは、ゲーム装置本体5内部の不揮発性記憶装置に予め記録されていてもよい。 The information processing program may be previously stored in the game apparatus body 5 inside the non-volatile memory device. なお、情報処理プログラムを記憶する情報記憶媒体としては、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープなどでもよい。 The information storage medium for storing an information processing program, CD-ROM, DVD, or optical disc-shaped storage medium similar to them, a flexible disk, a hard disk, a magneto-optical disk, or a magnetic tape. また、上記情報処理プログラムを記憶する情報記憶媒体としては、不揮発性半導体メモリや揮発性メモリでもよい。 Further, the information storage medium for storing the information processing program may be a nonvolatile semiconductor memory and a volatile memory. このような記憶媒体は、コンピュータ等が読み取り可能な記録媒体ということができる。 Such storage media may be referred to as a recording medium capable computer or the like read. 例えば、コンピュータ等に、これらの記録媒体のプログラムを読み込ませて実行させることにより、上述で説明した各種機能を提供させることができる。 For example, the computer or the like, by reads and executes the program of the recording medium, it is possible to provide various functions described above.

以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。 Having thus described the invention in detail, merely illustrative of the present invention the foregoing description in all respects, not intended to limit the scope thereof. 本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。 It is of course possible to make various modifications and variations can be devised without departing from the scope of the present invention. 本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。 The present invention is understood that should the scope only by the scope of the claims. また、当業者は、本発明の具体的な実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。 Moreover, those skilled in the art from the description of specific embodiments of the present invention, it is understood that it is possible to implement equivalent scope based on the description and common technical knowledge of the present invention. また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。 Also, terms used herein, unless otherwise specified, it should be used in the sense commonly used in the art are understood. したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。 Therefore, unless otherwise defined, all terminology and technical terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. 矛盾する場合、本明細書(定義を含めて)が優先する。 In case of conflict, the present specification (including definitions) takes precedence.

本発明に係る情報処理プログラム、情報処理システム、および情報処理方法は、ユーザ自身の動作に基づいた操作を行って当該ユーザ動作に基づいた処理を行う場合に、ユーザが当該処理結果を好適な状況で見ることができ、ユーザの動作に基づいた処理等を行う情報処理プログラム、情報処理システム、および情報処理方法として有用である。 The information processing program according to the present invention, an information processing system, an information processing method, when performing an operation based on the operation of the user himself performs the processing based on the user operation, the user is preferably the processing result status as you can see, the information processing program for performing processing and the like based on the user operation, is useful as an information processing system, and an information processing method.

1…ゲームシステム2…モニタ3…ゲーム装置4…光ディスク5…ゲーム装置本体10、617…CPU 1 ... game system 2 ... Monitor 3 ... game apparatus 4 ... optical disc 5 ... game apparatus body 10,617 ... CPU
11…システムLSI 11 ... system LSI
12…外部メインメモリ13…ROM/RTC 12 ... the external main memory 13 ... ROM / RTC
14…ディスクドライブ15…AV−IC 14 ... disk drive 15 ... AV-IC
16…AVコネクタ17…フラッシュメモリ18…ネットワーク通信モジュール19…コントローラ通信モジュール20…拡張コネクタ21…メモリカード用コネクタ22、23、29、611、754…アンテナ24…電源ボタン25…リセットボタン26…イジェクトボタン27…コーデックLSI 16 ... AV connector 17 ... flash memory 18 ... network communication module 19 ... controller communication module 20 ... expansion connector 21 ... memory card connector 22,23,29,611,754 ... antenna 24 ... power button 25 ... reset button 26 ... eject button 27 ... codec LSI
28…端末通信モジュール31…入出力プロセッサ32…GPU 28 ... terminal communication module 31 ... output processor 32 ... GPU
33…DSP 33 ... DSP
34…VRAM 34 ... VRAM
35…内部メインメモリ6…端末装置60…ハウジング61…LCD 35 ... internal main memory 6 ... terminal device 60 ... housing 61 ... LCD
62…タッチパネル63…アナログスティック64…操作ボタン65…マーカ部66…カメラ67…拡張コネクタ68…足部601…タッチパネルコントローラ602…磁気センサ603…加速度センサ604…ジャイロセンサ605…UIコントローラ606…コーデックLSI 62 ... touch panel 63 ... analog stick 64 ... operation buttons 65 ... marker portion 66 ... camera 67 ... expansion connector 68 ... foot 601 ... touch panel controller 602 ... magnetic sensor 603 ... acceleration sensor 604 ... gyro sensor 605 ... UI Controller 606 ... Codec LSI
607…スピーカ608…サウンドIC 607 ... speaker 608 ... sound IC
609…マイク612…赤外線通信モジュール613…フラッシュメモリ614…電源IC 609 ... microphone 612 ... Infrared communication module 613 ... flash memory 614 ... Power IC
616…充電器618…内部メモリ619…バイブレータ7…コントローラ8…マーカ9…ボード型コントローラ90…支持板92…脚94…荷重センサ95…起歪体96…歪センサ102…ADコンバータ104…DC−DCコンバータ106、610、753…無線モジュール108…増幅器100、751…マイコン110、615…電池 616 ... Charger 618 ... internal memory 619 ... Vibrator 7 ... controller 8 ... marker 9 ... Board type controller 90 ... support plate 92 ... leg 94 ... load sensor 95 ... strain body 96 ... strain sensors 102 ... AD converter 104 ... DC- DC converter 106,610,753 ... radio module 108 ... amplifier 100,751 ... microcomputer 110,615 ... battery

Claims (25)

  1. 可搬型表示装置本体の姿勢に応じた姿勢データを少なくとも出力する当該可搬型表示装置に、画像を表示することが可能な情報処理装置のコンピュータで実行される情報処理プログラムであって、 To the portable display device for at least outputting orientation data corresponding to the attitude of the portable display device main body, an information processing program executed by a computer of an information processing apparatus capable of displaying an image,
    前記コンピュータを、 The computer,
    荷重検出装置に加えられた荷重に基づくデータを取得する荷重取得手段と、 A load obtaining means for obtaining the data based on the load applied to the load detecting device,
    前記荷重取得手段が取得したデータに基づいて、仮想世界に配置されたオブジェクトを移動させるオブジェクト移動手段と、 Based on the data the load acquisition means has acquired, the object moving means for moving the object placed in a virtual world,
    前記姿勢データおよび前記オブジェクトの仮想世界における位置に基づいて、当該仮想世界の画像を生成するための第1仮想カメラを制御する第1仮想カメラ制御手段と、 The orientation data and based on the position in the virtual world of the object, a first virtual camera control means for controlling the first virtual camera for generating an image of the virtual world,
    前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御手段として機能させる、情報処理プログラム。 The first the first image showing the virtual world as seen from a virtual camera to function as a display control means for displaying on the portable display device, an information processing program.
  2. 前記姿勢データに基づいて、当該可搬型表示装置の姿勢を算出する姿勢算出手段として、さらに前記コンピュータを機能させ、 Based on the posture data, as the posture calculation means for calculating the attitude of the portable display device, and further features of the computer,
    前記第1仮想カメラ制御手段は、前記姿勢算出手段が算出した可搬型表示装置の姿勢および前記オブジェクト位置に基づいて、前記第1仮想カメラを制御する、請求項1に記載の情報処理プログラム。 The first virtual camera control means, based on the attitude and the position of the object portable display device in which the orientation calculation unit to calculate, for controlling the first virtual camera, the information processing program according to claim 1.
  3. 前記第1仮想カメラ制御手段は、前記可搬型表示装置の姿勢に基づいて、前記仮想世界における前記第1仮想カメラの位置および姿勢の少なくとも一方の制御を行う、請求項2に記載の情報処理プログラム。 The first virtual camera control means, based on the attitude of the portable display device, wherein performing at least one of control of the position and attitude of the first virtual camera in the virtual world, information processing program according to claim 2 .
  4. 前記第1仮想カメラ制御手段は、前記可搬型表示装置の姿勢に基づいた前記仮想世界における前記第1仮想カメラの視線方向の制御によって、前記第1仮想カメラの位置および姿勢の少なくとも一方の制御を行う、請求項2または3に記載の情報処理プログラム。 The first virtual camera control means, the control of the eye direction of the first virtual camera in the virtual world based on the attitude of the portable display device, at least one control of the position and orientation of the first virtual camera performing storage medium according to claim 2 or 3.
  5. 前記姿勢算出手段は、実空間の所定方向を基準とした前記可搬型表示装置の姿勢を算出し、 The orientation calculation unit calculates the attitude of the portable display device with respect to a predetermined direction in the real space,
    前記第1仮想カメラ制御手段は、実空間の前記所定方向を基準とした前記可搬型表示装置の姿勢に基づいて、前記仮想世界に設定された前記所定方向に対応する方向を基準として前記第1仮想カメラの位置および姿勢の少なくとも一方の制御を行う、請求項3または4に記載の情報処理プログラム。 The first virtual camera control means, based on the attitude of the portable display device relative to the predetermined direction in the real space, the first direction corresponding to the set in a virtual world predetermined direction as a reference performing at least one of control of the position and attitude of the virtual camera, the information processing program according to claim 3 or 4.
  6. 前記姿勢算出手段は、実空間の重力方向を前記所定方向として、当該重力方向を基準とした前記可搬型表示装置の姿勢を算出し、 The orientation calculation unit, a gravitational direction in the real space as the predetermined direction, and calculates the attitude of the portable display device relative to the said direction of gravity,
    前記第1仮想カメラ制御手段は、実空間の重力方向を基準とした前記可搬型表示装置の姿勢に基づいて、前記仮想世界に設定された重力方向を基準として前記第1仮想カメラの位置および姿勢の少なくとも一方の制御を行う、請求項5に記載の情報処理プログラム。 The first virtual camera control means, the gravity direction in the real space based on the attitude of the portable display device on the basis the position and attitude of the first virtual camera set gravity direction in the virtual world as a reference at least one controls the information processing program according to claim 5.
  7. 前記姿勢算出手段は、実空間の重力方向周りに前記可搬型表示装置が回転する姿勢を少なくとも算出し、 The orientation calculation unit, the portable display device can be at least calculate the attitude rotating in the direction of gravity about the real space,
    前記第1仮想カメラ制御手段は、実空間の重力方向周りに前記可搬型表示装置が回転する姿勢に基づいて、前記仮想世界に設定された重力方向周りに前記第1仮想カメラを回転させて姿勢を制御する、請求項6に記載の情報処理プログラム。 The first virtual camera control means, based on the attitude of the portable display device in the direction of gravity about the real space is rotated, the rotate the first virtual camera to set the direction of gravity around the virtual world orientation controlling the information processing program according to claim 6.
  8. 前記第1仮想カメラ制御手段は、前記可搬型表示装置の姿勢と同じ姿勢となるように、前記第1仮想カメラの姿勢を制御する、請求項2乃至7のいずれか1つに記載の情報処理プログラム。 The first virtual camera control means so as to have the same orientation as the orientation of the portable display device, and controls the attitude of the first virtual camera, information processing according to any one of claims 2 to 7 program.
  9. 前記第1仮想カメラ制御手段は、前記オブジェクトが前記第1画像に含まれるように前記第1仮想カメラを制御する、請求項2乃至8のいずれか1つに記載の情報処理プログラム。 The first virtual camera control means, wherein the object is to control the first virtual camera so as to be included in the first image, the information processing program according to any one of claims 2 to 8.
  10. 前記オブジェクト移動手段は、前記第1仮想カメラの視線方向に基づく方向へ、前記オブジェクトを移動させる、請求項2乃至9のいずれか1つに記載の情報処理プログラム。 The object moving means, wherein the first direction based on the line-of-sight direction of the virtual camera moves the object, the information processing program according to any one of claims 2 to 9.
  11. 前記可搬型表示装置は、ジャイロセンサおよび加速度センサの少なくとも一方を含み、 The portable display device includes at least one of a gyro sensor and an acceleration sensor,
    前記姿勢算出手段は、前記ジャイロセンサおよび前記加速度センサの少なくとも一方から出力されるデータに基づいて、前記可搬型表示装置の姿勢を算出する、請求項2乃至10のいずれか1つに記載の情報処理プログラム。 The attitude calculation means, on the basis of the data output from at least one of a gyro sensor and the acceleration sensor, calculates the orientation of the portable display device, information of any one of claims 2 to 10 processing program.
  12. 前記表示制御手段は、前記第1画像とは別に、第2仮想カメラから見た前記仮想世界を示す第2画像を、前記情報処理装置に接続された別の表示装置にさらに表示する、請求項2乃至11のいずれか1つに記載の情報処理プログラム。 Wherein the display control unit, and the first image separately, further displays a second image showing the virtual world as seen from the second virtual camera, to another display device connected to the information processing apparatus, according to claim the information processing program according to any one of 2 to 11.
  13. 前記表示制御手段は、前記第1画像を示す画像データを前記可搬型表示装置へ出力し、 The display control means outputs the image data representing the first image to the portable display device,
    前記可搬型表示装置は、 The portable display device,
    前記情報処理装置から出力された画像データを取得する画像データ取得手段と、 An image data acquisition means for acquiring image data outputted from the information processing apparatus,
    前記画像データ取得手段が取得した画像データが示す前記第1画像を表示する表示手段とを備える、請求項2乃至12のいずれか1つに記載の情報処理プログラム。 The image data acquisition means and a display means for displaying the first image represented by the image data acquired, the information processing program according to any one of claims 2 to 12.
  14. 前記第1画像を示す画像データを圧縮して圧縮画像データを生成する圧縮画像生成手段として、さらに前記コンピュータを機能させ、 As the compressed image generation means for generating compressed image data by compressing the image data representing the first image, and further features of the computer,
    前記表示制御手段は、前記圧縮画像生成手段が生成した圧縮画像データを前記可搬型表示装置へ出力し、 It said display control means outputs the compressed image data to which the compressed image generation means is generated to the portable display device,
    前記画像データ取得手段は、前記情報処理装置から出力された圧縮画像データを取得し、 The image data acquisition means acquires the compressed image data outputted from the information processing apparatus,
    前記可搬型表示装置は、前記圧縮画像データを伸張して前記第1の表示画像を示す画像データを得る表示画像伸張手段を、さらに備え、 The portable display device, a display image decompression means for obtaining the image data by decompressing the compressed image data indicative of the first display image, further comprising,
    前記表示手段は、前記画像データ取得手段が取得して前記表示画像伸長手段が伸長した画像データが示す前記第1画像を表示する、請求項13に記載の情報処理プログラム。 The display means, the image data acquisition means the display image expanding means to obtain displays a first image represented by the image data extension storage medium according to claim 13.
  15. 前記オブジェクトの仮想世界における位置に基づいて、当該仮想世界の画像を生成するための前記第2仮想カメラを、前記第1仮想カメラとは異なる位置で、かつ、前記オブジェクトが前記第2画像に含まれるように設定する第2仮想カメラ制御手段として、さらに前記コンピュータを機能させる、請求項12に記載の情報処理プログラム。 Based on the position in the virtual world of the object, the second virtual camera for generating an image of the virtual world, at a position different from the first virtual camera and the object is included in the second image the second virtual camera control means for setting, as, to further function the computer storage medium according to claim 12.
  16. 前記第2仮想カメラ制御手段は、前記オブジェクトから前記第1仮想カメラまでの距離より当該オブジェクトから離れた位置に前記第2仮想カメラを設定し、 The second virtual camera control means sets the second virtual camera at a position away from the object than the distance to the first virtual camera from the object,
    前記表示制御手段は、前記第1画像で示される仮想世界の範囲より広い範囲を、前記第2画像として前記別の表示装置に表示する、請求項15に記載の情報処理プログラム。 Wherein the display control unit, wherein a range wider than the range of the virtual world indicated by the first image is displayed on the another display device as said second image information processing program according to claim 15.
  17. 前記第2仮想カメラ制御手段は、仮想世界において前記オブジェクトを鳥瞰する位置に前記第2仮想カメラを設定し、 The second virtual camera control means sets the second virtual camera in a position to bird's-eye the object in the virtual world,
    前記表示制御手段は、仮想世界に配置された前記オブジェクトを鳥瞰した画像を、前記第2画像として前記別の表示装置に表示する、請求項15に記載の情報処理プログラム。 Wherein the display control unit, an image bird's the object placed in the virtual world is displayed on the another display device as said second image information processing program according to claim 15.
  18. 前記第2仮想カメラ制御手段は、仮想世界における前記第1仮想カメラの視線方向の変化に応じて、前記第2仮想カメラの当該仮想世界における視線方向を変化させる、請求項12および15乃至17の何れか1つに記載の情報処理プログラム。 The second virtual camera control means, in response to changes in the viewing direction of the first virtual camera in the virtual world, changes the viewing direction in the virtual world of the second virtual camera, according to claim 12 and 15 to 17 the information processing program according to any one.
  19. 可搬型表示装置本体の姿勢に応じた姿勢データを少なくとも出力する当該可搬型表示装置に画像を表示することが可能な情報処理装置のコンピュータで実行される情報処理プログラムであって、 An information processing program executed by a computer of an information processing apparatus capable of displaying an image on the portable display device for at least outputting orientation data corresponding to the attitude of the portable display device main body,
    前記コンピュータを、 The computer,
    荷重検出装置に加えられた荷重に基づくデータを取得する荷重取得手段と、 A load obtaining means for obtaining the data based on the load applied to the load detecting device,
    前記荷重取得手段が取得したデータおよび前記姿勢データに基づいて、当該仮想世界の画像を生成するための第1仮想カメラを制御する第1仮想カメラ制御手段と、 Based on said data and said attitude data load acquisition means has acquired, a first virtual camera control means for controlling the first virtual camera for generating an image of the virtual world,
    前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御手段として機能させる、情報処理プログラム。 The first the first image showing the virtual world as seen from a virtual camera to function as a display control means for displaying on the portable display device, an information processing program.
  20. 可搬型表示装置と、荷重検出装置と、当該可搬型表示装置に画像を表示することが可能な情報処理装置とを含む情報処理システムであって、 An information processing system including a portable display device, and the load detection device, and an information processing apparatus capable of displaying an image on the portable display device,
    前記荷重検出装置は、当該荷重検出装置に加わる荷重に基づいたデータを前記情報処理装置へ出力する荷重検出手段を備え、 The load detecting device includes a load detecting means for outputting data based on the load applied to the load detection device to the information processing apparatus,
    前記可搬型表示装置は、少なくとも当該可搬型表示装置の姿勢に応じた姿勢データを前記情報処理装置へ出力する姿勢データ出力手段を備え、 The portable display device includes a posture data output means for outputting the position data corresponding to the orientation of at least the portable display device to the information processing apparatus,
    前記情報処理装置は、 The information processing apparatus,
    前記荷重検出装置から出力されたデータを取得する取得手段と、 Acquisition means for acquiring data outputted from the load detection device,
    前記取得手段が取得したデータに基づいて、仮想世界に配置されたオブジェクトを移動させるオブジェクト移動手段と、 Based on the data obtained by the obtaining unit, the object moving means for moving the object placed in a virtual world,
    前記姿勢データおよび前記オブジェクトの仮想世界における位置に基づいて、当該仮想世界の画像を生成するための第1仮想カメラを制御する第1仮想カメラ制御手段と、 The orientation data and based on the position in the virtual world of the object, a first virtual camera control means for controlling the first virtual camera for generating an image of the virtual world,
    前記第1仮想カメラから見た仮想世界を示す第1画像のデータを前記可搬型表示装置へ出力する画像データ出力手段とを備え、 And an image data output means for outputting the data of the first image showing the virtual world as seen from the first virtual camera to the portable display device,
    前記可搬型表示装置は、 The portable display device,
    前記情報処理装置から出力された前記第1画像のデータを取得する画像データ取得手段と、 An image data acquisition means for acquiring data of the first image output from the information processing apparatus,
    前記画像データ取得手段が取得した画像データが示す前記第1画像を表示する表示手段とを、さらに備える、情報処理システム。 And display means for displaying the first image in which the image data by the image data acquisition means has acquired indicates, further comprising, an information processing system.
  21. 可搬型表示装置と、荷重検出装置と、当該可搬型表示装置に画像を表示することが可能な情報処理装置とを含む情報処理システムであって、 An information processing system including a portable display device, and the load detection device, and an information processing apparatus capable of displaying an image on the portable display device,
    前記荷重検出装置は、当該荷重検出装置に加わる荷重に基づいたデータを前記情報処理装置へ出力する荷重検出手段を備え、 The load detecting device includes a load detecting means for outputting data based on the load applied to the load detection device to the information processing apparatus,
    前記可搬型表示装置は、少なくとも当該可搬型表示装置の姿勢に応じた姿勢データを前記情報処理装置へ出力する姿勢データ出力手段を備え、 The portable display device includes a posture data output means for outputting the position data corresponding to the orientation of at least the portable display device to the information processing apparatus,
    前記情報処理装置は、 The information processing apparatus,
    前記荷重検出装置から出力されたデータを取得する取得手段と、 Acquisition means for acquiring data outputted from the load detection device,
    前記取得手段が取得したデータおよび前記姿勢データに基づいて、当該仮想世界の画像を生成するための第1仮想カメラを制御する第1仮想カメラ制御手段と、 The obtaining unit based on the acquired data and the position data, a first virtual camera control means for controlling the first virtual camera for generating an image of the virtual world,
    前記第1仮想カメラから見た仮想世界を示す第1画像のデータを前記可搬型表示装置へ出力する画像データ出力手段とを備え、 And an image data output means for outputting the data of the first image showing the virtual world as seen from the first virtual camera to the portable display device,
    前記可搬型表示装置は、 The portable display device,
    前記情報処理装置から出力された前記第1画像のデータを取得する画像データ取得手段と、 An image data acquisition means for acquiring data of the first image output from the information processing apparatus,
    前記画像データ取得手段が取得した画像データが示す前記第1画像を表示する表示手段とを、さらに備える、情報処理システム。 And display means for displaying the first image in which the image data by the image data acquisition means has acquired indicates, further comprising, an information processing system.
  22. 可搬型表示装置本体の姿勢に応じた姿勢データを少なくとも出力する当該可搬型表示装置に、画像を表示することが可能な少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行される情報処理方法であって、 To the portable display device for at least outputting orientation data corresponding to the attitude of the portable display device body, one of the processors included in the constructed information processing system by at least one information processing apparatus capable of displaying an image or an information processing method executed by the cooperation between a plurality of processors,
    荷重検出装置に加えられた荷重に基づくデータを取得する荷重取得ステップと、 A load acquiring step of acquiring data based on the load applied to the load detecting device,
    前記荷重取得ステップにおいて取得されたデータに基づいて、仮想世界に配置されたオブジェクトを移動させるオブジェクト移動ステップと、 Based on the data acquired in the load acquiring step, and an object moving step of moving the object placed in a virtual world,
    前記姿勢データおよび前記オブジェクトの仮想世界における位置に基づいて、当該仮想世界の画像を生成するための第1仮想カメラを制御する第1仮想カメラ制御ステップと、 The orientation data and based on the position in the virtual world of the object, a first virtual camera control step of controlling the first virtual camera for generating an image of the virtual world,
    前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御ステップとを含む、情報処理方法。 And a display control step of displaying the first image showing the virtual world as seen from the first virtual camera in the portable display device, an information processing method.
  23. 可搬型表示装置本体の姿勢に応じた姿勢データを少なくとも出力する当該可搬型表示装置に、画像を表示することが可能な少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行される情報処理方法であって、 To the portable display device for at least outputting orientation data corresponding to the attitude of the portable display device body, one of the processors included in the constructed information processing system by at least one information processing apparatus capable of displaying an image or an information processing method executed by the cooperation between a plurality of processors,
    荷重検出装置に加えられた荷重に基づくデータを取得する荷重取得ステップと、 A load acquiring step of acquiring data based on the load applied to the load detecting device,
    前記荷重取得ステップにおいて取得されたデータおよび前記姿勢データに基づいて、当該仮想世界の画像を生成するための第1仮想カメラを制御する第1仮想カメラ制御ステップと、 Based on the obtained data and the orientation data in the load acquiring step, the first virtual camera control step of controlling the first virtual camera for generating an image of the virtual world,
    前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御ステップとを含む、情報処理方法。 And a display control step of displaying the first image showing the virtual world as seen from the first virtual camera in the portable display device, an information processing method.
  24. 可搬型表示装置と荷重検出装置とを含む情報処理システムであって、 An information processing system comprising a portable display device and the load detection device,
    前記荷重検出装置は、当該荷重検出装置に加わる荷重に基づいたデータを前記可搬型表示装置へ出力する荷重検出手段を備え、 The load detecting device includes a load detecting means for outputting data based on the load applied to the load detection device to the portable display device,
    前記可搬型表示装置は、 The portable display device,
    少なくとも前記可搬型表示装置の姿勢に応じた姿勢データを生成する姿勢データ生成手段と、 And attitude data generation means for generating position data corresponding to the position of at least the portable display device,
    前記荷重検出装置から出力されたデータを取得する取得手段と、 Acquisition means for acquiring data outputted from the load detection device,
    前記取得手段が取得したデータに基づいて、仮想世界に配置されたオブジェクトを移動させるオブジェクト移動手段と、 Based on the data obtained by the obtaining unit, the object moving means for moving the object placed in a virtual world,
    前記姿勢データおよび前記オブジェクトの仮想世界における位置に基づいて、当該仮想世界の画像を生成するための第1仮想カメラを制御する第1仮想カメラ制御手段と、 The orientation data and based on the position in the virtual world of the object, a first virtual camera control means for controlling the first virtual camera for generating an image of the virtual world,
    前記第1仮想カメラから見た仮想世界を示す第1画像を生成する画像生成手段と、 Image generating means for generating a first image showing the virtual world as seen from the first virtual camera,
    前記画像生成手段が生成した前記第1画像を表示する表示手段とを備える、情報処理システム。 And a display means for displaying the first image by the image generating means has generated, the information processing system.
  25. 可搬型表示装置と荷重検出装置とを含む情報処理システムであって、 An information processing system comprising a portable display device and the load detection device,
    前記荷重検出装置は、当該荷重検出装置に加わる荷重に基づいたデータを前記可搬型表示装置へ出力する荷重検出手段を備え、 The load detecting device includes a load detecting means for outputting data based on the load applied to the load detection device to the portable display device,
    前記可搬型表示装置は、 The portable display device,
    少なくとも前記可搬型表示装置の姿勢に応じた姿勢データを生成する姿勢データ生成手段と、 And attitude data generation means for generating position data corresponding to the position of at least the portable display device,
    前記荷重検出装置から出力されたデータを取得する取得手段と、 Acquisition means for acquiring data outputted from the load detection device,
    前記取得手段が取得したデータおよび前記姿勢データに基づいて、当該仮想世界の画像を生成するための第1仮想カメラを制御する第1仮想カメラ制御手段と、 The obtaining unit based on the acquired data and the position data, a first virtual camera control means for controlling the first virtual camera for generating an image of the virtual world,
    前記第1仮想カメラから見た仮想世界を示す第1画像を生成する画像生成手段と、 Image generating means for generating a first image showing the virtual world as seen from the first virtual camera,
    前記画像生成手段が生成した前記第1画像を表示する表示手段とを備える、情報処理システム。 And a display means for displaying the first image by the image generating means has generated, the information processing system.
JP2011083453A 2011-04-05 2011-04-05 Information processing program, an information processing system, an information processing method Active JP5759233B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011083453A JP5759233B2 (en) 2011-04-05 2011-04-05 Information processing program, an information processing system, an information processing method

Applications Claiming Priority (18)

Application Number Priority Date Filing Date Title
JP2011083453A JP5759233B2 (en) 2011-04-05 2011-04-05 Information processing program, an information processing system, an information processing method
EP11185811A EP2497543A3 (en) 2011-03-08 2011-10-19 Information processing program, information processing system, and information processing method
US13/277,561 US9643085B2 (en) 2011-03-08 2011-10-20 Computer-readable storage medium, information processing system, and information processing method for controlling a virtual object using attitude data
EP11194630.7A EP2497547B1 (en) 2011-03-08 2011-12-20 Information processing program, information processing apparatus, information processing system, and information processing method
US13/333,045 US9205327B2 (en) 2011-03-08 2011-12-21 Storage medium having information processing program stored thereon, information processing apparatus, information processing system, and information processing method
US13/343,913 US9345962B2 (en) 2011-03-08 2012-01-05 Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
EP12150272.8A EP2497548A3 (en) 2011-03-08 2012-01-05 Information processing program, information processing apparatus, information processing system, and information processing method
US13/352,091 US9370712B2 (en) 2011-03-08 2012-01-17 Information processing system, information processing apparatus, storage medium having information processing program stored therein, and image display method for controlling virtual objects based on at least body state data and/or touch position data
EP12153067.9A EP2497549A3 (en) 2011-03-08 2012-01-30 Information processing program, information processing apparatus, information processing system, and information processing method
US13/362,255 US20120231882A1 (en) 2011-03-08 2012-01-31 Storage medium having stored thereon game program, game apparatus, game system, and game processing method
US13/362,381 US8845430B2 (en) 2011-03-08 2012-01-31 Storage medium having stored thereon game program, game apparatus, game system, and game processing method
US13/362,289 US9522323B2 (en) 2011-03-08 2012-01-31 Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US13/401,054 US9492742B2 (en) 2011-03-08 2012-02-21 Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US13/400,944 US9526981B2 (en) 2011-03-08 2012-02-21 Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US13/402,026 US9492743B2 (en) 2011-03-08 2012-02-22 Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
EP12156630.1A EP2497551A3 (en) 2011-03-08 2012-02-23 Information processing program, information processing apparatus, information processing system, and information processing method
EP14166174.4A EP2781244A3 (en) 2011-03-08 2012-02-23 Information processing program, information processing apparatus, information processing system and information processing method
EP12156629A EP2497550A3 (en) 2011-03-08 2012-02-23 Information processing program, information processing apparatus, information processing system, and information processing method

Publications (2)

Publication Number Publication Date
JP2012221021A JP2012221021A (en) 2012-11-12
JP5759233B2 true JP5759233B2 (en) 2015-08-05

Family

ID=47272514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011083453A Active JP5759233B2 (en) 2011-04-05 2011-04-05 Information processing program, an information processing system, an information processing method

Country Status (1)

Country Link
JP (1) JP5759233B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6396027B2 (en) * 2014-02-12 2018-09-26 株式会社バンダイナムコエンターテインメント Program and a game apparatus

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59225439A (en) * 1983-06-06 1984-12-18 Matsushita Electric Ind Co Ltd Coordinate input device
JP2782428B2 (en) * 1995-10-19 1998-07-30 株式会社エイ・ティ・アール通信システム研究所 Virtual object manipulation apparatus
JP3910656B2 (en) * 1996-01-16 2007-04-25 株式会社バンダイナムコゲームス Motion determining apparatus and method
JP2000316143A (en) * 1999-04-30 2000-11-14 Matsushita Electric Ind Co Ltd Picture data transmitting device and picture receiving device
JP2000325653A (en) * 1999-05-19 2000-11-28 Enix Corp Portable videogame device and storage medium with program stored therein
JP3847058B2 (en) * 1999-10-04 2006-11-15 任天堂株式会社 Game system and game information storage medium used therefor
JP2002298160A (en) * 2001-03-29 2002-10-11 Namco Ltd Portable image generating device and program, and information storage medium
JP3902508B2 (en) * 2002-05-20 2007-04-11 任天堂株式会社 Game system and a game program
JP4048150B2 (en) * 2003-05-12 2008-02-13 任天堂株式会社 Game apparatus and a game program and game system
JP4136910B2 (en) * 2003-11-26 2008-08-20 株式会社バンダイナムコゲームス Information storage medium, the game device and the server device
JP2006039635A (en) * 2004-07-22 2006-02-09 Fuji Xerox Co Ltd Display device
JP5427343B2 (en) * 2007-04-20 2014-02-26 任天堂株式会社 Game controller
WO2009084213A1 (en) * 2007-12-28 2009-07-09 Capcom Co., Ltd. Computer, program, and storage medium
JP2009237680A (en) * 2008-03-26 2009-10-15 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2010231290A (en) * 2009-03-26 2010-10-14 National Institute Of Advanced Industrial Science & Technology Input device and method using head motion
JP5436909B2 (en) * 2009-03-30 2014-03-05 任天堂株式会社 Information processing program, an information processing apparatus, an information processing system, and information processing method
JP5421655B2 (en) * 2009-05-28 2014-02-19 任天堂株式会社 Game program and a game apparatus
JP2011053838A (en) * 2009-08-31 2011-03-17 Namco Bandai Games Inc Program, information storage medium, and image generation device

Also Published As

Publication number Publication date
JP2012221021A (en) 2012-11-12

Similar Documents

Publication Publication Date Title
JP5430246B2 (en) Game apparatus and a game program
US7815508B2 (en) Game device and storage medium storing game program
JP5361349B2 (en) The information processing apparatus, a computer program, an information processing system, an information processing method
US9199168B2 (en) Game system, game apparatus, storage medium having game program stored therein, and game process method
AU2011204816B8 (en) Display device, game system, and game process method
JP5730463B2 (en) Game program and a game apparatus
CN102462960B (en) Controller device and controller system
EP2422854B1 (en) Game system, game device, storage medium storing game program, and game process method
US8740705B2 (en) Game controller, storage medium storing game program, and game apparatus
US20100283723A1 (en) Storage medium storing information processing program, information processing apparatus and information processing method
US10150033B2 (en) Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
US9345962B2 (en) Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9211475B2 (en) Game device and storage medium storing game program for performing a game process based on data from sensor
US8747222B2 (en) Game system, game device, storage medium storing game program, and image generation method
US8956209B2 (en) Game system, game apparatus, storage medium having game program stored therein, and game process method
JP4988273B2 (en) Game program and a game apparatus
US20120119992A1 (en) Input system, information processing apparatus, information processing program, and specified position calculation method
US8306768B2 (en) Game apparatus and computer-readable recording medium recording game program for controlling attitude and position of an object in a virtual space
US9132347B2 (en) Game system, game apparatus, storage medium having game program stored therein, and game process method
JP5520457B2 (en) Game apparatus and a game program
JP5755943B2 (en) Information processing program, an information processing apparatus, an information processing system and information processing method
JP2008000184A (en) Game program and game device
AU2011213765B2 (en) Controller device and controller system
US8182343B2 (en) Game apparatus and storage medium storing game program
US20080125224A1 (en) Method and apparatus for controlling simulated in flight realistic and non realistic object effects by sensing rotation of a hand-held controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150605

R150 Certificate of patent or registration of utility model

Ref document number: 5759233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250