JP5806510B2 - Information processing program, information processing apparatus, information processing system, and information processing method - Google Patents

Information processing program, information processing apparatus, information processing system, and information processing method Download PDF

Info

Publication number
JP5806510B2
JP5806510B2 JP2011118902A JP2011118902A JP5806510B2 JP 5806510 B2 JP5806510 B2 JP 5806510B2 JP 2011118902 A JP2011118902 A JP 2011118902A JP 2011118902 A JP2011118902 A JP 2011118902A JP 5806510 B2 JP5806510 B2 JP 5806510B2
Authority
JP
Japan
Prior art keywords
virtual camera
data
image
information processing
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011118902A
Other languages
Japanese (ja)
Other versions
JP2012247976A (en
Inventor
悠吾 林
悠吾 林
恵一 湊
恵一 湊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2011118902A priority Critical patent/JP5806510B2/en
Priority to EP11194630.7A priority patent/EP2497547B1/en
Priority to US13/333,045 priority patent/US9205327B2/en
Priority to US13/343,913 priority patent/US9345962B2/en
Priority to EP12150272.8A priority patent/EP2497548A3/en
Priority to US13/352,091 priority patent/US9370712B2/en
Priority to EP12153067.9A priority patent/EP2497549B1/en
Priority to US13/362,289 priority patent/US9522323B2/en
Priority to US13/362,381 priority patent/US8845430B2/en
Priority to US13/362,255 priority patent/US20120231882A1/en
Priority to US13/400,944 priority patent/US9526981B2/en
Priority to US13/401,054 priority patent/US9492742B2/en
Priority to US13/402,026 priority patent/US9492743B2/en
Priority to EP14166174.4A priority patent/EP2781244A3/en
Priority to EP12156629A priority patent/EP2497550A3/en
Priority to EP12156630.1A priority patent/EP2497551B1/en
Publication of JP2012247976A publication Critical patent/JP2012247976A/en
Application granted granted Critical
Publication of JP5806510B2 publication Critical patent/JP5806510B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関し、特に例えば、仮想世界の表示を行う情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関する。   The present invention relates to an information processing program, an information processing apparatus, an information processing system, and an information processing method, and more particularly to an information processing program, an information processing apparatus, an information processing system, and an information processing method for displaying a virtual world.

従来、ユーザが移動携帯端末(携帯型ゲーム装置)を把持して操作し、実空間における当該移動携帯端末の姿勢や位置に応じてイベントが実行されるゲームがある(例えば、特許文献1参照)。上記特許文献1に記載された移動携帯端末は、実空間における当該移動携帯端末の位置や姿勢を検出するセンサを備えており、当該端末のユーザは、移動携帯端末自体を動かしたり移動携帯端末自体の姿勢を変えたりしながらゲームを進める。例えば、上記移動携帯端末は、実空間における移動携帯端末の姿勢に応じて、移動携帯端末の表示画面に表示された画像をスクロールさせる。そして、移動携帯端末の表示画面中央にスコープが表示され、当該スコープ内に仮想オブジェクト(例えば、虫オブジェクト)が入った状態で移動携帯端末の所定ボタンが押下されると、当該スコープ内に仮想オブジェクトが捕獲されたとみなされる。   Conventionally, there is a game in which a user grips and operates a mobile portable terminal (portable game device), and an event is executed according to the posture and position of the mobile portable terminal in real space (see, for example, Patent Document 1). . The mobile portable terminal described in Patent Document 1 includes a sensor that detects the position and orientation of the mobile mobile terminal in real space, and the user of the terminal moves the mobile mobile terminal itself or moves the mobile mobile terminal itself. Proceed with the game while changing the attitude. For example, the mobile mobile terminal scrolls the image displayed on the display screen of the mobile mobile terminal according to the attitude of the mobile mobile terminal in real space. Then, when a scope is displayed in the center of the display screen of the mobile portable terminal and a predetermined button of the mobile portable terminal is pressed in a state where a virtual object (for example, insect object) is entered in the scope, the virtual object is displayed in the scope. Is considered captured.

特開2011−19810号公報Japanese Unexamined Patent Publication No. 2011-1981

しかしながら、上記特許文献1で開示された移動携帯端末は、表示画面に表示される仮想世界の画像の視点を変えようとした場合、当該移動携帯端末自体の姿勢によって画像をスクロールしなければならない。したがって、仮想世界の視点を移動させるためには移動携帯端末自体を移動させる必要があるため、ユーザにとって操作しづらくなることがある。例えば、仮想世界の視点を大きく移動させるためには移動携帯端末自体も大きく移動させる必要があるため、ユーザが大きな動作が要求されることに加えて、移動携帯端末自体を動かせる実空間が限定される場合はユーザ所望の位置まで視点を動かせないことも考えられる。   However, when the mobile portable terminal disclosed in Patent Document 1 is to change the viewpoint of the image of the virtual world displayed on the display screen, the image must be scrolled according to the attitude of the mobile portable terminal itself. Therefore, in order to move the viewpoint of the virtual world, it is necessary to move the mobile portable terminal itself, which may be difficult for the user to operate. For example, in order to greatly move the viewpoint of the virtual world, the mobile mobile terminal itself needs to be moved greatly, and in addition to requiring a large operation by the user, the real space in which the mobile mobile terminal itself can be moved is limited. In such a case, the user may not be able to move the viewpoint to a desired position.

それ故に、本発明の目的は、装置本体の動きや姿勢によって当該装置に表示される画像の視点が変わる場合に、当該視点を変える操作をさらに容易にすることが可能となる情報処理プログラム、情報処理システム、および情報処理方法を提供することである。   Therefore, an object of the present invention is to provide an information processing program and information that can further facilitate the operation of changing the viewpoint when the viewpoint of the image displayed on the apparatus changes depending on the movement or posture of the apparatus main body. A processing system and an information processing method are provided.

上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。なお、特許請求の範囲の記載を解釈する際に、特許請求の範囲の記載によってのみその範囲が解釈されるべきであることが理解され、特許請求の範囲の記載と本欄の記載とが矛盾する場合には、特許請求の範囲の記載が優先する。   In order to achieve the above object, the present invention may employ the following configuration, for example. When interpreting the description of the claims, it is understood that the scope should be interpreted only by the description of the claims, and the description of the claims and the description in this column are contradictory. In that case, priority is given to the claims.

本発明の情報処理プログラムの一構成例は、可搬型表示装置本体の姿勢および/または動きに応じた本体状態データと当該可搬型表示装置に設けられたタッチパネルへのタッチ位置に応じたタッチ位置データとを少なくとも出力する当該可搬型表示装置に、画像を表示することが可能な情報処理装置のコンピュータで実行される。情報処理プログラムは、第1仮想カメラ制御手段、および表示制御手段として、コンピュータを機能させる。第1仮想カメラ制御手段は、本体状態データおよびタッチ位置データに基づいて、仮想世界の画像を生成するための第1仮想カメラの姿勢および/または位置を制御する。表示制御手段は、第1仮想カメラから見た仮想世界を示す第1画像を可搬型表示装置に表示する。   One configuration example of the information processing program of the present invention includes main body state data corresponding to the attitude and / or movement of the portable display device main body and touch position data corresponding to a touch position on a touch panel provided in the portable display device. Are executed by a computer of an information processing apparatus capable of displaying an image on the portable display device that outputs at least. The information processing program causes the computer to function as first virtual camera control means and display control means. The first virtual camera control means controls the attitude and / or position of the first virtual camera for generating an image of the virtual world based on the main body state data and the touch position data. The display control means displays a first image indicating the virtual world viewed from the first virtual camera on the portable display device.

なお、上記情報処理装置は、ゲーム処理を実行して当該ゲーム処理に基づいた画像を生成する装置であってもいいし、一般的なパーソナルコンピュータのような多用途の装置であってもよい。上記可搬型表示装置は、ユーザによって持ち運び可能なサイズであればよく、典型的にはユーザが両手で把持した姿勢で当該可搬型表示装置に表示される画像を視認できるような表示装置であってもよい。また、上記可搬型表示装置は、後述する実施形態における端末装置のように、可搬型表示装置本体の姿勢および/または動きに応じたデータを少なくとも出力する手段、当該可搬型表示装置の表示画面の表面に設けられたタッチパネルへのタッチ位置に応じたタッチ位置データを出力する手段、および第1画像を表示する表示画面以外の他の構成を備えていてもよいし、備えていなくてもよい。   The information processing apparatus may be an apparatus that executes a game process and generates an image based on the game process, or may be a versatile apparatus such as a general personal computer. The portable display device may be a size that can be carried by a user, and is typically a display device that allows a user to visually recognize an image displayed on the portable display device in a posture held by both hands. Also good. Further, the portable display device, like a terminal device in an embodiment to be described later, includes means for outputting at least data corresponding to the attitude and / or movement of the portable display device body, and a display screen of the portable display device. Other than the display screen for displaying the first image and the means for outputting the touch position data corresponding to the touch position on the touch panel provided on the surface may be provided.

上記によれば、可搬型表示装置本体の動きや姿勢によって当該装置に表示される画像の視点が変わる場合に、当該視点をタッチ操作でも変えることができるため、ユーザが視点を変える操作をさらに容易にすることができる。例えば、仮想世界において視点を大きく移動させたい場合であっても、タッチ操作によって当該視点移動が可能となるため、可搬型表示装置本体を大きく動かして視点を動かすような操作が不要となる。   According to the above, when the viewpoint of an image displayed on the device changes depending on the movement or posture of the portable display device body, the viewpoint can be changed by a touch operation, so that the user can change the viewpoint more easily. Can be. For example, even when it is desired to move the viewpoint greatly in the virtual world, the viewpoint can be moved by a touch operation, and thus an operation for moving the viewpoint by moving the portable display device body greatly is not necessary.

また、上記情報処理プログラムは、姿勢動き算出手段として、さらにコンピュータを機能させてもよい。姿勢動き算出手段は、本体状態データに基づいて、可搬型表示装置の姿勢および/または動きを算出する。この場合、上記第1仮想カメラ制御手段は、姿勢動き算出手段が算出した可搬型表示装置の姿勢および/または動きとタッチ位置データが示すタッチ位置とに基づいて、第1仮想カメラの姿勢および/または位置を制御してもよい。   The information processing program may further cause the computer to function as posture movement calculation means. The posture movement calculating means calculates the posture and / or movement of the portable display device based on the main body state data. In this case, the first virtual camera control unit is configured to determine the posture and / or the first virtual camera based on the posture and / or movement of the portable display device calculated by the posture and motion calculation unit and the touch position indicated by the touch position data. Alternatively, the position may be controlled.

上記によれば、可搬型表示装置から出力される本体状態データを用いて可搬型表示装置の姿勢および/または動きを算出し、当該可搬型表示装置の姿勢および/または動きに基づいて、第1仮想カメラの姿勢および/または位置を制御することが可能となる。   According to the above, the posture and / or movement of the portable display device is calculated using the main body state data output from the portable display device, and the first and second movements are calculated based on the posture and / or movement of the portable display device. It becomes possible to control the attitude and / or position of the virtual camera.

また、上記第1仮想カメラ制御手段は、可搬型表示装置の姿勢および/または動きに基づいて、第1仮想カメラを仮想世界に対して相対的に回転させて当該第1仮想カメラの姿勢を制御し、タッチ位置データが示すタッチ位置に基づいて、第1仮想カメラを仮想世界に対して相対的に移動させて当該第1仮想カメラの位置を制御してもよい。   The first virtual camera control means controls the attitude of the first virtual camera by rotating the first virtual camera relative to the virtual world based on the attitude and / or movement of the portable display device. Then, based on the touch position indicated by the touch position data, the position of the first virtual camera may be controlled by moving the first virtual camera relative to the virtual world.

上記によれば、可搬型表示装置本体の姿勢および/または動きによる操作によって第1仮想カメラを仮想世界で相対的に回転させ、可搬型表示装置の表示画面に設けられたタッチパネルへのタッチ操作によって第1仮想カメラを仮想世界で相対的に移動させるような多様なユーザ操作が可能となる。   According to the above, the first virtual camera is relatively rotated in the virtual world by an operation based on the attitude and / or movement of the portable display device main body, and the touch operation on the touch panel provided on the display screen of the portable display device is performed. Various user operations such as relatively moving the first virtual camera in the virtual world are possible.

また、上記第1仮想カメラ制御手段は、可搬型表示装置の姿勢および/または動きに基づいて、第1仮想カメラを仮想世界に配置されたオブジェクトに対して相対的に回転させて当該第1仮想カメラの姿勢を制御し、タッチ位置データが示すタッチ位置に基づいて、第1仮想カメラをオブジェクトに対して相対的に移動させて当該第1仮想カメラの位置を制御してもよい。   Further, the first virtual camera control means rotates the first virtual camera relative to the object arranged in the virtual world based on the attitude and / or movement of the portable display device. The position of the first virtual camera may be controlled by controlling the posture of the camera and moving the first virtual camera relative to the object based on the touch position indicated by the touch position data.

上記によれば、可搬型表示装置本体の動きや姿勢によって当該装置に表示されるオブジェクトに対する視点が変わる場合に、当該視点をタッチ操作でも変えることができるため、ユーザがオブジェクトを見る視点を変える操作をさらに容易にすることができる。例えば、オブジェクトが表示画面に表示される範囲を大きく移動させたい場合であっても、タッチ操作によって表示範囲を移動させることが可能となるため、可搬型表示装置本体を大きく動かして表示範囲を移動させるような操作が不要となる。   According to the above, when the viewpoint of an object displayed on the device changes depending on the movement or posture of the portable display device body, the viewpoint can be changed by a touch operation. Can be further facilitated. For example, even if you want to move the display range of an object greatly, the display range can be moved by touch operation. Such an operation is unnecessary.

また、上記情報処理プログラムは、プレイヤオブジェクト制御手段として、さらにコンピュータを機能させてもよい。プレイヤオブジェクト制御手段は、姿勢動き算出手段が算出した可搬型表示装置の姿勢および/または動きとタッチ位置データが示すタッチ位置とに基づいて、仮想世界に配置されたプレイヤオブジェクトの動作を制御する。この場合、上記第1仮想カメラ制御手段は、プレイヤオブジェクトを少なくとも含む仮想世界の画像を生成する位置に第1仮想カメラを配置してもよい。   The information processing program may further cause the computer to function as player object control means. The player object control means controls the action of the player object arranged in the virtual world based on the attitude and / or movement of the portable display device calculated by the attitude movement calculating means and the touch position indicated by the touch position data. In this case, the first virtual camera control means may arrange the first virtual camera at a position where a virtual world image including at least the player object is generated.

上記によれば、第1仮想カメラの姿勢および/または位置を変える操作と同時に、プレイヤオブジェクトの動作を制御する操作も可能となる。   According to the above, an operation for controlling the motion of the player object can be performed simultaneously with the operation for changing the posture and / or position of the first virtual camera.

また、上記第1仮想カメラ制御手段は、仮想世界においてプレイヤオブジェクトの直上から俯瞰する位置に第1仮想カメラを配置してもよい。   Further, the first virtual camera control means may arrange the first virtual camera at a position overlooking the player object from directly above in the virtual world.

上記によれば、仮想世界に配置されたプレイヤオブジェクトを俯瞰した画像を可搬型表示装置に表示することができる。   Based on the above, it is possible to display on the portable display device an image in which the player object placed in the virtual world is looked down on.

また、上記プレイヤオブジェクト制御手段は、可搬型表示装置の姿勢および/または動きに基づいて、第1仮想カメラと同じ回転方向および回転角度で仮想世界の鉛直方向周りに仮想世界に対してプレイヤオブジェクトを相対的に回転させて当該プレイヤオブジェクトの姿勢を制御してもよい。上記第1仮想カメラ制御手段は、タッチ位置データが示すタッチ位置に基づいて、第1仮想カメラと同じ移動方向および移動距離で仮想世界に対してプレイヤオブジェクトを相対的に移動させて当該プレイヤオブジェクトの位置を制御してもよい。   Further, the player object control means sends a player object to the virtual world around the vertical direction of the virtual world with the same rotation direction and rotation angle as the first virtual camera based on the attitude and / or movement of the portable display device. You may control the attitude | position of the said player object by rotating relatively. The first virtual camera control means moves the player object relative to the virtual world in the same moving direction and moving distance as the first virtual camera based on the touch position indicated by the touch position data, and The position may be controlled.

上記によれば、第1仮想カメラの姿勢および/または位置の変化と同じようにプレイヤオブジェクトの姿勢および/または位置が変化するため、可搬型表示装置の表示画面に対して常に同じ状態でプレイヤオブジェクトが表示されるような画像を生成することができる。また、プレイヤオブジェクトが表示画面に対して常に同じ状態で表示されるため、可搬型表示装置本体の姿勢および/または動きやタッチ位置によってプレイヤオブジェクトを動作制御する操作が直感的で容易になる。   According to the above, since the posture and / or position of the player object changes in the same manner as the change in the posture and / or position of the first virtual camera, the player object is always in the same state with respect to the display screen of the portable display device. Can be generated. Further, since the player object is always displayed on the display screen in the same state, the operation for controlling the movement of the player object according to the posture and / or movement and touch position of the portable display device body is intuitive and easy.

また、上記情報処理プログラムは、タッチ位置変位算出手段として、さらにコンピュータを機能させてもよい。タッチ位置変位算出手段は、タッチ位置データに基づいて、タッチパネルへ入力されたタッチ位置の変位を算出する。この場合、上記第1仮想カメラ制御手段は、タッチ位置の変位に基づいて、第1仮想カメラを仮想世界に対して相対的に移動させてもよい。   The information processing program may further cause the computer to function as touch position displacement calculation means. The touch position displacement calculating means calculates the displacement of the touch position input to the touch panel based on the touch position data. In this case, the first virtual camera control means may move the first virtual camera relative to the virtual world based on the displacement of the touch position.

上記によれば、例えばタッチパネルに対するドラッグ操作のように、タッチパネルに対するタッチ位置を変化させるような操作によって第1仮想カメラを仮想世界で相対的に移動させることができる。   According to the above, the first virtual camera can be relatively moved in the virtual world by an operation that changes the touch position on the touch panel, such as a drag operation on the touch panel.

また、上記第1仮想カメラ制御手段は、タッチ位置の変位方向に基づいて第1仮想カメラを移動させる移動方向を算出し、当該移動方向へ当該第1仮想カメラを仮想世界に対して相対的に移動させてもよい。   The first virtual camera control means calculates a movement direction for moving the first virtual camera based on the displacement direction of the touch position, and moves the first virtual camera relative to the virtual world in the movement direction. It may be moved.

上記によれば、タッチパネルに対するタッチ位置を変化させる方向に基づいて第1仮想カメラの移動方向が設定されるため、ユーザ所望の方向に第1仮想カメラを相対的に移動させることができる。   According to the above, since the moving direction of the first virtual camera is set based on the direction in which the touch position on the touch panel is changed, the first virtual camera can be relatively moved in the direction desired by the user.

また、上記第1仮想カメラ制御手段は、タッチ位置の変位方向の逆方向を移動方向として算出してもよい。   The first virtual camera control means may calculate the direction opposite to the displacement direction of the touch position as the movement direction.

また、上記第1仮想カメラ制御手段は、タッチ位置の変位と重なって表示される仮想世界における変位方向に対応する方向の逆方向を移動方向として算出してもよい。   Further, the first virtual camera control means may calculate, as the movement direction, a direction opposite to the direction corresponding to the displacement direction in the virtual world displayed overlapping the displacement of the touch position.

上記によれば、タッチパネルに対するタッチ位置を変化させる方向の逆方向に第1仮想カメラが移動し、表示画面に表示されている仮想世界がタッチパネルへのタッチ位置の移動方向に追従するようにスクロールされるため、直感的に視点を移動させる操作を行うことが可能となる。   According to the above, the first virtual camera moves in the direction opposite to the direction of changing the touch position on the touch panel, and the virtual world displayed on the display screen is scrolled so as to follow the moving direction of the touch position on the touch panel. Therefore, an operation for moving the viewpoint intuitively can be performed.

また、上記第1仮想カメラ制御手段は、タッチ位置の変位量に基づいて第1仮想カメラを移動させる移動距離を算出し、当該移動距離だけ当該第1仮想カメラを仮想世界に対して相対的に移動させてもよい。   The first virtual camera control means calculates a moving distance for moving the first virtual camera based on the displacement amount of the touch position, and moves the first virtual camera relative to the virtual world by the moving distance. It may be moved.

上記によれば、タッチパネルに対するタッチ位置を変化させる量に基づいて第1仮想カメラの移動距離が設定されるため、ユーザ所望の距離だけ第1仮想カメラを相対的に移動させることができる。   According to the above, since the moving distance of the first virtual camera is set based on the amount by which the touch position on the touch panel is changed, the first virtual camera can be relatively moved by a user-desired distance.

また、上記第1仮想カメラ制御手段は、タッチ位置の変位と重なって表示される仮想世界における変位量に対応する距離を移動距離として算出してもよい。   Further, the first virtual camera control means may calculate a distance corresponding to the displacement amount in the virtual world displayed overlapping the displacement of the touch position as the movement distance.

上記によれば、タッチパネルに対するタッチ位置を変化させる量と同じ距離だけ第1仮想カメラを相対的に移動させることができるため、直感的に視点を移動させる操作を行うことが可能となる。   According to the above, since the first virtual camera can be relatively moved by the same distance as the amount by which the touch position on the touch panel is changed, an operation for moving the viewpoint intuitively can be performed.

また、上記姿勢動き算出手段は、可搬型表示装置の表示画面に垂直な当該表示画面の奥行方向周りに当該可搬型表示装置が回転する姿勢および/または動きを少なくとも算出してもよい。上記第1仮想カメラ制御手段は、奥行方向周りに可搬型表示装置が回転する姿勢および/または動きに応じて、第1仮想カメラの姿勢を制御してもよい。   Further, the posture movement calculation means may calculate at least a posture and / or a movement of the portable display device rotating around a depth direction of the display screen perpendicular to the display screen of the portable display device. The first virtual camera control means may control the attitude of the first virtual camera according to the attitude and / or movement of the portable display device that rotates around the depth direction.

上記によれば、可搬型表示装置の表示画面の奥行方向周りに回転(ロール)するように当該可搬型表示装置を動かすことによって、第1仮想カメラの姿勢を変化させることができる。   According to the above, the attitude of the first virtual camera can be changed by moving the portable display device so as to rotate (roll) around the depth direction of the display screen of the portable display device.

また、上記第1仮想カメラ制御手段は、奥行方向周りに可搬型表示装置が回転する回転方向に応じて、第1仮想カメラの視線方向周りに当該回転方向へ仮想世界に対して相対的に回転させて、当該第1仮想カメラの姿勢を制御してもよい。   Further, the first virtual camera control means rotates relative to the virtual world in the rotation direction around the viewing direction of the first virtual camera in accordance with the rotation direction in which the portable display device rotates around the depth direction. Then, the attitude of the first virtual camera may be controlled.

上記によれば、可搬型表示装置の表示画面の奥行方向周りに回転(ロール)するように当該可搬型表示装置を動かした場合、当該表示画面の回転方向と同じ方向に視線方向周りに第1仮想カメラが相対的に回転することになるため、可搬型表示装置の表示画面を介して仮想世界を覗いているような画像を表示することができる。   According to the above, when the portable display device is moved so as to rotate (roll) around the depth direction of the display screen of the portable display device, the first around the viewing direction in the same direction as the rotation direction of the display screen. Since the virtual camera rotates relatively, it is possible to display an image as if looking into the virtual world via the display screen of the portable display device.

また、上記第1仮想カメラ制御手段は、可搬型表示装置本体の向きが奥行方向周りに変わる角度に応じて第1仮想カメラを仮想世界に対して相対的に回転させて、当該第1仮想カメラの姿勢を制御してもよい。   Further, the first virtual camera control means rotates the first virtual camera relative to the virtual world according to an angle at which the orientation of the portable display device body changes around the depth direction, and the first virtual camera The posture may be controlled.

上記によれば、ユーザは可搬型表示装置の方向を変化させることによって、第1仮想カメラの姿勢を制御することができる。   Based on the above, the user can control the attitude of the first virtual camera by changing the direction of the portable display device.

また、上記第1仮想カメラ制御手段は、可搬型表示装置本体の向きが変わる角度と同じ角度だけ第1仮想カメラを仮想世界に対して相対的に回転させて、当該第1仮想カメラの姿勢を制御してもよい。   Further, the first virtual camera control means rotates the first virtual camera relative to the virtual world by the same angle as the angle at which the orientation of the portable display device body changes to change the attitude of the first virtual camera. You may control.

上記によれば、可搬型表示装置の姿勢および/または位置を変化させる角度と同じ角度だけ第1仮想カメラを相対的に回転させることができる。   Based on the above, it is possible to relatively rotate the first virtual camera by the same angle as the angle for changing the posture and / or position of the portable display device.

また、上記第1仮想カメラ制御手段は、可搬型表示装置が奥行方向周りに回転する回転方向および回転角度に応じて、第1仮想カメラの視線方向周りに当該回転角度だけ当該回転方向へ仮想世界に対して相対的に回転させて当該第1仮想カメラの姿勢を制御し、タッチ位置データがタッチパネルをドラッグする操作を示している場合、当該タッチ位置データが示すタッチ位置と重なって表示画面に表示される仮想世界における当該タッチ位置の移動方向および移動距離に応じて、視線方向に垂直な平面に沿って第1仮想カメラを当該移動距離だけ当該移動方向の逆方向へ仮想世界に対して相対的に移動させて当該第1仮想カメラの位置を制御してもよい。   In addition, the first virtual camera control means may move the virtual world in the rotation direction by the rotation angle around the viewing direction of the first virtual camera according to the rotation direction and rotation angle in which the portable display device rotates in the depth direction. When the touch position data indicates an operation of dragging the touch panel, the touch position data overlaps with the touch position indicated by the touch position data and is displayed on the display screen. In accordance with the moving direction and moving distance of the touch position in the virtual world, the first virtual camera is moved relative to the virtual world in the direction opposite to the moving direction along the plane perpendicular to the line-of-sight direction. And the position of the first virtual camera may be controlled.

上記によれば、可搬型表示装置の表示画面の奥行方向周りに回転(ロール)するように当該可搬型表示装置を動かした場合、当該表示画面の回転方向と同じ方向に同じ角度だけ視線方向周りに第1仮想カメラが相対的に回転することになるため、可搬型表示装置の表示画面が回転しても当該表示画面に表示される仮想世界が実空間において常に同じ方向に向くように表示することができる。また、可搬型表示装置のタッチパネルに対してドラッグ操作した場合、当該ドラッグ操作に追従するように表示画面に表示された仮想世界を移動させて表示することができる。   According to the above, when the portable display device is moved so as to rotate (roll) around the depth direction of the display screen of the portable display device, the same direction as the rotation direction of the display screen is rotated by the same angle around the line-of-sight direction. Since the first virtual camera rotates relatively, the virtual world displayed on the display screen is always displayed in the same direction in the real space even if the display screen of the portable display device rotates. be able to. Further, when a drag operation is performed on the touch panel of the portable display device, the virtual world displayed on the display screen can be moved and displayed so as to follow the drag operation.

また、上記情報処理プログラムは、荷重取得手段として、さらにコンピュータを機能させてもよい。荷重取得手段は、荷重検出装置に加えられた荷重に基づくデータを取得する。この場合、上記プレイヤオブジェクト制御手段は、荷重取得手段が取得したデータに基づいて、仮想世界に対してプレイヤオブジェクトを相対的に移動させて当該プレイヤオブジェクトの位置を制御してもよい。   The information processing program may further cause the computer to function as load acquisition means. The load acquisition means acquires data based on the load applied to the load detection device. In this case, the player object control means may control the position of the player object by moving the player object relative to the virtual world based on the data acquired by the load acquisition means.

なお、上記荷重検出装置は、一例としてユーザの身体の少なくとも一部を乗せて当該荷重検出装置に加わる荷重を検出したり、荷重に応じてオン/オフされたりする装置であり、ユーザが上面に両足裏を接面させて乗って操作するものや、ユーザが上面に片足だけを乗せて操作するものや、ユーザが他の身体の部位(例えば、手)を乗せて操作するもの等が考えられる。   The load detection device is, for example, a device that loads at least a part of the user's body and detects a load applied to the load detection device, or is turned on / off according to the load. There are things that are operated by riding with the soles of both feet in contact, those that the user operates with only one foot on the upper surface, those that the user operates with other body parts (for example, hands), etc. .

上記によれば、荷重検出装置を用いたユーザ操作によって、プレイヤオブジェクトを移動させることも可能となる。したがって、ユーザが当該第1画像を可搬型表示装置で見ながら当該可搬型表示装置を動かしたり、タッチパネルを操作したりすることによって視点を調整しながら、荷重検出装置を用いてプレイヤオブジェクトを移動させる操作が可能となるため、ユーザは、今までにない操作環境での操作が可能となる。   According to the above, the player object can be moved by a user operation using the load detection device. Therefore, the user moves the player object using the load detection device while adjusting the viewpoint by moving the portable display device or operating the touch panel while viewing the first image on the portable display device. Since the operation is possible, the user can operate in an unprecedented operation environment.

また、上記可搬型表示装置は、ジャイロセンサおよび加速度センサの少なくとも一方を含んでもよい。上記姿勢動き算出手段は、ジャイロセンサおよび加速度センサの少なくとも一方から出力されるデータに基づいて、可搬型表示装置の姿勢および/または動きを算出してもよい。   The portable display device may include at least one of a gyro sensor and an acceleration sensor. The posture movement calculation unit may calculate the posture and / or movement of the portable display device based on data output from at least one of the gyro sensor and the acceleration sensor.

上記によれば、ジャイロセンサから出力される可搬型表示装置に生じている角速度を示すデータおよび/または加速度センサから出力される可搬型表示装置に生じている加速度を示すデータを用いることによって、当該可搬型表示装置の姿勢や動きを精確に算出することができる。   According to the above, by using the data indicating the angular velocity generated in the portable display device output from the gyro sensor and / or the data indicating the acceleration generated in the portable display device output from the acceleration sensor, The attitude and movement of the portable display device can be accurately calculated.

また、上記表示制御手段は、第1画像を示す画像データを可搬型表示装置へ出力してもよい。上記可搬型表示装置は、情報処理装置から出力された画像データを取得する画像データ取得手段を備えてもよい。可搬型表示装置の表示画面は、画像データ取得手段が取得した画像データが示す第1画像を表示してもよい。   The display control means may output image data indicating the first image to the portable display device. The portable display device may include image data acquisition means for acquiring image data output from the information processing device. The display screen of the portable display device may display the first image indicated by the image data acquired by the image data acquisition means.

上記によれば、可搬型表示装置がゲーム処理等の情報処理を実行しない、いわゆるシンクライアント端末として機能することができる。   Based on the above, the portable display device can function as a so-called thin client terminal that does not execute information processing such as game processing.

また、上記情報処理プログラムは、圧縮画像生成手段として、さらにコンピュータを機能させてもよい。圧縮画像生成手段は、第1画像を示す画像データを圧縮して圧縮画像データを生成する。この場合、上記表示制御手段は、圧縮画像生成手段が生成した圧縮画像データを可搬型表示装置へ出力してもよい。上記画像データ取得手段は、情報処理装置から出力された圧縮画像データを取得してもよい。上記可搬型表示装置は、圧縮画像データを伸張して第1画像を示す画像データを得る表示画像伸張手段を、さらに備えてもよい。上記可搬型表示装置の表示画面は、画像データ取得手段が取得して表示画像伸長手段が伸長した画像データが示す第1画像を表示してもよい。   The information processing program may further cause the computer to function as compressed image generation means. The compressed image generation means generates compressed image data by compressing image data indicating the first image. In this case, the display control means may output the compressed image data generated by the compressed image generation means to the portable display device. The image data acquisition unit may acquire compressed image data output from the information processing apparatus. The portable display device may further include display image expansion means for expanding the compressed image data to obtain image data indicating the first image. The display screen of the portable display device may display the first image indicated by the image data acquired by the image data acquisition unit and expanded by the display image expansion unit.

上記によれば、第1画像は、圧縮されて情報処理装置から可搬型表示装置へ出力されるので、第1画像を高速に出力することができ、第1画像が生成されてから第1画像が可搬型表示装置に表示されるまでの遅延を少なくすることができる。   According to the above, since the first image is compressed and output from the information processing device to the portable display device, the first image can be output at high speed, and the first image is generated after the first image is generated. Can be delayed until the image is displayed on the portable display device.

また、上記表示制御手段は、第1画像とは別に、第2仮想カメラから見た仮想世界を示す第2画像を、情報処理装置に接続された別の表示装置にさらに表示してもよい。   The display control means may further display a second image indicating the virtual world viewed from the second virtual camera on another display device connected to the information processing device, separately from the first image.

なお、上記別の表示装置は、後述する実施形態におけるモニタ2のように情報処理装置に接続された表示装置であり、上記可搬型表示装置と別体であればよく、情報処理装置によって生成された第2画像を表示することが可能なものであればどのようなものであってもよい。例えば、上記別の表示装置は、情報処理装置と一体に(1つの筐体内に)構成されるものであってもよい。   The other display device is a display device connected to the information processing device like the monitor 2 in an embodiment described later, and may be a separate body from the portable display device, and is generated by the information processing device. Any other image can be used as long as it can display the second image. For example, the another display device may be configured integrally with the information processing device (in one housing).

上記によれば、可搬型表示装置を動かす操作およびタッチ操作に基づいた処理を行う場合に、当該処理結果が可搬型表示装置だけでなく情報処理装置に接続された別の表示装置にも表示することができる。したがって、ユーザは、例えば2つの装置に表示される画像を操作状況や好みに応じて使い分けることが可能となり、ユーザ操作に好適な画像を見ることも可能となる。また、情報処理装置に接続された別の表示装置に表示する画像を、例えばユーザとは異なる他の人が見るための画像として用いることもでき、複数の人が処理結果を見る場合にも好適な視聴環境となり得る。   According to the above, when the process based on the operation of moving the portable display device and the touch operation is performed, the processing result is displayed not only on the portable display device but also on another display device connected to the information processing device. be able to. Therefore, for example, the user can use the images displayed on the two devices according to the operation status and preference, and can also view an image suitable for the user operation. Further, an image to be displayed on another display device connected to the information processing device can be used as an image for other people to view, for example, different from the user, and is also suitable when a plurality of people view the processing result. Can be a comfortable viewing environment.

また、上記情報処理プログラムは、圧縮画像生成手段として、さらにコンピュータを機能させてもよい。圧縮画像生成手段は、第1画像を示す画像データを圧縮して圧縮画像データを生成する。この場合、上記表示制御手段は、圧縮画像生成手段が生成した圧縮画像データを可搬型表示装置へ出力し、当該圧縮画像データとは別に、第2画像を示す画像データを圧縮することなく別の表示装置へ出力してもよい。上記可搬型表示装置は、情報処理装置から出力された圧縮画像データを取得する画像データ取得手段と、圧縮画像データを伸張して第1画像を示す画像データを得る表示画像伸張手段とを備えてもよい。上記可搬型表示装置の表示画面は、画像データ取得手段が取得して表示画像伸長手段が伸長した画像データが示す第1画像を表示してもよい。   The information processing program may further cause the computer to function as compressed image generation means. The compressed image generation means generates compressed image data by compressing image data indicating the first image. In this case, the display control unit outputs the compressed image data generated by the compressed image generation unit to the portable display device, and separately from the compressed image data, the image data indicating the second image is not compressed. You may output to a display apparatus. The portable display device includes an image data acquisition unit that acquires compressed image data output from the information processing device, and a display image expansion unit that expands the compressed image data to obtain image data indicating the first image. Also good. The display screen of the portable display device may display the first image indicated by the image data acquired by the image data acquisition unit and expanded by the display image expansion unit.

上記によれば、第1画像は、圧縮されて情報処理装置から可搬型表示装置へ出力されるので、第1画像を高速に出力することができ、第1画像が生成されてから第1画像が可搬型表示装置に表示されるまでの遅延を少なくすることができる。   According to the above, since the first image is compressed and output from the information processing device to the portable display device, the first image can be output at high speed, and the first image is generated after the first image is generated. Can be delayed until the image is displayed on the portable display device.

また、上記情報処理プログラムは、第2仮想カメラ制御手段として、さらにコンピュータを機能させてもよい。第2仮想カメラ制御手段は、第1仮想カメラとは異なる位置に第2仮想カメラを設定して、当該第2仮想カメラの姿勢および/または位置を制御する。   The information processing program may further cause the computer to function as second virtual camera control means. The second virtual camera control means sets the second virtual camera at a position different from the first virtual camera, and controls the attitude and / or position of the second virtual camera.

上記によれば、可搬型表示装置だけでなく別の表示装置にも同じ仮想世界が表示され、それぞれ視点の異なる仮想世界の画像が表示される。したがって、ユーザは、操作する際に、2つの装置に表示される画像を操作状況や好みに応じて使い分けることが可能となる。   According to the above, the same virtual world is displayed not only on the portable display device but also on another display device, and images of virtual worlds with different viewpoints are displayed. Therefore, the user can use the images displayed on the two devices according to the operation situation and preference when operating.

また、上記第2仮想カメラ制御手段は、第1仮想カメラの視線方向と平行となるように第2仮想カメラの視線方向を設定して、第1仮想カメラの後方に第2仮想カメラを設定してもよい。上記表示制御手段は、第1画像で示される仮想世界の範囲より広い範囲を、第2画像として別の表示装置に表示してもよい。   The second virtual camera control means sets the line-of-sight direction of the second virtual camera so as to be parallel to the line-of-sight direction of the first virtual camera, and sets the second virtual camera behind the first virtual camera. May be. The display control means may display a range wider than the range of the virtual world indicated by the first image on another display device as the second image.

上記によれば、可搬型表示装置に表示される仮想世界の画像より広い表示範囲の仮想世界の画像がゲーム装置に接続された別の表示装置に表示されるため、例えば仮想世界の様子をユーザに提示する際にユーザ操作において好適となる画像を、それぞれの表示装置に表示することが可能となる。   According to the above, a virtual world image having a wider display range than the virtual world image displayed on the portable display device is displayed on another display device connected to the game device. It is possible to display an image suitable for user operation on each display device.

また、上記第1仮想カメラ制御手段は、仮想世界の鉛直方向に第1仮想カメラの視線方向を設定してもよい。上記第2仮想カメラ制御手段は、仮想世界の鉛直方向に第2仮想カメラの視線方向を設定してもよい。   The first virtual camera control means may set the line-of-sight direction of the first virtual camera in the vertical direction of the virtual world. The second virtual camera control means may set the line-of-sight direction of the second virtual camera in the vertical direction of the virtual world.

上記によれば、可搬型表示装置だけでなく別の表示装置にも同じ仮想世界が表示され、当該可搬型表示装置および別の表示装置には当該仮想世界を鳥瞰した画像が表示されるため、例えば仮想世界の様子をユーザに提示する際にユーザ操作において好適となる画像を、それぞれの表示装置に表示することが可能となる。   According to the above, the same virtual world is displayed not only on the portable display device but also on another display device, and the portable display device and another display device display the bird's-eye view of the virtual world. For example, an image suitable for a user operation when presenting the state of the virtual world to the user can be displayed on each display device.

また、本発明は、上記各手段を備える情報処理装置および情報処理システムや上記各手段で行われる動作を含む情報処理方法の形態で実施されてもよい。   In addition, the present invention may be implemented in the form of an information processing apparatus and an information processing system including the above-described units and an information processing method including operations performed by the above units.

本発明によれば、可搬型表示装置本体の動きや姿勢によって当該装置に表示される画像の視点が変わる場合に、当該視点を変える操作をさらに容易にすることができる。   ADVANTAGE OF THE INVENTION According to this invention, when the viewpoint of the image displayed on the said apparatus changes with a motion and attitude | position of a portable display apparatus main body, operation which changes the said viewpoint can be made still easier.

本発明の一実施形態に係るゲームシステム1の一例を示す外観図1 is an external view showing an example of a game system 1 according to an embodiment of the present invention. 図1のゲーム装置本体5の一例を示す機能ブロック図Functional block diagram showing an example of the game apparatus body 5 of FIG. 図1の端末装置6の外観構成の一例を示す図The figure which shows an example of an external appearance structure of the terminal device 6 of FIG. ユーザが端末装置6を把持した様子の一例を示す図The figure which shows an example of a mode that the user hold | gripped the terminal device 6. 図3の端末装置6の内部構成の一例を示すブロック図The block diagram which shows an example of an internal structure of the terminal device 6 of FIG. 図1のボード型コントローラ9の外観の一例を示す斜視図The perspective view which shows an example of the external appearance of the board type controller 9 of FIG. 図6に示したボード型コントローラ9のA−A断面図の一例を示すとともに、荷重センサ94が配置された隅の部分が拡大表示された一例を示す図The figure which shows an example of the AA sectional drawing of the board-type controller 9 shown in FIG. 6, and an example by which the part of the corner where the load sensor 94 is arrange | positioned is enlargedly displayed. 図6のボード型コントローラ9の電気的な構成の一例を示すブロック図FIG. 6 is a block diagram showing an example of an electrical configuration of the board type controller 9 of FIG. 端末装置6およびボード型コントローラ9を用いて操作するユーザの様子の一例を示す図The figure which shows an example of the mode of the user who operates using the terminal device 6 and the board type controller 9 モニタ2に表示される画像の一例を示す図The figure which shows an example of the image displayed on the monitor 2 端末装置6のLCD61に表示される画像の一例を示す図The figure which shows an example of the image displayed on LCD61 of the terminal device 6 端末装置6の姿勢による操作が基準操作指示方向を示している場合にモニタ2に表示される画像の一例を示す図The figure which shows an example of the image displayed on the monitor 2, when operation by the attitude | position of the terminal device 6 has shown the reference | standard operation instruction | indication direction 端末装置6の姿勢による操作が基準操作指示方向を示している状態において端末装置6のLCD61に表示される画像の一例を示す図The figure which shows an example of the image displayed on LCD61 of the terminal device 6 in the state in which operation by the attitude | position of the terminal device 6 has shown the reference | standard operation instruction | indication direction 図11Bに示した状態から端末装置6を卓上で反時計方向にロール回転させた場合にモニタ2に表示される画像の一例を示す図11 is a diagram showing an example of an image displayed on the monitor 2 when the terminal device 6 is rolled counterclockwise on the desktop from the state shown in FIG. 11B. 図11Bに示した状態から端末装置6を卓上で反時計方向にロール回転させた場合に端末装置6のLCD61に表示される画像の一例を示す図11 is a diagram showing an example of an image displayed on the LCD 61 of the terminal device 6 when the terminal device 6 is rolled counterclockwise on the desktop from the state shown in FIG. 11B. 図11Bに示した状態から端末装置6を卓上で反時計方向に90°ロール回転させた場合にモニタ2に表示される画像の一例を示す図11 is a diagram illustrating an example of an image displayed on the monitor 2 when the terminal device 6 is rotated 90 ° counterclockwise on the desktop from the state illustrated in FIG. 11B. 図11Bに示した状態から端末装置6を卓上で反時計方向に90°ロール回転させた場合に端末装置6のLCD61に表示される画像の一例を示す図11 is a diagram showing an example of an image displayed on the LCD 61 of the terminal device 6 when the terminal device 6 is rotated 90 ° counterclockwise on the desktop from the state shown in FIG. 11B. 端末装置6の姿勢から得られる操作指示方向の変化に対応する一例としてプレイヤオブジェクトおよび仮想カメラの回転動作を説明するための図The figure for demonstrating rotation operation of a player object and a virtual camera as an example corresponding to the change of the operation instruction | indication direction obtained from the attitude | position of the terminal device 6 端末装置6の姿勢から得られる操作指示方向の変化に対応する他の例として地形オブジェクトの回転動作を説明するための図The figure for demonstrating rotation operation | movement of a terrain object as another example corresponding to the change of the operation instruction | indication direction obtained from the attitude | position of the terminal device 6 図11Bに示した状態から端末装置6のタッチパネル62がタッチ操作された場合にモニタ2に表示される画像の一例を示す図The figure which shows an example of the image displayed on the monitor 2 when the touch panel 62 of the terminal device 6 is touch-operated from the state shown to FIG. 11B. 図11Bに示した状態から端末装置6のタッチパネル62がタッチ操作された場合に端末装置6のLCD61に表示される画像の一例を示す図11 is a diagram showing an example of an image displayed on the LCD 61 of the terminal device 6 when the touch panel 62 of the terminal device 6 is touched from the state shown in FIG. 11B. 端末装置6のタッチパネル62へのタッチ操作に対応する一例としてプレイヤオブジェクトおよび仮想カメラの移動動作を説明するための図The figure for demonstrating the movement operation | movement of a player object and a virtual camera as an example corresponding to the touch operation to the touch panel 62 of the terminal device 6. FIG. 端末装置6のタッチパネル62へのタッチ操作に対応する他の例として地形オブジェクトの移動動作を説明するための図The figure for demonstrating the movement operation | movement of a terrain object as another example corresponding to the touch operation to the touch panel 62 of the terminal device 6. FIG. 図1のゲーム装置本体5のメインメモリに記憶される主なデータおよびプログラムの一例を示す図The figure which shows an example of main data and a program memorize | stored in the main memory of the game device main body 5 of FIG. 図1のゲーム装置本体5において実行されるゲーム処理の一例を示すフローチャートThe flowchart which shows an example of the game process performed in the game device main body 5 of FIG. 図20におけるステップ44のゲーム制御処理の一例を示すサブルーチンSubroutine showing an example of the game control process of step 44 in FIG. 図21におけるステップ83のオブジェクト設定処理の一例を示すサブルーチンSubroutine showing an example of the object setting process in step 83 in FIG. 図22におけるステップ118の移動処理の一例を示すサブルーチンSubroutine showing an example of the movement process of step 118 in FIG.

図1を参照して、本発明の一実施形態に係る情報処理プログラムを実行する情報処理装置および当該情報処理装置を含む情報処理システムについて説明する。以下、説明を具体的にするために、当該情報処理装置の一例として据置型のゲーム装置本体5を用い、ゲーム装置本体5を含むゲームシステムを用いて説明する。なお、図1は、据置型のゲーム装置3を含むゲームシステム1の一例を示す外観図である。図2は、ゲーム装置本体5の一例を示すブロック図である。以下、当該ゲームシステム1について説明する。   With reference to FIG. 1, an information processing apparatus that executes an information processing program according to an embodiment of the present invention and an information processing system including the information processing apparatus will be described. Hereinafter, for the sake of specific explanation, a stationary game apparatus body 5 will be used as an example of the information processing apparatus, and a game system including the game apparatus body 5 will be described. FIG. 1 is an external view showing an example of a game system 1 including a stationary game apparatus 3. FIG. 2 is a block diagram illustrating an example of the game apparatus body 5. Hereinafter, the game system 1 will be described.

図1において、ゲームシステム1は、表示手段の一例である家庭用テレビジョン受像機(以下、モニタと記載する)2と、モニタ2に接続コードを介して接続する据置型のゲーム装置3とから構成される。モニタ2は、ゲーム装置3から出力された音声信号を音声出力するためのスピーカ2aを備える。また、ゲーム装置3は、本願発明の情報処理プログラムの一例となるプログラム(例えば、ゲームプログラム)を記録した光ディスク4と、光ディスク4のプログラムを実行してゲーム画面をモニタ2に表示出力させるためのコンピュータを搭載したゲーム装置本体5と、端末装置6と、表示画面に表示されたオブジェクト等を操作するために必要な操作情報をゲーム装置本体5に与えるためのコントローラ7と、ボード型コントローラ9とを含む。ゲームシステム1は、端末装置6、コントローラ7、およびボード型コントローラ9の少なくとも1つを用いたゲーム操作に基づいて、ゲーム装置本体5においてゲーム処理を実行し、ゲーム処理によって得られるゲーム画像をモニタ2および/または端末装置6に表示するものである。なお、ゲーム装置本体5と端末装置6、コントローラ7、およびボード型コントローラ9とは、無線によって無線通信可能に接続される。例えば、上記無線通信は、Bluetooth(登録商標)規格やIEEE802.11n規格に従って実行されるが、赤外線など他の規格に従って実行されてもよい。   In FIG. 1, a game system 1 includes a home television receiver (hereinafter referred to as a monitor) 2 which is an example of display means, and a stationary game apparatus 3 connected to the monitor 2 via a connection cord. Composed. The monitor 2 includes a speaker 2a for outputting the audio signal output from the game apparatus 3 as audio. In addition, the game apparatus 3 executes an optical disc 4 on which a program (for example, a game program) as an example of the information processing program of the present invention is recorded, and executes the program on the optical disc 4 to display and output a game screen on the monitor 2. A game apparatus body 5 equipped with a computer, a terminal device 6, a controller 7 for giving the game apparatus body 5 operation information necessary for operating an object or the like displayed on the display screen, and a board-type controller 9 including. The game system 1 executes a game process in the game apparatus body 5 based on a game operation using at least one of the terminal device 6, the controller 7, and the board type controller 9, and monitors a game image obtained by the game process 2 and / or the terminal device 6. Note that the game apparatus body 5, the terminal device 6, the controller 7, and the board-type controller 9 are connected so as to be capable of wireless communication by radio. For example, the wireless communication is executed in accordance with the Bluetooth (registered trademark) standard or the IEEE 802.11n standard, but may be executed in accordance with other standards such as infrared rays.

ゲーム装置本体5には、当該ゲーム装置本体5に対して交換可能に用いられる情報記憶媒体の一例である光ディスク4が脱着可能に挿入される。光ディスク4には、ゲーム装置本体5において実行されるための情報処理プログラム(典型的にはゲームプログラム)が記憶されている。ゲーム装置本体5の前面には、光ディスク4の挿入口が設けられている。ゲーム装置本体5は、挿入口に挿入された光ディスク4に記憶されている情報処理プログラムを読み出して実行することによってゲーム処理を実行する。   An optical disc 4, which is an example of an information storage medium that can be used interchangeably with respect to the game device main body 5, is detachably inserted into the game device main body 5. The optical disc 4 stores an information processing program (typically a game program) to be executed in the game apparatus body 5. An insertion slot for the optical disc 4 is provided on the front surface of the game apparatus body 5. The game apparatus body 5 executes the game process by reading and executing the information processing program stored in the optical disc 4 inserted into the insertion slot.

ゲーム装置本体5には、モニタ2が接続コードを介して接続される。モニタ2は、ゲーム装置本体5において実行されるゲーム処理によって得られるゲーム画像を表示する。モニタ2はスピーカ2aを有しており、スピーカ2aは、上記ゲーム処理の結果得られるゲーム音声を出力する。なお、他の実施形態においては、ゲーム装置本体5と据置型の表示装置とは一体となっていてもよい。また、ゲーム装置本体5とモニタ2との通信は無線通信であってもよい。   The monitor 2 is connected to the game apparatus body 5 via a connection cord. The monitor 2 displays a game image obtained by a game process executed in the game apparatus body 5. The monitor 2 has a speaker 2a, and the speaker 2a outputs game sound obtained as a result of the game processing. In other embodiments, the game apparatus body 5 and the stationary display apparatus may be integrated. Communication between the game apparatus body 5 and the monitor 2 may be wireless communication.

ゲーム装置本体5には、セーブデータ等のデータを固定的に記憶するバックアップメモリとして機能するフラッシュメモリ17(図2参照)が搭載される。ゲーム装置本体5は、光ディスク4に記憶されたゲームプログラム等を実行することによって、その結果をゲーム画像としてモニタ2および/または端末装置6に表示する。ゲームプログラム等は、光ディスク4に限らず、フラッシュメモリ17に予め記録されたものを実行するようにしてもよい。また、ゲーム装置本体5は、フラッシュメモリ17に記憶されたセーブデータを用いて、過去に実行されたゲーム状態を再現して、ゲーム画像をモニタ2および/または端末装置6に表示することもできる。そして、ゲーム装置3のユーザは、モニタ2および/または端末装置6に表示されたゲーム画像を見ながら、端末装置6、コントローラ7、およびボード型コントローラ9の少なくとも1つを操作することによって、ゲーム進行を楽しむことができる。   The game apparatus body 5 is equipped with a flash memory 17 (see FIG. 2) that functions as a backup memory that stores data such as save data in a fixed manner. The game apparatus main body 5 displays the result as a game image on the monitor 2 and / or the terminal device 6 by executing a game program or the like stored on the optical disc 4. The game program or the like is not limited to the optical disc 4 and may be executed in advance recorded in the flash memory 17. Further, the game apparatus body 5 can reproduce the game state executed in the past by using the save data stored in the flash memory 17 and display the game image on the monitor 2 and / or the terminal device 6. . Then, the user of the game device 3 operates at least one of the terminal device 6, the controller 7, and the board type controller 9 while watching the game image displayed on the monitor 2 and / or the terminal device 6, thereby playing the game You can enjoy the progress.

コントローラ7およびボード型コントローラ9は、コントローラ通信モジュール19を内蔵するゲーム装置本体5へ、例えばBluetoothの技術を用いて操作情報等の送信データをそれぞれ無線送信する。コントローラ7は、主にモニタ2の表示画面に表示された選択肢の選択等をするための操作手段である。コントローラ7は、片手で把持可能な程度の大きさのハウジングと、当該ハウジングの表面に露出して設けられた複数個の操作ボタン(十字キー等を含む)とが設けられている。また、後述により明らかとなるが、コントローラ7は、コントローラ7から見た画像を撮像する撮像情報演算部を備えている。そして、撮像情報演算部の撮像対象の一例として、モニタ2の表示画面近傍(図1では画面の上側)に2つのLEDモジュール(以下、マーカと記載する)8Lおよび8Rが設置される。詳細は後述するが、ユーザ(プレイヤ)は、コントローラ7を動かすゲーム操作を行うことができ、マーカ8は、コントローラ7の動きや位置や姿勢等をゲーム装置本体5が算出するために用いられる。マーカ8は、その両端に2つのマーカ8Lおよび8Rを備えている。マーカ8R(マーカ8Lも同様)は、具体的には1以上の赤外LED(Light Emitting Diode)であり、モニタ2の前方に向かって赤外光を出力する。マーカ8はゲーム装置本体5に接続されており、ゲーム装置本体5はマーカ8が備える各赤外LEDの点灯を制御することが可能である。なお、マーカ8は可搬型であり、ユーザはマーカ8を自由な位置に設置することができる。図1ではマーカ8がモニタ2の上に設置された態様を表しているが、マーカ8を設置する位置および向きは任意である。また、コントローラ7は、ゲーム装置本体5のコントローラ通信モジュール19から無線送信された送信データを通信部で受信して、当該送信データに応じた音や振動を発生させることもできる。   The controller 7 and the board-type controller 9 wirelessly transmit transmission data such as operation information to the game apparatus body 5 incorporating the controller communication module 19 by using, for example, Bluetooth technology. The controller 7 is an operation means for mainly selecting an option displayed on the display screen of the monitor 2. The controller 7 is provided with a housing large enough to be held with one hand, and a plurality of operation buttons (including a cross key and the like) exposed on the surface of the housing. Further, as will be apparent from the description below, the controller 7 includes an imaging information calculation unit that captures an image viewed from the controller 7. Then, as an example of the imaging target of the imaging information calculation unit, two LED modules (hereinafter referred to as markers) 8L and 8R are installed near the display screen of the monitor 2 (upper side of the screen in FIG. 1). Although details will be described later, the user (player) can perform a game operation to move the controller 7, and the marker 8 is used by the game apparatus body 5 to calculate the movement, position, posture, and the like of the controller 7. The marker 8 includes two markers 8L and 8R at both ends thereof. The marker 8R (same for the marker 8L) is specifically one or more infrared LEDs (Light Emitting Diodes), and outputs infrared light toward the front of the monitor 2. The marker 8 is connected to the game apparatus body 5, and the game apparatus body 5 can control lighting of each infrared LED included in the marker 8. The marker 8 is portable, and the user can install the marker 8 at a free position. Although FIG. 1 shows a mode in which the marker 8 is installed on the monitor 2, the position and orientation in which the marker 8 is installed are arbitrary. In addition, the controller 7 can receive transmission data wirelessly transmitted from the controller communication module 19 of the game apparatus body 5 by the communication unit, and can generate sound and vibration corresponding to the transmission data.

なお、他の実施形態においてはコントローラ7および/またはボード型コントローラ9とゲーム装置本体5とは有線で接続されてもよい。また、本実施形態では、ゲームシステム1に含まれるコントローラ7およびボード型コントローラ9はそれぞれ1つとするが、ゲーム装置本体5は複数のコントローラ7および複数のボード型コントローラ9と通信可能であり、所定台数のコントローラ7およびボード型コントローラ9をそれぞれ同時に使用することによって複数人でゲームをプレイすることが可能である。   In other embodiments, the controller 7 and / or the board-type controller 9 and the game apparatus body 5 may be connected by wire. In this embodiment, the game system 1 includes one controller 7 and one board-type controller 9, but the game apparatus body 5 can communicate with a plurality of controllers 7 and a plurality of board-type controllers 9. By using the number of controllers 7 and the board type controller 9 at the same time, it is possible to play a game with a plurality of people.

コントローラ7は、例えばプラスチック成型によって形成されたハウジングを有しており、当該ハウジングに複数の操作部(操作ボタン)が設けられている。そして、コントローラ7は、操作部に対する入力状態(各操作ボタンが押下されたか否か)を示す操作データをゲーム装置本体5に送信する。   The controller 7 has a housing formed by plastic molding, for example, and a plurality of operation portions (operation buttons) are provided in the housing. Then, the controller 7 transmits operation data indicating an input state to the operation unit (whether or not each operation button is pressed) to the game apparatus body 5.

また、コントローラ7は、撮像手段が撮像した画像データを解析してその中で輝度が高い領域を判別することによってその領域の重心位置やサイズなどを算出する撮像情報演算部を有している。例えば、撮像情報演算部は、コントローラ7のハウジングに固設された撮像手段を有し、端末装置6のマーカ部65および/またはマーカ8等の赤外光を出力するマーカを撮像対象としている。そして、撮像情報演算部は、撮像手段が撮像した撮像画像内における撮像対象の位置を算出し、算出された位置を示すマーカ座標データをゲーム装置本体5に送信する。このマーカ座標データは、コントローラ7自体の向き(傾斜角度)や位置に対応して変化するので、ゲーム装置本体5はこのマーカ座標データを用いてコントローラ7の向きや位置を算出することができる。   In addition, the controller 7 has an imaging information calculation unit that analyzes the image data captured by the imaging unit and determines a region having high luminance in the region, thereby calculating the position of the center of gravity, the size, and the like of the region. For example, the imaging information calculation unit includes imaging means fixed to the housing of the controller 7 and targets a marker that outputs infrared light such as the marker unit 65 and / or the marker 8 of the terminal device 6 as an imaging target. Then, the imaging information calculation unit calculates the position of the imaging target in the captured image captured by the imaging unit, and transmits marker coordinate data indicating the calculated position to the game apparatus body 5. Since this marker coordinate data changes corresponding to the direction (inclination angle) and position of the controller 7 itself, the game apparatus body 5 can calculate the direction and position of the controller 7 using this marker coordinate data.

さらに、コントローラ7は、加速度センサおよび/またはジャイロセンサを内蔵している。加速度センサは、コントローラ7に生じる加速度(重力加速度を含む)を検出し、検出した加速度を示す加速度データをゲーム装置本体5に送信する。加速度センサが検出した加速度は、コントローラ7自体の向き(傾斜角度)や動きに対応して変化するので、ゲーム装置本体5は取得された加速度データを用いてコントローラ7の向きや動きを算出することができる。ジャイロセンサは、コントローラ7に設定された3軸回りの角速度をそれぞれ検出し、検出した角速度を示す角速度データをゲーム装置本体5に送信する。ジャイロセンサが検出した角速度は、コントローラ7自体の向き(傾斜角度)や動きに対応して変化するので、ゲーム装置本体5は取得された角速度データを用いてコントローラ7の向きや動きを算出することができる。このように、ユーザは、コントローラ7に設けられた操作部を押下すること、およびコントローラ7自体を動かしてその位置や姿勢(傾き)を変えることによってゲーム操作を行うことができる。   Further, the controller 7 includes an acceleration sensor and / or a gyro sensor. The acceleration sensor detects acceleration (including gravitational acceleration) generated in the controller 7 and transmits acceleration data indicating the detected acceleration to the game apparatus body 5. Since the acceleration detected by the acceleration sensor changes in accordance with the direction (tilt angle) and movement of the controller 7 itself, the game apparatus body 5 calculates the direction and movement of the controller 7 using the acquired acceleration data. Can do. The gyro sensor detects angular velocities around the three axes set in the controller 7 and transmits angular velocity data indicating the detected angular velocities to the game apparatus body 5. Since the angular velocity detected by the gyro sensor changes in accordance with the direction (tilt angle) and movement of the controller 7 itself, the game apparatus body 5 calculates the direction and movement of the controller 7 using the acquired angular velocity data. Can do. In this way, the user can perform a game operation by pressing an operation unit provided in the controller 7 and moving the controller 7 itself to change its position and posture (tilt).

コントローラ7には、スピーカおよびバイブレータが設けられている。コントローラ7は、ゲーム装置本体5から送信されたサウンドデータを処理し、当該サウンドデータに応じた音声をスピーカから出力させる。また、コントローラ7は、ゲーム装置本体5から送信された振動データを処理し、当該振動データに応じてバイブレータを作動させて振動を発生させる。なお、後述する本発明の実施形態においては、コントローラ7を用いることなくゲームをプレイすることが可能である。ボード型コントローラ9の詳細な構成については後述する。   The controller 7 is provided with a speaker and a vibrator. The controller 7 processes the sound data transmitted from the game apparatus body 5 and outputs sound corresponding to the sound data from the speaker. Further, the controller 7 processes the vibration data transmitted from the game apparatus body 5 and activates the vibrator according to the vibration data to generate vibration. In the embodiment of the present invention to be described later, it is possible to play a game without using the controller 7. The detailed configuration of the board type controller 9 will be described later.

端末装置6は、ユーザが把持可能な程度の大きさであり、ユーザは端末装置6を手に持って動かしたり、あるいは、端末装置6を自由な位置に配置したりして使用することが可能な可搬型の装置である。詳細な構成は後述するが、端末装置6は、表示手段であるLCD(Liquid Crystal Display:液晶表示装置)61、および入力手段(後述するタッチパネル62やジャイロセンサ604等)を備える。端末装置6とゲーム装置本体5(端末通信モジュール28(図2参照))とは無線(有線であってもよい)によって通信可能である。端末装置6は、ゲーム装置本体5で生成された画像(例えばゲーム画像)のデータをゲーム装置本体5から受信し、当該データが示す画像をLCD61に表示する。なお、本実施形態では表示装置としてLCDを用いているが、端末装置6は、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を有していてもよい。また、端末装置6は、端末通信モジュール28を内蔵するゲーム装置本体5へ、自機に対して行われた操作の内容を表す操作データを送信する。   The terminal device 6 is large enough to be gripped by the user, and the user can use the terminal device 6 by holding it in his hand or by placing the terminal device 6 in a free position. This is a portable device. Although the detailed configuration will be described later, the terminal device 6 includes an LCD (Liquid Crystal Display) 61 that is a display means, and input means (a touch panel 62, a gyro sensor 604, etc., which will be described later). The terminal device 6 and the game apparatus body 5 (terminal communication module 28 (see FIG. 2)) can communicate wirelessly (may be wired). The terminal device 6 receives data of an image (for example, a game image) generated by the game apparatus body 5 from the game apparatus body 5 and displays an image indicated by the data on the LCD 61. In this embodiment, an LCD is used as the display device. However, the terminal device 6 may have any other display device such as a display device using EL (Electro Luminescence). . In addition, the terminal device 6 transmits operation data representing the content of the operation performed on the own device to the game apparatus body 5 including the terminal communication module 28.

次に、図2を参照して、ゲーム装置本体5の内部構成について説明する。図2は、ゲーム装置本体5の構成の一例を示すブロック図である。ゲーム装置本体5は、CPU(Central Processing Unit)10、システムLSI(Large Scale Integration)11、外部メインメモリ12、ROM/RTC(Read Only Memory/Real Time Clock)13、ディスクドライブ14、およびAV−IC(Audio Video−Integrated Circuit)15等を有する。   Next, the internal configuration of the game apparatus body 5 will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of the configuration of the game apparatus body 5. The game apparatus body 5 includes a CPU (Central Processing Unit) 10, a system LSI (Large Scale Integration) 11, an external main memory 12, a ROM / RTC (Read Only Memory / Real Time Clock) 13, a disk drive 14, and an AV-IC. (Audio Video-Integrated Circuit) 15 and the like.

CPU10は、光ディスク4に記憶されたプログラムを実行することによって処理を実行するものであり、ゲームプロセッサとして機能する。CPU10は、システムLSI11に接続される。システムLSI11には、CPU10の他、外部メインメモリ12、ROM/RTC13、ディスクドライブ14、およびAV−IC15が接続される。システムLSI11は、それに接続される各構成要素間のデータ転送の制御、表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。なお、システムLSI11の内部構成については、後述する。揮発性の外部メインメモリ12は、光ディスク4から読み出されたプログラムや、フラッシュメモリ17から読み出されたプログラムを記憶したり、各種データを記憶したりするものであり、CPU10のワーク領域やバッファ領域として用いられる。ROM/RTC13は、ゲーム装置本体5の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC)とを有する。ディスクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出し、後述する内部メインメモリ35または外部メインメモリ12に読み出したデータを書き込む。   The CPU 10 executes processing by executing a program stored on the optical disc 4 and functions as a game processor. The CPU 10 is connected to the system LSI 11. In addition to the CPU 10, an external main memory 12, a ROM / RTC 13, a disk drive 14, and an AV-IC 15 are connected to the system LSI 11. The system LSI 11 performs processing such as control of data transfer between components connected thereto, generation of an image to be displayed, and acquisition of data from an external device. The internal configuration of the system LSI 11 will be described later. The volatile external main memory 12 stores a program read from the optical disk 4, a program read from the flash memory 17, and various data, and stores a work area and a buffer of the CPU 10. Used as a region. The ROM / RTC 13 includes a ROM (so-called boot ROM) in which a program for starting up the game apparatus body 5 is incorporated, and a clock circuit (RTC) that counts time. The disk drive 14 reads program data, texture data, and the like from the optical disk 4 and writes the read data to the internal main memory 35 or the external main memory 12 described later.

システムLSI11には、入出力プロセッサ(I/Oプロセッサ)31、GPU(Graphics Processor Unit)32、DSP(Digital Signal Processor)33、VRAM(Video RAM)34、および内部メインメモリ35が設けられる。図示は省略するが、これらの構成要素31〜35は、内部バスによって互いに接続される。   The system LSI 11 includes an input / output processor (I / O processor) 31, a GPU (Graphics Processor Unit) 32, a DSP (Digital Signal Processor) 33, a VRAM (Video RAM) 34, and an internal main memory 35. Although not shown, these components 31 to 35 are connected to each other by an internal bus.

GPU32は、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(作画命令)に従って画像を生成する。VRAM34は、GPU32がグラフィクスコマンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)を記憶する。画像が生成される際には、GPU32は、VRAM34に記憶されたデータを用いて画像データを作成する。なお、本実施形態においては、ゲーム装置本体5は、モニタ2に表示するゲーム画像と、端末装置6に表示するゲーム画像との両方を生成することがある。以下では、モニタ2に表示されるゲーム画像を「モニタ用ゲーム画像」と呼び、端末装置6に表示されるゲーム画像を「端末用ゲーム画像」と呼ぶことがある。   The GPU 32 forms part of the drawing means and generates an image in accordance with a graphics command (drawing command) from the CPU 10. The VRAM 34 stores data (data such as polygon data and texture data) necessary for the GPU 32 to execute the graphics command. When an image is generated, the GPU 32 creates image data using data stored in the VRAM 34. In the present embodiment, the game apparatus body 5 may generate both a game image to be displayed on the monitor 2 and a game image to be displayed on the terminal device 6. Hereinafter, a game image displayed on the monitor 2 may be referred to as a “monitor game image”, and a game image displayed on the terminal device 6 may be referred to as a “terminal game image”.

DSP33は、オーディオプロセッサとして機能し、内部メインメモリ35や外部メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。なお、本実施形態においては、ゲーム音声についてもゲーム画像と同様、モニタ2のスピーカ2aから出力するゲーム音声と、端末装置6のスピーカから出力するゲーム音声との両方が生成されることがある。以下では、モニタ2から出力されるゲーム音声を「モニタ用ゲーム音声」と呼び、端末装置6から出力されるゲーム音声を「端末用ゲーム音声」と呼ぶことがある。   The DSP 33 functions as an audio processor, and generates sound data using sound data and sound waveform (tone color) data stored in the internal main memory 35 and the external main memory 12. In the present embodiment, both game sound output from the speaker 2a of the monitor 2 and game sound output from the speaker of the terminal device 6 may be generated for the game sound as well as the game image. Hereinafter, the game sound output from the monitor 2 may be referred to as “monitor game sound”, and the game sound output from the terminal device 6 may be referred to as “terminal game sound”.

上記のようにゲーム装置本体5において生成される画像および音声のうち、モニタ2に出力される画像データおよび音声データは、AV−IC15によって読み出される。AV−IC15は、AVコネクタ16を介して、読み出した画像データをモニタ2に出力するとともに、読み出した音声データをモニタ2に内蔵されるスピーカ2aに出力する。これによって、モニタ2に画像が表示されるとともにスピーカ2aから音が出力される。   Of the images and sounds generated in the game apparatus body 5 as described above, the image data and sound data output to the monitor 2 are read out by the AV-IC 15. The AV-IC 15 outputs the read image data to the monitor 2 via the AV connector 16 and outputs the read audio data to the speaker 2 a built in the monitor 2. As a result, an image is displayed on the monitor 2 and a sound is output from the speaker 2a.

また、ゲーム装置本体5において生成される画像および音声のうち、端末装置6に出力される画像データおよび音声データは、入出力プロセッサ31等によって端末装置6へ送信される。入出力プロセッサ31等による端末装置6へのデータの送信については後述する。   Of the images and sounds generated in the game apparatus body 5, image data and sound data output to the terminal device 6 are transmitted to the terminal device 6 by the input / output processor 31 or the like. Data transmission to the terminal device 6 by the input / output processor 31 and the like will be described later.

入出力プロセッサ31は、それに接続される構成要素との間でデータの送受信を実行したり、外部装置からのデータのダウンロードを実行したりする。入出力プロセッサ31は、フラッシュメモリ17、ネットワーク通信モジュール18、コントローラ通信モジュール19、拡張コネクタ20、メモリカード用コネクタ21、コーデックLSI27に接続される。また、ネットワーク通信モジュール18にはアンテナ22が接続される。コントローラ通信モジュール19にはアンテナ23が接続される。コーデックLSI27は端末通信モジュール28に接続され、端末通信モジュール28にはアンテナ29が接続される。   The input / output processor 31 transmits / receives data to / from components connected to the input / output processor 31 or downloads data from an external device. The input / output processor 31 is connected to the flash memory 17, network communication module 18, controller communication module 19, expansion connector 20, memory card connector 21, and codec LSI 27. An antenna 22 is connected to the network communication module 18. An antenna 23 is connected to the controller communication module 19. The codec LSI 27 is connected to a terminal communication module 28, and an antenna 29 is connected to the terminal communication module 28.

ゲーム装置本体5は、インターネット等のネットワークに接続して外部情報処理装置(例えば他のゲーム装置や、各種サーバ等)と通信を行うことが可能である。すなわち、入出力プロセッサ31は、ネットワーク通信モジュール18およびアンテナ22を介してネットワークに接続し、ネットワークに接続される外部情報処理装置と通信することができる。入出力プロセッサ31は、定期的にフラッシュメモリ17にアクセスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データがある場合には、ネットワーク通信モジュール18およびアンテナ22を介して当該データをネットワークに送信する。また、入出力プロセッサ31は、外部情報処理装置から送信されてくるデータやダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22、およびネットワーク通信モジュール18を介して受信し、受信したデータをフラッシュメモリ17に記憶する。CPU10は、プログラムを実行することにより、フラッシュメモリ17に記憶されたデータを読み出してプログラムで利用する。フラッシュメモリ17には、ゲーム装置本体5と外部情報処理装置との間で送受信されるデータの他、ゲーム装置本体5を利用してプレイしたゲームのセーブデータ(処理の結果データまたは途中データ)が記憶されてもよい。また、フラッシュメモリ17には、ゲームプログラム等のプログラムが記憶されてもよい。   The game apparatus body 5 can connect to a network such as the Internet and communicate with an external information processing apparatus (for example, another game apparatus or various servers). That is, the input / output processor 31 is connected to the network via the network communication module 18 and the antenna 22 and can communicate with an external information processing apparatus connected to the network. The input / output processor 31 periodically accesses the flash memory 17 to detect the presence / absence of data that needs to be transmitted to the network. If the data is present, the data is sent via the network communication module 18 and the antenna 22. To the network. Further, the input / output processor 31 receives data transmitted from the external information processing apparatus or data downloaded from the download server via the network, the antenna 22 and the network communication module 18, and receives the received data in the flash memory 17. To remember. By executing the program, the CPU 10 reads out the data stored in the flash memory 17 and uses it in the program. In the flash memory 17, in addition to data transmitted and received between the game apparatus body 5 and the external information processing apparatus, save data (process result data or intermediate data) of a game played using the game apparatus body 5 is stored. It may be stored. The flash memory 17 may store a program such as a game program.

また、ゲーム装置本体5は、コントローラ7および/またはボード型コントローラ9からの操作データを受信することが可能である。すなわち、入出力プロセッサ31は、アンテナ23およびコントローラ通信モジュール19を介して、コントローラ7および/またはボード型コントローラ9から送信される操作データ等を受信し、内部メインメモリ35または外部メインメモリ12のバッファ領域に記憶(一時記憶)する。なお、内部メインメモリ35には、外部メインメモリ12と同様に、光ディスク4から読み出されたプログラムや、フラッシュメモリ17から読み出されたプログラムを記憶したり、各種データを記憶したりしてもよく、CPU10のワーク領域やバッファ領域として用いられてもかまわない。   Further, the game apparatus body 5 can receive operation data from the controller 7 and / or the board type controller 9. That is, the input / output processor 31 receives operation data and the like transmitted from the controller 7 and / or the board-type controller 9 via the antenna 23 and the controller communication module 19 and buffers the internal main memory 35 or the external main memory 12. Store in the area (temporary storage). As in the case of the external main memory 12, the internal main memory 35 may store a program read from the optical disc 4, a program read from the flash memory 17, or various data. The CPU 10 may be used as a work area or a buffer area.

また、ゲーム装置本体5は、端末装置6との間で画像や音声等のデータを送受信することが可能である。入出力プロセッサ31は、端末装置6へゲーム画像(端末用ゲーム画像)を送信する場合、GPU32が生成したゲーム画像のデータをコーデックLSI27へ出力する。コーデックLSI27は、入出力プロセッサ31からの画像データに対して所定の圧縮処理を行う。端末通信モジュール28は、端末装置6との間で無線通信を行う。したがって、コーデックLSI27によって圧縮された画像データは、端末通信モジュール28によってアンテナ29を介して端末装置6へ送信される。なお、本実施形態では、ゲーム装置本体5から端末装置6へ送信される画像データはゲームに用いるものであり、ゲームにおいては表示される画像に遅延が生じるとゲームの操作性に悪影響が出る。そのため、ゲーム装置本体5から端末装置6への画像データの送信に関しては、できるだけ遅延が生じないようにすることが好ましい。したがって、本実施形態では、コーデックLSI27は、例えばH.264規格といった高効率の圧縮技術を用いて画像データを圧縮する。なお、それ以外の圧縮技術を用いてもよいし、通信速度が十分である場合には無圧縮で画像データを送信する構成であってもよい。また、端末通信モジュール28は、例えばWi−Fiの認証を受けた通信モジュールであり、例えばIEEE802.11n規格で採用されるMIMO(Multiple Input Multiple Output)の技術を用いて端末装置6との間の無線通信を高速に行うようにしてもよいし、他の通信方式を用いてもよい。   Further, the game apparatus body 5 can transmit and receive data such as images and sounds to and from the terminal device 6. When the game image (terminal game image) is transmitted to the terminal device 6, the input / output processor 31 outputs the game image data generated by the GPU 32 to the codec LSI 27. The codec LSI 27 performs predetermined compression processing on the image data from the input / output processor 31. The terminal communication module 28 performs wireless communication with the terminal device 6. Therefore, the image data compressed by the codec LSI 27 is transmitted to the terminal device 6 via the antenna 29 by the terminal communication module 28. In the present embodiment, the image data transmitted from the game apparatus body 5 to the terminal device 6 is used for the game. In the game, if the displayed image is delayed, the operability of the game is adversely affected. For this reason, it is preferable that the transmission of image data from the game apparatus body 5 to the terminal device 6 should be as delayless as possible. Therefore, in this embodiment, the codec LSI 27 is, for example, H.264. The image data is compressed using a highly efficient compression technique such as H.264 standard. Other compression techniques may be used, and when the communication speed is sufficient, the image data may be transmitted without compression. The terminal communication module 28 is a communication module that has received, for example, Wi-Fi authentication. For example, the terminal communication module 28 uses a MIMO (Multiple Input Multiple Output) technology adopted in the IEEE 802.11n standard, for example. Wireless communication may be performed at high speed, or another communication method may be used.

また、ゲーム装置本体5は、画像データの他、音声データを端末装置6へ送信する。すなわち、入出力プロセッサ31は、DSP33が生成した音声データを、コーデックLSI27を介して端末通信モジュール28へ出力する。コーデックLSI27は、音声データに対しても画像データと同様に圧縮処理を行う。音声データに対する圧縮の方式は、どのような方式であってもよいが、圧縮率が高く、音声の劣化が少ない方式が好ましい。また、他の実施形態においては、音声データは圧縮されずに送信されてもよい。端末通信モジュール28は、圧縮された画像データおよび音声データを、アンテナ29を介して端末装置6へ送信する。   In addition to the image data, the game apparatus body 5 transmits audio data to the terminal device 6. That is, the input / output processor 31 outputs the audio data generated by the DSP 33 to the terminal communication module 28 via the codec LSI 27. The codec LSI 27 performs compression processing on the audio data in the same manner as the image data. The compression method for the audio data may be any method, but a method with a high compression rate and less deterioration of the sound is preferable. In other embodiments, audio data may be transmitted without being compressed. The terminal communication module 28 transmits the compressed image data and audio data to the terminal device 6 via the antenna 29.

さらに、ゲーム装置本体5は、上記画像データおよび音声データの他に、必要に応じて各種の制御データを端末装置6へ送信する。制御データは、端末装置6が備える構成要素に対する制御指示を表すデータであり、例えばマーカ部(図5に示すマーカ部65)の点灯を制御する指示や、カメラ(図5に示すカメラ66)の撮像を制御する指示等を表す。入出力プロセッサ31は、CPU10の指示に応じて制御データを端末装置6へ送信する。なお、この制御データに関して、本実施形態ではコーデックLSI27はデータの圧縮処理を行わないが、他の実施形態においては圧縮処理を行うようにしてもよい。なお、ゲーム装置本体5から端末装置6へ送信される上述のデータは、必要に応じて暗号化がされていてもよいし、されていなくてもよい。   Furthermore, the game apparatus body 5 transmits various control data to the terminal device 6 as needed in addition to the image data and the sound data. The control data is data representing a control instruction for the constituent elements included in the terminal device 6, for example, an instruction for controlling lighting of the marker unit (marker unit 65 shown in FIG. 5) or a camera (camera 66 shown in FIG. 5). Indicates an instruction to control imaging. The input / output processor 31 transmits control data to the terminal device 6 in accordance with an instruction from the CPU 10. With respect to this control data, the codec LSI 27 does not perform data compression processing in the present embodiment, but may perform compression processing in other embodiments. Note that the above-described data transmitted from the game apparatus body 5 to the terminal device 6 may or may not be encrypted as necessary.

また、ゲーム装置本体5は、端末装置6から各種データを受信可能である。詳細は後述するが、本実施形態では、端末装置6は、操作データ、画像データ、および音声データを送信する。端末装置6から送信される各データは、アンテナ29を介して端末通信モジュール28によって受信される。ここで、端末装置6からの画像データおよび音声データは、ゲーム装置本体5から端末装置6への画像データおよび音声データと同様の圧縮処理が施されている。したがって、これら画像データおよび音声データについては、端末通信モジュール28からコーデックLSI27に送られ、コーデックLSI27によって伸張処理が施されて入出力プロセッサ31に出力される。一方、端末装置6からの操作データに関しては、画像や音声に比べてデータ量が少ないので、圧縮処理が施されていなくともよい。また、必要に応じて暗号化がされていてもよいし、されていなくてもよい。したがって、操作データは、端末通信モジュール28で受信された後、コーデックLSI27を介して入出力プロセッサ31に出力される。入出力プロセッサ31は、端末装置6から受信したデータを、内部メインメモリ35または外部メインメモリ12のバッファ領域に記憶(一時記憶)する。   Further, the game apparatus body 5 can receive various data from the terminal device 6. Although details will be described later, in the present embodiment, the terminal device 6 transmits operation data, image data, and audio data. Each data transmitted from the terminal device 6 is received by the terminal communication module 28 via the antenna 29. Here, the image data and audio data from the terminal device 6 are subjected to the same compression processing as the image data and audio data from the game apparatus body 5 to the terminal device 6. Therefore, these image data and audio data are sent from the terminal communication module 28 to the codec LSI 27, subjected to expansion processing by the codec LSI 27, and output to the input / output processor 31. On the other hand, the operation data from the terminal device 6 has a smaller data amount than images and sounds, and therefore may not be subjected to compression processing. Further, encryption may or may not be performed as necessary. Therefore, the operation data is received by the terminal communication module 28 and then output to the input / output processor 31 via the codec LSI 27. The input / output processor 31 stores (temporarily stores) the data received from the terminal device 6 in the buffer area of the internal main memory 35 or the external main memory 12.

また、ゲーム装置本体5は、他の機器や外部記憶媒体に接続することが可能である。すなわち、入出力プロセッサ31には、拡張コネクタ20およびメモリカード用コネクタ21が接続される。拡張コネクタ20は、USBやSCSIのようなインタフェースのためのコネクタであり、外部記憶媒体のようなメディアを接続したり、他のコントローラのような周辺機器を接続したり、有線の通信用コネクタを接続することによってネットワーク通信モジュール18に替えてネットワークとの通信を行ったりすることができる。メモリカード用コネクタ21は、メモリカードのような外部記憶媒体を接続するためのコネクタである。例えば、入出力プロセッサ31は、拡張コネクタ20やメモリカード用コネクタ21を介して、外部記憶媒体にアクセスし、データを保存したり、データを読み出したりすることができる。   Further, the game apparatus body 5 can be connected to other devices and external storage media. That is, the expansion connector 20 and the memory card connector 21 are connected to the input / output processor 31. The expansion connector 20 is a connector for an interface such as USB or SCSI, and connects a medium such as an external storage medium, a peripheral device such as another controller, or a wired communication connector. By connecting, communication with the network can be performed instead of the network communication module 18. The memory card connector 21 is a connector for connecting an external storage medium such as a memory card. For example, the input / output processor 31 can access an external storage medium via the expansion connector 20 or the memory card connector 21 to store data or read data.

ゲーム装置本体5(例えば、前部主面)には、電源ボタン24、リセットボタン25、光ディスク4を脱着する投入口、およびゲーム装置本体5の投入口から光ディスク4を取り出すイジェクトボタン26等が設けられている。電源ボタン24およびリセットボタン25は、システムLSI11に接続される。電源ボタン24がオンされると、ゲーム装置本体5の各構成要素に対して電力が供給される。リセットボタン25が押されると、システムLSI11は、ゲーム装置本体5の起動プログラムを再起動する。イジェクトボタン26は、ディスクドライブ14に接続される。イジェクトボタン26が押されると、ディスクドライブ14から光ディスク4が排出される。   The game apparatus body 5 (for example, the front main surface) is provided with a power button 24, a reset button 25, an insertion port for attaching / detaching the optical disk 4, an eject button 26 for removing the optical disk 4 from the insertion port of the game apparatus body 5, and the like. It has been. The power button 24 and the reset button 25 are connected to the system LSI 11. When the power button 24 is turned on, power is supplied to each component of the game apparatus body 5. When the reset button 25 is pressed, the system LSI 11 restarts the startup program of the game apparatus body 5. The eject button 26 is connected to the disk drive 14. When the eject button 26 is pressed, the optical disk 4 is ejected from the disk drive 14.

なお、他の実施形態においては、ゲーム装置本体5が備える各構成要素のうちでいくつかの構成要素は、ゲーム装置本体5とは別体の拡張機器として構成されてもよい。このとき、拡張機器は、例えば拡張コネクタ20を介してゲーム装置本体5と接続されるようにしてもよい。具体的には、拡張機器は、例えばコーデックLSI27、端末通信モジュール28、およびアンテナ29の各構成要素を備えており、拡張コネクタ20に対して着脱可能であってもよい。これによれば、上記各構成要素を備えていないゲーム装置本体に対して上記拡張機器を接続することによって、当該ゲーム装置本体を端末装置6と通信可能な構成とすることができる。   In other embodiments, some of the components included in the game apparatus body 5 may be configured as expansion devices that are separate from the game apparatus body 5. At this time, the expansion device may be connected to the game apparatus body 5 via the expansion connector 20, for example. Specifically, the expansion device includes, for example, the codec LSI 27, the terminal communication module 28, and the antenna 29, and may be detachable from the expansion connector 20. According to this, the said game device main body can be set as the structure which can communicate with the terminal device 6 by connecting the said extended apparatus with respect to the game device main body which is not provided with said each component.

次に、図3〜図5を参照して、端末装置6の構成について説明する。なお、図3は、端末装置6の外観構成の一例を示す図である。図3の(a)部は端末装置6の正面図であり、(b)部は上面図であり、(c)部は右側面図であり、(d)部は下面図である。図4は、ユーザが端末装置6を把持した様子の一例を示す図である。   Next, the configuration of the terminal device 6 will be described with reference to FIGS. FIG. 3 is a diagram illustrating an example of an external configuration of the terminal device 6. 3A is a front view of the terminal device 6, FIG. 3B is a top view, FIG. 3C is a right side view, and FIG. 3D is a bottom view. FIG. 4 is a diagram illustrating an example of a state in which the user holds the terminal device 6.

図3に示されるように、端末装置6は、大略的には横長の長方形の板状形状であるハウジング60を備える。ハウジング60は、ユーザが把持することができる程度の大きさである。したがって、ユーザは、端末装置6を持って動かしたり、端末装置6の配置位置を変更したりすることができる。   As shown in FIG. 3, the terminal device 6 includes a housing 60 that is roughly a horizontally-long rectangular plate shape. The housing 60 is large enough to be gripped by the user. Accordingly, the user can move the terminal device 6 or change the arrangement position of the terminal device 6.

端末装置6は、ハウジング60の表面にLCD61を有する。LCD61は、ハウジング60の表面の中央付近に設けられる。したがって、ユーザは、図4に示すようにLCD61の両側部分のハウジング60を持つことによって、LCD61の画面を見ながら端末装置6を持って動かすことができる。なお、図4では、ユーザがLCD61の左右両側の部分のハウジング60を持つことで端末装置6を横持ちで持つ(すなわち、長辺方向を横にして端末装置6を持つ)例を示しているが、端末装置6を縦持ちで持つ(すなわち、長辺方向を縦にして端末装置6を持つ)ことも可能である。   The terminal device 6 has an LCD 61 on the surface of the housing 60. The LCD 61 is provided near the center of the surface of the housing 60. Therefore, the user can move the terminal device 6 while looking at the screen of the LCD 61 by holding the housings 60 on both sides of the LCD 61 as shown in FIG. FIG. 4 shows an example in which the user holds the terminal device 6 sideways by holding the housings 60 on both the left and right sides of the LCD 61 (that is, the terminal device 6 is held with the long side direction in the horizontal direction). However, it is also possible to hold the terminal device 6 vertically (that is, hold the terminal device 6 with the long side direction vertical).

図3の(a)部に示すように、端末装置6は、操作手段として、LCD61の画面上にタッチパネル62を有する。本実施形態では、タッチパネル62は、抵抗膜方式のタッチパネルである。ただし、タッチパネル62は、抵抗膜方式に限らず、例えば静電容量方式等、任意の方式のタッチパネルを用いることができる。また、タッチパネル62は、シングルタッチ方式でもよいし、マルチタッチ方式であってもよい。本実施形態では、タッチパネル62として、LCD61の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル62の解像度とLCD61の解像度とが一致している必要はない。タッチパネル62に対する入力は、通常タッチペンを用いて行われるが、タッチペンに限らずユーザの指でタッチパネル62に対する入力をすることも可能である。なお、ハウジング60には、タッチパネル62に対する操作を行うために用いられるタッチペンを収納するための収納穴が設けられていてもよい。このように、端末装置6がタッチパネル62を備えているため、ユーザは、端末装置6を動かしながらタッチパネル62を操作することができる。つまり、ユーザは、LCD61の画面を動かしつつ、その画面に対して直接(タッチパネル62によって)入力を行うことができる。   As illustrated in part (a) of FIG. 3, the terminal device 6 includes a touch panel 62 on the screen of the LCD 61 as an operation unit. In the present embodiment, the touch panel 62 is a resistive film type touch panel. However, the touch panel 62 is not limited to the resistive film type, and any type of touch panel such as a capacitance type can be used. The touch panel 62 may be a single touch method or a multi touch method. In this embodiment, a touch panel 62 having the same resolution (detection accuracy) as the resolution of the LCD 61 is used. However, the resolution of the touch panel 62 and the resolution of the LCD 61 are not necessarily matched. The input to the touch panel 62 is normally performed using a touch pen. However, the input to the touch panel 62 is not limited to the touch pen and can be performed by a user's finger. The housing 60 may be provided with a storage hole for storing a touch pen used for performing an operation on the touch panel 62. Thus, since the terminal device 6 includes the touch panel 62, the user can operate the touch panel 62 while moving the terminal device 6. That is, the user can directly input (by the touch panel 62) to the screen while moving the screen of the LCD 61.

図3に示すように、端末装置6は、操作手段として、2つのアナログスティック63Aおよび63Bと、複数の操作ボタン64A〜64Lとを備えている。各アナログスティック63Aおよび63Bは、方向を指示するデバイスである。各アナログスティック63Aおよび63Bは、ユーザの指で操作されるスティック部がハウジング60の表面に対して任意の方向(上下左右および斜め方向の任意の角度)にスライドまたは傾倒することができるように構成されている。また、左アナログスティック63Aは、LCD61の画面の左側に、右アナログスティック63Bは、LCD61の画面の右側にそれぞれ設けられる。したがって、ユーザは、左右いずれの手でもアナログスティック63Aまたは63Bを用いて方向を指示する入力を行うことができる。また、図4に示すように、各アナログスティック63Aおよび63Bは、ユーザが端末装置6の左右部分を把持した状態で操作可能な位置に設けられるので、ユーザは、端末装置6を持って動かす場合においても各アナログスティック63Aおよび63Bを容易に操作することができる。   As shown in FIG. 3, the terminal device 6 includes two analog sticks 63A and 63B and a plurality of operation buttons 64A to 64L as operation means. Each analog stick 63A and 63B is a device that indicates a direction. Each analog stick 63A and 63B is configured such that the stick portion operated by the user's finger can slide or tilt in any direction (any angle in the up / down / left / right and diagonal directions) with respect to the surface of the housing 60. Has been. The left analog stick 63A is provided on the left side of the screen of the LCD 61, and the right analog stick 63B is provided on the right side of the screen of the LCD 61. Therefore, the user can input with the left or right hand to instruct the direction using the analog stick 63A or 63B. Further, as shown in FIG. 4, the analog sticks 63 </ b> A and 63 </ b> B are provided at positions where the user can operate while holding the left and right portions of the terminal device 6. Also, the analog sticks 63A and 63B can be easily operated.

各操作ボタン64A〜64Lは、所定の入力を行うための操作手段である。以下に示すように、各操作ボタン64A〜64Lは、ユーザが端末装置6の左右部分を把持した状態で操作可能な位置に設けられる(図4参照)。したがって、ユーザは、端末装置6を持って動かす場合においてもこれらの操作手段を容易に操作することができる。   The operation buttons 64A to 64L are operation means for performing predetermined inputs. As shown below, each operation button 64A-64L is provided in the position which a user can operate in the state which hold | gripped the right-and-left part of the terminal device 6 (refer FIG. 4). Therefore, the user can easily operate these operation means even when the user moves the terminal device 6.

図3の(a)部に示すように、ハウジング60の表面には、各操作ボタン64A〜64Lのうち、十字ボタン(方向入力ボタン)64Aと、操作ボタン64B〜64Hとが設けられる。これらの操作ボタン64A〜64Gは、ユーザの親指で操作可能な位置に配置されている(図4参照)。   As shown in part (a) of FIG. 3, among the operation buttons 64A to 64L, a cross button (direction input button) 64A and operation buttons 64B to 64H are provided on the surface of the housing 60. These operation buttons 64A to 64G are arranged at positions where they can be operated with the thumb of the user (see FIG. 4).

十字ボタン64Aは、LCD61の左側であって、左アナログスティック63Aの下側に設けられる。つまり、十字ボタン64Aは、ユーザの左手で操作可能な位置に配置されている。十字ボタン64Aは、十字の形状を有しており、上下左右の方向を指示することが可能なボタンである。また、操作ボタン64B〜64Dは、LCD61の下側に設けられる。これら3つの操作ボタン64B〜64Dは、左右両方の手で操作可能な位置に配置されている。また、4つの操作ボタン64E〜64Hは、LCD61の右側であって、右アナログスティック63Bの下側に設けられる。つまり、4つの操作ボタン64E〜64Hは、ユーザの右手で操作可能な位置に配置されている。さらに、4つの操作ボタン64E〜64Hは、(4つの操作ボタン64E〜64Hの中心位置に対して)上下左右の位置関係となるように配置されている。したがって、端末装置6は、ユーザに上下左右の方向を指示させるためのボタンとして4つの操作ボタン64E〜64Hを機能させることも可能である。   The cross button 64A is provided on the left side of the LCD 61 and below the left analog stick 63A. That is, the cross button 64A is arranged at a position where it can be operated with the left hand of the user. The cross button 64 </ b> A has a cross shape and is a button capable of instructing the vertical and horizontal directions. The operation buttons 64B to 64D are provided below the LCD 61. These three operation buttons 64B to 64D are arranged at positions that can be operated by both the left and right hands. The four operation buttons 64E to 64H are provided on the right side of the LCD 61 and below the right analog stick 63B. That is, the four operation buttons 64E to 64H are arranged at positions that can be operated with the user's right hand. Further, the four operation buttons 64E to 64H are arranged so as to have a vertical / left / right positional relationship (relative to the center position of the four operation buttons 64E to 64H). Therefore, the terminal device 6 can also function the four operation buttons 64E to 64H as buttons for instructing the user in the up / down / left / right directions.

また、図3の(a)部、(b)部、および(c)部に示すように、第1Lボタン64Iおよび第1Rボタン64Jは、ハウジング60の斜め上部分(左上部分および右上部分)に設けられる。具体的には、第1Lボタン64Iは、板状のハウジング60における上側の側面の左端に設けられ、上側および左側の側面から突設されている。また、第1Rボタン64Jは、ハウジング60における上側の側面の右端に設けられ、上側および右側の側面から突設されている。このように、第1Lボタン64Iは、ユーザの左手人差し指で操作可能な位置に配置され、第1Rボタン64Jは、ユーザの右手人差し指で操作可能な位置に配置される(図4参照)。   Further, as shown in FIGS. 3A, 3B, and 3C, the first L button 64I and the first R button 64J are provided on an oblique upper portion (upper left portion and upper right portion) of the housing 60. Provided. Specifically, the first L button 64I is provided at the left end of the upper side surface of the plate-like housing 60, and protrudes from the upper and left side surfaces. The first R button 64J is provided at the right end of the upper side surface of the housing 60, and protrudes from the upper and right side surfaces. In this way, the first L button 64I is disposed at a position operable with the user's left index finger, and the first R button 64J is disposed at a position operable with the user's right hand index finger (see FIG. 4).

また、図3の(b)部および(c)部に示すように、第2Lボタン64Kおよび第2Rボタン64Lは、板状のハウジング60の裏面(すなわちLCD61が設けられる表面の反対側の面)に突出して設けられた足部68Aおよび68Bにそれぞれ突設される。具体的には、第2Lボタン64Kは、ハウジング60の裏面の左側(表面側から見たときの左側)のやや上方に設けられ、第2Rボタン64Lは、ハウジング60の裏面の右側(表面側から見たときの右側)のやや上方に設けられる。換言すれば、第2Lボタン64Kは、表面に設けられる左アナログスティック63Aの概ね反対側の位置に設けられ、第2Rボタン64Lは、表面に設けられる右アナログスティック63Bの概ね反対側の位置に設けられる。第2Lボタン64Kは、ユーザの左手中指で操作可能な位置に配置され、第2Rボタン64Lは、ユーザの右手中指で操作可能な位置に配置される(図4参照)。また、第2Lボタン64Kおよび第2Rボタン64Lは、図3の(c)部に示すように、上記足部68Aおよび68Bの斜め上方を向く面に設けられ、斜め上方を向くボタン面を有する。ユーザが端末装置6を把持した場合には、中指が上下方向に動くと考えられるので、ボタン面を上方に向けることで、ユーザは第2Lボタン64Kおよび第2Rボタン64Lを押下しやすくなる。また、ハウジング60の裏面に足部68Aおよび68Bが設けられることにより、ユーザはハウジング60を把持しやすくなり、かつ、足部68Aおよび68Bに操作ボタンが設けられることで、ハウジング60を把持したまま操作しやすくなる。   As shown in FIGS. 3B and 3C, the second L button 64K and the second R button 64L are provided on the back surface of the plate-like housing 60 (that is, the surface opposite to the surface on which the LCD 61 is provided). Are protruded from the leg portions 68A and 68B. Specifically, the second L button 64K is provided slightly above the left side (left side when viewed from the front side) of the housing 60, and the second R button 64L is provided on the right side (from the front side) of the back side of the housing 60. It is provided slightly above the right side when viewed. In other words, the second L button 64K is provided at a position substantially opposite to the left analog stick 63A provided on the front surface, and the second R button 64L is provided at a position substantially opposite to the right analog stick 63B provided on the front surface. It is done. The second L button 64K is disposed at a position that can be operated by the user's left hand middle finger, and the second R button 64L is disposed at a position that can be operated by the user's right hand middle finger (see FIG. 4). Further, as shown in FIG. 3C, the second L button 64K and the second R button 64L are provided on the diagonally upward surfaces of the feet 68A and 68B, and have button surfaces that are diagonally upward. When the user grips the terminal device 6, it is considered that the middle finger moves in the vertical direction. Therefore, the user can easily press the second L button 64K and the second R button 64L by turning the button surface upward. Further, by providing the foot portions 68A and 68B on the back surface of the housing 60, the user can easily grip the housing 60, and the operation buttons are provided on the foot portions 68A and 68B, so that the housing 60 is held. It becomes easy to operate.

なお、図3に示す端末装置6に関しては、第2Lボタン64Kおよび第2Rボタン64Lが裏面に設けられるので、LCD61の画面(ハウジング60の表面)が上を向いた状態で端末装置6を載置させる場合、画面が完全に水平にはならない場合がある。そのため、他の実施形態においては、ハウジング60の裏面に3つ以上の足部が形成されてもよい。これによれば、LCD61の画面が上を向いた状態では3つ以上の足部が床面と接するように端末装置6を載置できるので、画面が水平になるように端末装置6を載置することができる。また、着脱可能な足部を装着することで端末装置6を水平に載置可能にしてもよい。   3, since the second L button 64K and the second R button 64L are provided on the back surface, the terminal device 6 is placed with the screen of the LCD 61 (the surface of the housing 60) facing upward. The screen may not be completely horizontal. Therefore, in other embodiments, three or more legs may be formed on the back surface of the housing 60. According to this, since the terminal device 6 can be placed so that three or more feet are in contact with the floor surface when the screen of the LCD 61 is facing upward, the terminal device 6 is placed so that the screen is horizontal. can do. Alternatively, the terminal device 6 may be placed horizontally by attaching a detachable foot.

各操作ボタン64A〜64Lには、ゲームプログラムに応じた機能が適宜割り当てられる。例えば、十字ボタン64Aおよび操作ボタン64E〜64Hは、方向指示操作や選択操作等に用いられてもよいし、各操作ボタン64B〜64Eは、決定操作やキャンセル操作等に用いられてもよい。   Functions corresponding to the game program are appropriately assigned to the operation buttons 64A to 64L. For example, the cross button 64A and the operation buttons 64E to 64H may be used for a direction instruction operation or a selection operation, and the operation buttons 64B to 64E may be used for a determination operation or a cancel operation.

なお、図示しないが、端末装置6は、端末装置6の電源をオン/オフするための電源ボタンを有している。また、端末装置6は、LCD61の画面表示をオン/オフするための操作ボタンや、ゲーム装置本体5との接続設定(ペアリング)を行うための操作ボタンや、スピーカ(図5に示すスピーカ607)の音量を調節するための操作ボタンを有していてもよい。   Although not shown, the terminal device 6 has a power button for turning on / off the terminal device 6. Further, the terminal device 6 has an operation button for turning on / off the screen display of the LCD 61, an operation button for setting connection (pairing) with the game apparatus body 5, and a speaker (a speaker 607 shown in FIG. 5). ) May have an operation button for adjusting the volume.

図3の(a)部に示すように、端末装置6は、マーカ65Aおよびマーカ65Bからなるマーカ部(図5に示すマーカ部65)をハウジング60の表面に備えている。一例として、マーカ部65は、LCD61の上側に設けられる。マーカ65Aおよびマーカ65Bは、マーカ8のマーカ8Lおよび8Rと同様、それぞれ1以上の赤外LEDで構成される。マーカ部65は、上述したマーカ8と同様、マーカ部65に対するコントローラ7の動き等をゲーム装置本体5が算出するために用いられる。また、ゲーム装置本体5は、マーカ部65が備える各赤外LEDの点灯を制御することが可能である。   As shown in part (a) of FIG. 3, the terminal device 6 includes a marker part (marker part 65 shown in FIG. 5) including a marker 65 </ b> A and a marker 65 </ b> B on the surface of the housing 60. As an example, the marker unit 65 is provided on the upper side of the LCD 61. Like the markers 8L and 8R of the marker 8, the marker 65A and the marker 65B are each composed of one or more infrared LEDs. Similar to the marker 8 described above, the marker unit 65 is used by the game apparatus body 5 to calculate the movement of the controller 7 with respect to the marker unit 65. Further, the game apparatus body 5 can control lighting of each infrared LED included in the marker unit 65.

端末装置6は、撮像手段であるカメラ66を備えている。カメラ66は、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。例えば、カメラ66は、ハウジング60の表面に設けられる。したがって、カメラ66は、端末装置6を持っているユーザの顔を撮像することができ、一例としてLCD61を見ながらゲームを行っている状態におけるユーザを撮像することができる。   The terminal device 6 includes a camera 66 that is an imaging unit. The camera 66 includes an imaging device (for example, a CCD image sensor or a CMOS image sensor) having a predetermined resolution, and a lens. For example, the camera 66 is provided on the surface of the housing 60. Therefore, the camera 66 can take an image of the face of the user who has the terminal device 6, and can take an image of the user who is playing the game while viewing the LCD 61 as an example.

なお、端末装置6は、音声入力手段であるマイク(図5に示すマイク609)を備えている。ハウジング60の表面には、マイクロフォン用孔60bが設けられる。マイク609は、マイクロフォン用孔60bの内側となるハウジング60内部に設けられる。マイク609は、ユーザの音声等、端末装置6の周囲の音を検出する。   The terminal device 6 includes a microphone (a microphone 609 shown in FIG. 5) that is a voice input unit. A microphone hole 60 b is provided on the surface of the housing 60. The microphone 609 is provided inside the housing 60 that is inside the microphone hole 60b. The microphone 609 detects sounds around the terminal device 6 such as a user's voice.

端末装置6は、音声出力手段であるスピーカ(図5に示すスピーカ607)を備えている。図3の(d)部に示すように、ハウジング60の下側側面にはスピーカ孔60aが設けられる。スピーカ607の出力音は、スピーカ孔60aから出力される。本実施形態では、端末装置6は、2つのスピーカを備えており、左スピーカおよび右スピーカのそれぞれの位置にスピーカ孔60aが設けられる。   The terminal device 6 includes a speaker (speaker 607 shown in FIG. 5) that is an audio output means. As shown in part (d) of FIG. 3, a speaker hole 60 a is provided on the lower side surface of the housing 60. The output sound of the speaker 607 is output from the speaker hole 60a. In the present embodiment, the terminal device 6 includes two speakers, and a speaker hole 60a is provided at each position of the left speaker and the right speaker.

また、端末装置6は、他の装置を端末装置6に接続するための拡張コネクタ67を備えている。本実施形態においては、図3の(d)部に示すように、拡張コネクタ67は、ハウジング60の下側側面に設けられる。なお、拡張コネクタ67に接続される他の装置はどのようなものであってもよく、例えば、特定のゲームに用いるコントローラ(銃型のコントローラ等)やキーボード等の入力装置であってもよい。他の装置を接続する必要がなければ、拡張コネクタ67は設けられていなくともよい。   The terminal device 6 includes an expansion connector 67 for connecting other devices to the terminal device 6. In the present embodiment, the extension connector 67 is provided on the lower side surface of the housing 60 as shown in FIG. Note that any other device connected to the expansion connector 67 may be used. For example, a controller (such as a gun-type controller) used for a specific game or an input device such as a keyboard may be used. If it is not necessary to connect another device, the expansion connector 67 may not be provided.

なお、図3に示した端末装置6に関して、各操作ボタンやハウジング60の形状や、各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。   In addition, regarding the terminal device 6 shown in FIG. 3, the shape of each operation button and the housing 60, the number of components, the installation position, and the like are merely examples, and other shapes, numbers, and installation positions are included. Also good.

次に、図5を参照して、端末装置6の内部構成について説明する。図5は、端末装置6の内部構成の一例を示すブロック図である。図5に示すように、端末装置6は、図3に示した構成の他、タッチパネルコントローラ601、磁気センサ602、加速度センサ603、ジャイロセンサ604、ユーザインタフェースコントローラ(UIコントローラ)605、コーデックLSI606、スピーカ607、サウンドIC608、マイク609、無線モジュール610、アンテナ611、赤外線通信モジュール612、フラッシュメモリ613、電源IC614、電池615、およびバイブレータ619を備える。これらの電子部品は、電子回路基板上に実装されてハウジング60内に収納される。   Next, the internal configuration of the terminal device 6 will be described with reference to FIG. FIG. 5 is a block diagram illustrating an example of the internal configuration of the terminal device 6. As shown in FIG. 5, in addition to the configuration shown in FIG. 3, the terminal device 6 includes a touch panel controller 601, a magnetic sensor 602, an acceleration sensor 603, a gyro sensor 604, a user interface controller (UI controller) 605, a codec LSI 606, a speaker. 607, a sound IC 608, a microphone 609, a wireless module 610, an antenna 611, an infrared communication module 612, a flash memory 613, a power supply IC 614, a battery 615, and a vibrator 619. These electronic components are mounted on an electronic circuit board and stored in the housing 60.

UIコントローラ605は、各種の入出力部に対するデータの入出力を制御するための回路である。UIコントローラ605は、タッチパネルコントローラ601、アナログスティック63(アナログスティック63Aおよび63B)、操作ボタン64(各操作ボタン64A〜64L)、マーカ部65、磁気センサ602、加速度センサ603、ジャイロセンサ604、およびバイブレータ619に接続される。また、UIコントローラ605は、コーデックLSI606と拡張コネクタ67とに接続される。また、UIコントローラ605には電源IC614が接続され、UIコントローラ605を介して各部に電力が供給される。電源IC614には内蔵の電池615が接続され、電力が供給される。また、電源IC614には、コネクタ等を介して外部電源から電力を取得可能な充電器616またはケーブルを接続することが可能であり、端末装置6は、充電器616またはケーブルを用いて外部電源からの電力供給と充電とを行うことができる。なお、端末装置6は、図示しない充電機能を有するクレイドルに端末装置6を装着することで充電を行うようにしてもよい。   The UI controller 605 is a circuit for controlling data input / output with respect to various input / output units. The UI controller 605 includes a touch panel controller 601, an analog stick 63 (analog sticks 63A and 63B), operation buttons 64 (operation buttons 64A to 64L), a marker unit 65, a magnetic sensor 602, an acceleration sensor 603, a gyro sensor 604, and a vibrator. 619. The UI controller 605 is connected to the codec LSI 606 and the expansion connector 67. Further, a power supply IC 614 is connected to the UI controller 605, and power is supplied to each unit via the UI controller 605. A built-in battery 615 is connected to the power supply IC 614 to supply power. The power supply IC 614 can be connected to a charger 616 or a cable that can acquire power from an external power source via a connector or the like. Power supply and charging can be performed. The terminal device 6 may be charged by attaching the terminal device 6 to a cradle having a charging function (not shown).

タッチパネルコントローラ601は、タッチパネル62に接続され、タッチパネル62の制御を行う回路である。タッチパネルコントローラ601は、タッチパネル62からの信号に基づいて所定の形式のタッチ位置データを生成してUIコントローラ605へ出力する。タッチ位置データは、タッチパネル62の入力面において入力が行われた位置の座標を表す。なお、タッチパネルコントローラ601は、タッチパネル62からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。また、UIコントローラ605からタッチパネルコントローラ601へは、タッチパネル62に対する各種の制御指示が出力される。   The touch panel controller 601 is a circuit that is connected to the touch panel 62 and controls the touch panel 62. The touch panel controller 601 generates touch position data in a predetermined format based on a signal from the touch panel 62 and outputs it to the UI controller 605. The touch position data represents the coordinates of the position where the input is performed on the input surface of the touch panel 62. The touch panel controller 601 reads signals from the touch panel 62 and generates touch position data at a rate of once per predetermined time. Various control instructions for the touch panel 62 are output from the UI controller 605 to the touch panel controller 601.

アナログスティック63は、ユーザの指で操作されるスティック部がスライドした(または傾倒した)方向および量を表すスティックデータをUIコントローラ605へ出力する。また、操作ボタン64は、各操作ボタン64A〜64Lに対する入力状況(押下されたか否か)を表す操作ボタンデータをUIコントローラ605へ出力する。   The analog stick 63 outputs to the UI controller 605 stick data representing the direction and amount in which the stick unit operated by the user's finger has slid (or tilted). In addition, the operation button 64 outputs operation button data representing the input status (whether or not it has been pressed) to each of the operation buttons 64 </ b> A to 64 </ b> L to the UI controller 605.

磁気センサ602は、磁界の大きさおよび方向を検知することで方位を検出する。検出された方位を示す方位データは、UIコントローラ605へ出力される。また、UIコントローラ605から磁気センサ602へは、磁気センサ602に対する制御指示が出力される。磁気センサ602に関しては、MI(磁気インピーダンス)素子、フラックスゲートセンサ、ホール素子、GMR(巨大磁気抵抗)素子、TMR(トンネル磁気抵抗)素子、あるいはAMR(異方性磁気抵抗)素子等を用いたセンサがあるが、方位を検出することができればどのようなものが用いられてもよい。なお、厳密には、地磁気以外に磁界が発生している場所においては、得られた方位データは方位を示さないことになるが、そのような場合であっても、端末装置6が動いた場合には方位データが変化するため、端末装置6の姿勢の変化を算出することができる。   The magnetic sensor 602 detects the direction by detecting the magnitude and direction of the magnetic field. The azimuth data indicating the detected azimuth is output to the UI controller 605. Also, a control instruction for the magnetic sensor 602 is output from the UI controller 605 to the magnetic sensor 602. Regarding the magnetic sensor 602, an MI (magnetic impedance) element, a flux gate sensor, a Hall element, a GMR (giant magnetoresistance) element, a TMR (tunnel magnetoresistance) element, an AMR (anisotropic magnetoresistance) element, or the like was used. Although there is a sensor, any sensor may be used as long as it can detect the direction. Strictly speaking, in a place where a magnetic field is generated other than the geomagnetism, the obtained azimuth data does not indicate the azimuth, but even in such a case, the terminal device 6 moves. Since the azimuth data changes, the change in the attitude of the terminal device 6 can be calculated.

加速度センサ603は、ハウジング60の内部に設けられ、3軸(図3の(a)部に示すxyz軸)方向に沿った直線加速度の大きさを検出する。具体的には、加速度センサ603は、ハウジング60の長辺方向をx軸(マーカ部65がLCD61の上側に配置された状態でLCD61の表示画面に向かって当該長辺方向に沿った右方向をx軸正方向とする)、ハウジング60の短辺方向をy軸(マーカ部65がLCD61の上側に配置された状態でLCD61の表示画面に向かって当該短辺方向に沿った上方向をy軸正方向とする)、ハウジング60の表面に対して垂直な方向をz軸(LCD61の表示画面奥行方向をz軸正方向とする)として、各軸の直線加速度の大きさを検出する。検出された加速度を表す加速度データはUIコントローラ605へ出力される。また、UIコントローラ605から加速度センサ603へは、加速度センサ603に対する制御指示が出力される。加速度センサ603は、本実施形態では例えば静電容量式のMEMS型加速度センサであるとするが、他の実施形態においては他の方式の加速度センサを用いるようにしてもよい。また、加速度センサ603は1軸または2軸方向を検出する加速度センサであってもよい。   The acceleration sensor 603 is provided inside the housing 60 and detects the magnitude of linear acceleration along the direction of the three axes (the xyz axis shown in FIG. 3A). Specifically, the acceleration sensor 603 sets the long side direction of the housing 60 to the x axis (in the state in which the marker unit 65 is arranged on the upper side of the LCD 61, the right direction along the long side direction toward the display screen of the LCD 61). x-axis positive direction), the short side direction of the housing 60 is the y-axis (the marker unit 65 is arranged on the upper side of the LCD 61, and the upward direction along the short side direction toward the display screen of the LCD 61 is the y-axis. The magnitude of the linear acceleration of each axis is detected with the direction perpendicular to the surface of the housing 60 as the z-axis (the display screen depth direction of the LCD 61 is the z-axis positive direction). Acceleration data representing the detected acceleration is output to the UI controller 605. Further, a control instruction for the acceleration sensor 603 is output from the UI controller 605 to the acceleration sensor 603. The acceleration sensor 603 is, for example, a capacitive MEMS acceleration sensor in the present embodiment, but other types of acceleration sensors may be used in other embodiments. Further, the acceleration sensor 603 may be an acceleration sensor that detects a uniaxial or biaxial direction.

ジャイロセンサ604は、ハウジング60の内部に設けられ、上記x軸、y軸、およびz軸の3軸周りの角速度をそれぞれ検出する。検出された角速度を表す角速度データは、UIコントローラ605へ出力される。また、UIコントローラ605からジャイロセンサ604へは、ジャイロセンサ604に対する制御指示が出力される。なお、3軸の角速度を検出するために用いられるジャイロセンサの数および組み合わせはどのようなものであってもよく、ジャイロセンサ604は、2軸ジャイロセンサと1軸ジャイロセンサとで構成されてもよい。また、ジャイロセンサ604は1軸または2軸方向を検出するジャイロセンサであってもよい。   The gyro sensor 604 is provided inside the housing 60 and detects angular velocities around the three axes of the x-axis, the y-axis, and the z-axis. Angular velocity data representing the detected angular velocity is output to the UI controller 605. Further, a control instruction for the gyro sensor 604 is output from the UI controller 605 to the gyro sensor 604. Any number and combination of gyro sensors may be used for detecting the triaxial angular velocity, and the gyro sensor 604 may be composed of a two-axis gyro sensor and a one-axis gyro sensor. Good. Further, the gyro sensor 604 may be a gyro sensor that detects a uniaxial or biaxial direction.

バイブレータ619は、例えば振動モータやソレノイドであり、UIコントローラ605と接続される。UIコントローラ605からバイブレータ619へ出力される制御指示に応じて、バイブレータ619が作動することによって端末装置6に振動が発生する。これによって、端末装置6を把持しているユーザの手にその振動が伝達される、いわゆる振動対応ゲームを実現することができる。   The vibrator 619 is, for example, a vibration motor or a solenoid, and is connected to the UI controller 605. In response to a control instruction output from the UI controller 605 to the vibrator 619, the vibrator 619 operates to generate vibration in the terminal device 6. As a result, a so-called vibration-compatible game in which the vibration is transmitted to the user's hand holding the terminal device 6 can be realized.

UIコントローラ605は、上記の各構成要素から受け取ったタッチ位置データ、スティックデータ、操作ボタンデータ、方位データ、加速度データ、および角速度データを含む操作データをコーデックLSI606に出力する。なお、拡張コネクタ67を介して端末装置6に他の装置が接続される場合には、当該他の装置に対する操作を表すデータが上記操作データにさらに含まれていてもよい。   The UI controller 605 outputs operation data including touch position data, stick data, operation button data, azimuth data, acceleration data, and angular velocity data received from the above components to the codec LSI 606. When another device is connected to the terminal device 6 via the expansion connector 67, the operation data may further include data representing an operation on the other device.

コーデックLSI606は、ゲーム装置本体5へ送信するデータに対する圧縮処理、およびゲーム装置本体5から送信されたデータに対する伸張処理を行う回路である。コーデックLSI606には、LCD61、カメラ66、サウンドIC608、無線モジュール610、フラッシュメモリ613、および赤外線通信モジュール612が接続される。また、コーデックLSI606は、CPU617と内部メモリ618とを含む。例えば、端末装置6は、ゲーム処理自体を行わない構成であるが、端末装置6の管理や通信のための最小限のプログラムを実行する必要がある。一例として、電源投入時にフラッシュメモリ613に格納されたプログラムを内部メモリ618に読み出してCPU617が実行することで、端末装置6が起動する。また、内部メモリ618の一部の領域は、LCD61のためのVRAMとして使用される。   The codec LSI 606 is a circuit that performs compression processing on data transmitted to the game apparatus body 5 and expansion processing on data transmitted from the game apparatus body 5. Connected to the codec LSI 606 are an LCD 61, a camera 66, a sound IC 608, a wireless module 610, a flash memory 613, and an infrared communication module 612. The codec LSI 606 includes a CPU 617 and an internal memory 618. For example, although the terminal device 6 is configured not to perform the game process itself, it is necessary to execute a minimum program for management and communication of the terminal device 6. As an example, when the power is turned on, a program stored in the flash memory 613 is read into the internal memory 618 and executed by the CPU 617, whereby the terminal device 6 is activated. A part of the internal memory 618 is used as a VRAM for the LCD 61.

カメラ66は、ゲーム装置本体5からの指示に従って画像を撮像し、撮像した画像データをコーデックLSI606へ出力する。また、コーデックLSI606からカメラ66へは、画像の撮像指示等、カメラ66に対する制御指示が出力される。なお、カメラ66は、動画の撮影も可能である。すなわち、カメラ66は、繰り返し撮像を行って画像データをコーデックLSI606へ繰り返し出力することも可能である。   The camera 66 captures an image in accordance with an instruction from the game apparatus body 5 and outputs the captured image data to the codec LSI 606. Control instructions for the camera 66 such as an image capturing instruction are output from the codec LSI 606 to the camera 66. Note that the camera 66 can also capture moving images. That is, the camera 66 can repeatedly capture images and repeatedly output image data to the codec LSI 606.

サウンドIC608は、スピーカ607およびマイク609に接続され、スピーカ607およびマイク609への音声データの入出力を制御する回路である。すなわち、コーデックLSI606から音声データを受け取った場合、サウンドIC608は、当該音声データに対してD/A変換を行って得られる音声信号をスピーカ607へ出力し、スピーカ607から音を出力させる。また、マイク609は、端末装置6に伝わる音(ユーザの音声等)を検知して、当該音を示す音声信号をサウンドIC608へ出力する。サウンドIC608は、マイク609からの音声信号に対してA/D変換を行い、所定の形式の音声データをコーデックLSI606へ出力する。   The sound IC 608 is a circuit that is connected to the speaker 607 and the microphone 609 and controls input / output of audio data to and from the speaker 607 and the microphone 609. That is, when audio data is received from the codec LSI 606, the sound IC 608 outputs an audio signal obtained by performing D / A conversion on the audio data to the speaker 607, and outputs sound from the speaker 607. The microphone 609 detects sound (such as user's voice) transmitted to the terminal device 6 and outputs a sound signal indicating the sound to the sound IC 608. The sound IC 608 performs A / D conversion on the audio signal from the microphone 609 and outputs audio data in a predetermined format to the codec LSI 606.

コーデックLSI606は、カメラ66からの画像データ、マイク609からの音声データ、およびUIコントローラ605からの操作データを、端末操作データとして無線モジュール610を介してゲーム装置本体5へ送信する。本実施形態では、コーデックLSI606は、画像データおよび音声データに対して、コーデックLSI27と同様の圧縮処理を行う。圧縮された画像データおよび音声データと上記端末操作データとは、送信データとして無線モジュール610に出力される。無線モジュール610にはアンテナ611が接続されており、無線モジュール610はアンテナ611を介してゲーム装置本体5へ上記送信データを送信する。無線モジュール610は、ゲーム装置本体5の端末通信モジュール28と同様の機能を有している。すなわち、無線モジュール610は、例えばIEEE802.11nの規格に準拠した方式により、無線LANに接続する機能を有する。無線モジュール610から送信されるデータは、必要に応じて暗号化されていてもよいし、されていなくてもよい。   The codec LSI 606 transmits image data from the camera 66, audio data from the microphone 609, and operation data from the UI controller 605 to the game apparatus body 5 via the wireless module 610 as terminal operation data. In the present embodiment, the codec LSI 606 performs the same compression processing as the codec LSI 27 on the image data and audio data. The compressed image data and audio data and the terminal operation data are output to the wireless module 610 as transmission data. An antenna 611 is connected to the wireless module 610, and the wireless module 610 transmits the transmission data to the game apparatus body 5 via the antenna 611. The wireless module 610 has the same function as the terminal communication module 28 of the game apparatus body 5. That is, the wireless module 610 has a function of connecting to a wireless LAN by a method compliant with, for example, the IEEE 802.11n standard. Data transmitted from the wireless module 610 may or may not be encrypted as necessary.

以上のように、端末装置6からゲーム装置本体5へ送信される送信データには、操作データ(端末操作データ)、画像データ、および音声データが含まれる。なお、拡張コネクタ67を介して端末装置6に他の装置が接続される場合には、当該他の装置から受け取ったデータが上記送信データにさらに含まれていてもよい。また、赤外線通信モジュール612は、他の装置との間で例えばIRDAの規格に従った赤外線通信を行う。コーデックLSI606は、赤外線通信によって受信したデータを、必要に応じて上記送信データに含めてゲーム装置本体5へ送信してもよい。   As described above, the transmission data transmitted from the terminal device 6 to the game apparatus body 5 includes operation data (terminal operation data), image data, and audio data. When another device is connected to the terminal device 6 via the extension connector 67, the data received from the other device may be further included in the transmission data. In addition, the infrared communication module 612 performs infrared communication with other devices in accordance with, for example, the IRDA standard. The codec LSI 606 may transmit the data received by infrared communication to the game apparatus body 5 by including the data in the transmission data as necessary.

また、上述のように、ゲーム装置本体5から端末装置6へは、圧縮された画像データおよび音声データが送信される。これらのデータは、アンテナ611および無線モジュール610を介してコーデックLSI606で受信される。コーデックLSI606は、受信した画像データおよび音声データを伸張する。伸張された画像データは、LCD61へ出力され、当該画像データに応じた画像がLCD61に表示される。また、伸張された音声データは、サウンドIC608へ出力され、当該音声データに応じた音がスピーカ607から出力される。   Further, as described above, compressed image data and audio data are transmitted from the game apparatus body 5 to the terminal device 6. These data are received by the codec LSI 606 via the antenna 611 and the wireless module 610. The codec LSI 606 decompresses the received image data and audio data. The expanded image data is output to the LCD 61, and an image corresponding to the image data is displayed on the LCD 61. The expanded audio data is output to the sound IC 608, and a sound corresponding to the audio data is output from the speaker 607.

また、ゲーム装置本体5から受信されるデータに制御データが含まれる場合、コーデックLSI606およびUIコントローラ605は、制御データに従った制御指示を各部に行う。上述のように、制御データは、端末装置6が備える各構成要素(本実施形態では、カメラ66、タッチパネルコントローラ601、マーカ部65、各センサ602〜604、バイブレータ619、および赤外線通信モジュール612)に対する制御指示を表すデータである。本実施形態では、制御データが表す制御指示としては、上記各構成要素を動作させたり、動作を休止(停止)させたりする指示が考えられる。すなわち、ゲームで使用しない構成要素については電力消費を抑えるために休止させてもよく、その場合、端末装置6からゲーム装置本体5へ送信される送信データには、休止した構成要素からのデータが含まれないようにする。なお、マーカ部65は、赤外LEDであるので、制御は単に電力の供給のON/OFFでよい。   When the control data is included in the data received from the game apparatus body 5, the codec LSI 606 and the UI controller 605 issue a control instruction to each unit according to the control data. As described above, the control data is for each component included in the terminal device 6 (in this embodiment, the camera 66, the touch panel controller 601, the marker unit 65, the sensors 602 to 604, the vibrator 619, and the infrared communication module 612). Data representing a control instruction. In the present embodiment, as the control instruction represented by the control data, an instruction to operate each of the above components or to stop (stop) the operation can be considered. In other words, components that are not used in the game may be paused in order to reduce power consumption. In this case, the transmission data transmitted from the terminal device 6 to the game device body 5 includes data from the paused components. Do not include. In addition, since the marker unit 65 is an infrared LED, the control may simply be ON / OFF of power supply.

以上のように、端末装置6は、タッチパネル62、アナログスティック63、および操作ボタン64といった操作手段を備えるが、他の実施形態においては、これらの操作手段に代えて、または、これらの操作手段とともに、他の操作手段を備える構成であってもよい。   As described above, the terminal device 6 includes operation means such as the touch panel 62, the analog stick 63, and the operation buttons 64. However, in other embodiments, instead of these operation means or together with these operation means. The configuration may include other operation means.

また、端末装置6は、端末装置6の動き(位置や姿勢、あるいは、位置や姿勢の変化を含む)を算出するためのセンサとして、磁気センサ602、加速度センサ603、およびジャイロセンサ604を備えるが、他の実施形態においては、これらのセンサのうち1つまたは2つのみを備える構成であってもよい。また、他の実施形態においては、これらのセンサに代えて、または、これらのセンサとともに、他のセンサを備える構成であってもよい。   Further, the terminal device 6 includes a magnetic sensor 602, an acceleration sensor 603, and a gyro sensor 604 as sensors for calculating the movement of the terminal device 6 (including changes in position and orientation, or position and orientation). In other embodiments, the configuration may include only one or two of these sensors. Moreover, in other embodiment, it may replace with these sensors or the structure provided with another sensor with these sensors may be sufficient.

また、端末装置6は、カメラ66およびマイク609を備える構成であるが、他の実施形態においては、カメラ66およびマイク609を備えていなくてもよく、また、いずれか一方のみを備えていてもよい。   Moreover, although the terminal device 6 is a structure provided with the camera 66 and the microphone 609, in other embodiment, it does not need to be provided with the camera 66 and the microphone 609, and may be provided only with either one. Good.

また、端末装置6は、端末装置6とコントローラ7との位置関係(コントローラ7から見た端末装置6の位置および/または姿勢等)を算出するための構成としてマーカ部65を備える構成であるが、他の実施形態ではマーカ部65を備えていない構成としてもよい。また、他の実施形態では、端末装置6は、上記位置関係を算出するための構成として他の手段を備えていてもよい。例えば、他の実施形態においては、コントローラ7がマーカ部を備え、端末装置6が撮像素子を備える構成としてもよい。さらにこの場合、マーカ8は赤外LEDに代えて、撮像素子を備える構成としてもよい。   Further, the terminal device 6 is configured to include a marker unit 65 as a configuration for calculating the positional relationship between the terminal device 6 and the controller 7 (the position and / or orientation of the terminal device 6 viewed from the controller 7). In other embodiments, the marker unit 65 may not be provided. Moreover, in other embodiment, the terminal device 6 may be provided with another means as a structure for calculating the said positional relationship. For example, in another embodiment, the controller 7 may include a marker unit, and the terminal device 6 may include an imaging element. Furthermore, in this case, the marker 8 may be configured to include an imaging element instead of the infrared LED.

次に、図6〜図8を参照して、ボード型コントローラ9の構成について説明する。なお、図6は、図1に示したボード型コントローラ9の外観の一例を示す斜視図である。図6に示されるように、ボード型コントローラ9は、ユーザがその上に乗る(ユーザの足を乗せる)台9a、台9aに掛かる荷重を検出するための少なくとも4つの荷重センサ94a〜94dを備える。各荷重センサ94a〜94dは、それぞれ台9aに内包されており(図7参照)、図6においてはそれらの配置位置がそれぞれ破線で示されている。なお、以下の説明において、4つの荷重センサ94a〜94dを総称して説明する場合、荷重センサ94と記載することがある。   Next, the configuration of the board type controller 9 will be described with reference to FIGS. FIG. 6 is a perspective view showing an example of the appearance of the board-type controller 9 shown in FIG. As shown in FIG. 6, the board-type controller 9 includes a base 9a on which the user rides (a user's foot is placed), and at least four load sensors 94a to 94d for detecting a load applied to the base 9a. . Each of the load sensors 94a to 94d is included in the base 9a (see FIG. 7), and in FIG. 6, their arrangement positions are indicated by broken lines. In the following description, the four load sensors 94a to 94d may be described as the load sensor 94 when collectively described.

台9aは、略直方体に形成されており、上面視で略長方形状である。例えば、台9aは、長方形状の短辺が30cm程度に設定され、長辺が50cm程度に設定される。台9aの上面は、平坦に形成され、ユーザが両足裏をそれぞれ置いて乗るための一対の面が設定されている。具体的には、台9aの上面には、ユーザが左足を乗せるための面(図6における左奥側に2重線で囲まれた領域)および左足を乗せるための面(図6における右手前側に2重線で囲まれた領域)がそれぞれ設定されている。そして、台9aの4隅の側面は、例えば部分的に円柱状に張り出すように形成されている。   The base 9a is formed in a substantially rectangular parallelepiped and has a substantially rectangular shape when viewed from above. For example, the base 9a has a rectangular short side set to about 30 cm and a long side set to about 50 cm. The upper surface of the base 9a is formed flat, and a pair of surfaces are set for the user to put on both feet and ride. Specifically, on the upper surface of the base 9a, a surface on which the user places the left foot (a region surrounded by a double line on the left back side in FIG. 6) and a surface on which the left foot is placed (the right front side in FIG. 6). (Regions surrounded by double lines) are set. And the side surfaces of the four corners of the base 9a are formed, for example, so as to partially protrude in a columnar shape.

台9aにおいて、4つの荷重センサ94a〜94dは、所定の間隔を置いて配置される。当該実施例では、4つの荷重センサ94a〜94dは、台9aの周縁部に、具体的には4隅にそれぞれ配置される。荷重センサ94a〜94dの間隔は、台9aに対するユーザの荷重のかけ方によるゲーム操作の意図をより精度良く検出できるように適宜な値に設定される。   In the table 9a, the four load sensors 94a to 94d are arranged at a predetermined interval. In this embodiment, the four load sensors 94a to 94d are arranged at the peripheral edge of the base 9a, specifically at the four corners. The interval between the load sensors 94a to 94d is set to an appropriate value so that the intention of the game operation according to the user's load applied to the table 9a can be detected with higher accuracy.

図7は、図6に示したボード型コントローラ9のA−A断面図の一例を示すとともに、荷重センサ94が配置された隅の部分が拡大表示された一例を示している。図7において、台9aは、ユーザが乗るための支持板90と脚92とを含む。荷重センサ94a〜94dは、脚92が配置される箇所にそれぞれ設けられる。この実施例では、4つの脚92が4隅に設けられているので、4つの荷重センサ94a〜94dがそれぞれ4隅に配置されることになる。脚92は、例えばプラスチック成型によって略有底円筒状に形成されており、荷重センサ94は、脚92内の底面に設けられた球面部品92a上に配置される。支持板90は、荷重センサ94を介して脚92に支持される。   FIG. 7 shows an example of an AA sectional view of the board-type controller 9 shown in FIG. 6 and an example in which a corner portion where the load sensor 94 is arranged is enlarged. In FIG. 7, the base 9 a includes a support plate 90 and legs 92 for the user to ride. The load sensors 94a to 94d are respectively provided at locations where the legs 92 are disposed. In this embodiment, since the four legs 92 are provided at the four corners, the four load sensors 94a to 94d are respectively arranged at the four corners. The leg 92 is formed in a substantially bottomed cylindrical shape by plastic molding, for example, and the load sensor 94 is disposed on a spherical component 92 a provided on the bottom surface in the leg 92. The support plate 90 is supported by the legs 92 via the load sensor 94.

支持板90は、上面と側面上部とを形成する上層板90a、下面と側面下部とを形成する下層板90b、および上層板90aと下層板90bとの間に設けられる中層板90cを含む。上層板90aと下層板90bとは、例えばプラスチック成型により形成されており、接着等により一体化される。中層板90cは、例えば1枚の金属板のプレス成型により形成されている。中層板90cは、4つの荷重センサ94a〜94dの上に固定される。上層板90aは、その下面に格子状のリブ(図示しない)を有しており、当該リブを介して中層板90cに支持されている。したがって、台9aにユーザが乗ったときには、その荷重は、支持板90および荷重センサ94a〜94dを介して、4つの脚92に伝達する。図7に矢印で示したように、入力された荷重によって生じた床からの反作用は、脚92から、球面部品92a、荷重センサ94a〜94d、および中層板90cを介して、上層板90aに伝達する。   The support plate 90 includes an upper layer plate 90a that forms the upper surface and the upper side surface, a lower layer plate 90b that forms the lower surface and the lower side surface, and a middle layer plate 90c provided between the upper layer plate 90a and the lower layer plate 90b. The upper layer plate 90a and the lower layer plate 90b are formed by plastic molding, for example, and are integrated by adhesion or the like. The middle layer plate 90c is formed by press molding of one metal plate, for example. The middle layer plate 90c is fixed on the four load sensors 94a to 94d. The upper layer plate 90a has lattice-like ribs (not shown) on the lower surface thereof, and is supported by the middle layer plate 90c via the ribs. Therefore, when the user gets on the base 9a, the load is transmitted to the four legs 92 via the support plate 90 and the load sensors 94a to 94d. As indicated by arrows in FIG. 7, the reaction from the floor caused by the input load is transmitted from the leg 92 to the upper layer plate 90a via the spherical component 92a, the load sensors 94a to 94d, and the middle layer plate 90c. To do.

荷重センサ94は、例えば歪ゲージ(歪センサ)式ロードセルであり、入力された荷重を電気信号に変換する荷重変換器である。荷重センサ94では、荷重入力に応じて、起歪体95が変形して歪が生じる。この歪が、起歪体95に貼り付けられた歪センサ96によって電気抵抗の変化に変換され、さらに電圧変化に変換される。したがって、荷重センサ94は、入力荷重を示す電圧信号を出力端子から出力することができる。   The load sensor 94 is, for example, a strain gauge (strain sensor) type load cell, and is a load converter that converts an input load into an electric signal. In the load sensor 94, in response to the load input, the strain generating body 95 is deformed to cause distortion. This strain is converted into a change in electrical resistance by a strain sensor 96 attached to the strain generating body 95 and further converted into a change in voltage. Therefore, the load sensor 94 can output a voltage signal indicating the input load from the output terminal.

なお、荷重センサ94は、音叉振動式、弦振動式、静電容量式、圧電式、磁歪式、またはジャイロ式のような他の方式の荷重センサであってもよい。   The load sensor 94 may be another type of load sensor such as a tuning fork vibration type, a string vibration type, a capacitance type, a piezoelectric type, a magnetostrictive type, or a gyro type.

図6に戻って、ボード型コントローラ9には、さらに、電源ボタン9cが設けられる。ボード型コントローラ9が起動していない状態で電源ボタン9cが操作(例えば、電源ボタン9cの押下)されると、ボード型コントローラ9の各回路コンポーネント(図8参照)に電力が供給される。ただし、ボード型コントローラ9は、ゲーム装置本体5からの指示に従って電源オンされて各回路コンポーネントに電力供給が開始される場合もある。なお、ボード型コントローラ9は、ユーザが乗っていない状態が一定時間(例えば、30秒)以上継続すると、自動的に電源がオフされてもよい。また、ボード型コントローラ9が起動している状態で、電源ボタン9cが再度操作された場合、電源がオフされて各回路コンポーネントへの電力供給が停止されてもよい。   Returning to FIG. 6, the board type controller 9 is further provided with a power button 9c. When the power button 9c is operated (for example, the power button 9c is pressed) while the board type controller 9 is not activated, power is supplied to each circuit component (see FIG. 8) of the board type controller 9. However, the board-type controller 9 may be turned on in accordance with an instruction from the game apparatus body 5 to start supplying power to each circuit component. The board-type controller 9 may be automatically turned off when the state in which the user is not on continues for a certain time (for example, 30 seconds) or longer. Further, when the power button 9c is operated again while the board-type controller 9 is activated, the power supply may be turned off and the power supply to each circuit component may be stopped.

図8は、ボード型コントローラ9の電気的な構成の一例を示すブロック図である。なお、図8では、信号およびデータの流れは実線矢印で示され、電力の供給が破線矢印で示されている。   FIG. 8 is a block diagram showing an example of the electrical configuration of the board-type controller 9. In FIG. 8, the flow of signals and data is indicated by solid arrows, and the supply of power is indicated by broken arrows.

図8において、ボード型コントローラ9は、その動作を制御するためのマイクロコンピュータ(マイコン)100を含む。マイコン100は、図示しないCPU、ROM、およびRAM等を含み、CPUがROMに記憶されたプログラムに従ってボード型コントローラ9の動作を制御する。   In FIG. 8, the board type controller 9 includes a microcomputer 100 for controlling the operation thereof. The microcomputer 100 includes a CPU, a ROM, a RAM, and the like (not shown), and the CPU controls the operation of the board type controller 9 according to a program stored in the ROM.

マイコン100には、電源ボタン9c、ADコンバータ102、DC−DCコンバータ104、および無線モジュール106が接続される。さらに、無線モジュール106には、アンテナ106aが接続される。4つの荷重センサ94a〜94dは、それぞれ増幅器108を介してADコンバータ102に接続される。   The microcomputer 100 is connected to the power button 9c, the AD converter 102, the DC-DC converter 104, and the wireless module 106. Further, an antenna 106 a is connected to the wireless module 106. The four load sensors 94a to 94d are connected to the AD converter 102 via the amplifier 108, respectively.

また、ボード型コントローラ9には、各回路コンポーネントへの電力供給のために電池110が収容されている。他の実施例では、電池110に代えてACアダプタをボード型コントローラ9に接続し、商用電力を各回路コンポーネントに供給するようにしてもよい。この場合、DC−DCコンバータ104に代えて、交流を直流に変換し、直流電圧を降圧および整流する電源回路をボード型コントローラ9内に設ける必要がある。この実施例では、マイコン100および無線モジュール106への電力供給は、電池110から直接的に行われる。つまり、マイコン100内部の一部のコンポーネント(CPU)と無線モジュール106とには、常に電池110からの電力が供給されており、電源ボタン9cがオンされたか否か、ゲーム装置本体5から電源オンを指示するコマンドが送信されたか否かを検出する。一方、荷重センサ94a〜94d、ADコンバータ102、および増幅器108には、DC−DCコンバータ104を介して電池110からの電力が供給される。DC−DCコンバータ104は、電池110からの直流電流の電圧値を異なる電圧値に変換して、荷重センサ94a〜94d、ADコンバータ102、および増幅器108に与える。   The board-type controller 9 houses a battery 110 for supplying power to each circuit component. In another embodiment, an AC adapter may be connected to the board type controller 9 instead of the battery 110 so that commercial power is supplied to each circuit component. In this case, instead of the DC-DC converter 104, it is necessary to provide in the board type controller 9 a power supply circuit that converts alternating current into direct current and steps down and rectifies the direct current voltage. In this embodiment, power supply to the microcomputer 100 and the wireless module 106 is performed directly from the battery 110. That is, power from the battery 110 is always supplied to some components (CPU) and the wireless module 106 in the microcomputer 100, and whether the power button 9c is turned on or not is turned on from the game apparatus body 5. It is detected whether or not a command instructing is transmitted. On the other hand, power from the battery 110 is supplied to the load sensors 94 a to 94 d, the AD converter 102, and the amplifier 108 via the DC-DC converter 104. The DC-DC converter 104 converts the voltage value of the direct current from the battery 110 into a different voltage value and supplies the voltage value to the load sensors 94 a to 94 d, the AD converter 102, and the amplifier 108.

これら荷重センサ94a〜94d、ADコンバータ102、および増幅器108への電力供給は、マイコン100によるDC−DCコンバータ104の制御によって、必要に応じて行われるようにしてもよい。つまり、マイコン100は、荷重センサ94a〜94dを動作させて荷重を検出する必要があると判断される場合に、DC−DCコンバータ104を制御して、荷重センサ94a〜94d、ADコンバータ102、および増幅器108に電力を供給するようにしてよい。   The power supply to the load sensors 94a to 94d, the AD converter 102, and the amplifier 108 may be performed as necessary under the control of the DC-DC converter 104 by the microcomputer 100. In other words, the microcomputer 100 controls the DC-DC converter 104 to operate the load sensors 94a to 94d to detect the load, thereby controlling the load sensors 94a to 94d, the AD converter 102, and Power may be supplied to the amplifier 108.

電力が供給されると、荷重センサ94a〜94dは、入力された荷重を示す信号をそれぞれ出力する。これらの信号は、各増幅器108で増幅され、ADコンバータ102でアナログ信号からデジタルデータに変換されて、マイコン100に入力される。荷重センサ94a〜94dの検出値には荷重センサ94a〜94dの識別情報が付与されて、いずれの荷重センサ94a〜94dの検出値であるかが識別可能にされる。このようにして、マイコン100は、同一時刻における4つの荷重センサ94a〜94dそれぞれの荷重検出値を示すデータを取得することができる。   When power is supplied, the load sensors 94a to 94d each output a signal indicating the input load. These signals are amplified by the amplifiers 108, converted from analog signals to digital data by the AD converter 102, and input to the microcomputer 100. Identification information of the load sensors 94a to 94d is given to the detection values of the load sensors 94a to 94d so that the detection values of the load sensors 94a to 94d can be identified. In this way, the microcomputer 100 can acquire data indicating the load detection values of the four load sensors 94a to 94d at the same time.

一方、マイコン100は、荷重センサ94a〜94dを動作させる必要がないと判断される場合、つまり、荷重検出タイミングでない場合、DC−DCコンバータ104を制御して、荷重センサ94a〜94d、ADコンバータ102、および増幅器108への電力の供給を停止する。このように、ボード型コントローラ9は、必要な場合にだけ、荷重センサ94a〜94dを動作させて荷重や距離の検出を行うことができるので、荷重検出のための電力消費を抑制することができる。   On the other hand, when it is determined that the load sensors 94a to 94d do not need to be operated, that is, when the load detection timing is not reached, the microcomputer 100 controls the DC-DC converter 104 to load sensors 94a to 94d and the AD converter 102. , And the power supply to the amplifier 108 is stopped. Thus, since the board type controller 9 can detect the load and the distance by operating the load sensors 94a to 94d only when necessary, the power consumption for load detection can be suppressed. .

荷重検出が必要な場合とは、典型的には、ゲーム装置本体5(図1)が荷重データを取得したいときである。例えば、ゲーム装置本体5が荷重情報を必要とするとき、ゲーム装置本体5は、ボード型コントローラ9に対して情報取得命令を送信する。マイコン100は、ゲーム装置本体5から情報取得命令を受信したときに、DC−DCコンバータ104を制御して、荷重センサ94a〜94d等に電力を供給し、荷重を検出する。一方、マイコン100は、ゲーム装置本体5から情報取得命令を受信していないときには、DC−DCコンバータ104を制御して、荷重センサ94a〜94d等への電力供給を停止する。   The case where load detection is necessary is typically when the game apparatus body 5 (FIG. 1) wants to acquire load data. For example, when the game apparatus body 5 requires load information, the game apparatus body 5 transmits an information acquisition command to the board-type controller 9. When the microcomputer 100 receives an information acquisition command from the game apparatus body 5, the microcomputer 100 controls the DC-DC converter 104 to supply power to the load sensors 94 a to 94 d and detect the load. On the other hand, when the microcomputer 100 has not received the information acquisition command from the game apparatus body 5, the microcomputer 100 controls the DC-DC converter 104 to stop the power supply to the load sensors 94 a to 94 d and the like.

なお、マイコン100は、一定時間ごとに荷重検出タイミングが到来すると判断して、DC−DCコンバータ104を制御するようにしてもよい。このような周期的な荷重検出を行う場合、周期情報は、例えば、ゲーム開始時点においてゲーム装置本体5からボード型コントローラ9のマイコン100に与えられて記憶されてもよいし、予めマイコン100にプリインストールされてもよい。   Note that the microcomputer 100 may control the DC-DC converter 104 by determining that the load detection timing comes at regular intervals. When such periodic load detection is performed, the period information may be given to the microcomputer 100 of the board-type controller 9 from the game apparatus body 5 at the start of the game, for example, or stored in the microcomputer 100 in advance. May be installed.

荷重センサ94a〜94dからの検出値を示すデータは、ボード型コントローラ9のボード操作データ(入力データ)として、マイコン100から無線モジュール106およびアンテナ106aを介してゲーム装置本体5に送信される。例えば、ゲーム装置本体5からの命令を受けて荷重検出を行った場合、マイコン100は、ADコンバータ102から荷重センサ94a〜94dの検出値データを受信したことに応じて、当該検出値データをゲーム装置本体5に送信する。なお、マイコン100は、一定時間ごとに上記検出値データをゲーム装置本体5に送信するようにしてもよい。荷重の検出周期よりも送信周期が長い場合には、送信タイミングまでに検出された複数の検出タイミングの荷重値を含むデータを送信すればよい。   Data indicating detection values from the load sensors 94a to 94d is transmitted from the microcomputer 100 to the game apparatus body 5 via the wireless module 106 and the antenna 106a as board operation data (input data) of the board type controller 9. For example, when a load is detected in response to a command from the game apparatus body 5, the microcomputer 100 receives the detected value data of the load sensors 94 a to 94 d from the AD converter 102 and receives the detected value data as a game. It transmits to the apparatus main body 5. Note that the microcomputer 100 may transmit the detection value data to the game apparatus body 5 at regular intervals. When the transmission cycle is longer than the load detection cycle, data including load values at a plurality of detection timings detected up to the transmission timing may be transmitted.

なお、無線モジュール106は、ゲーム装置本体5のコントローラ通信モジュール19と同じ無線規格(Bluetooth、無線LANなど)で通信可能にされる。したがって、ゲーム装置本体5のCPU10は、コントローラ通信モジュール19等を介して情報取得命令をボード型コントローラ9に送信することができる。このように、ボード型コントローラ9は、無線モジュール106およびアンテナ106aを介して、ゲーム装置本体5からの命令を受信することができる。また、ボード型コントローラ9は、荷重センサ94a〜94dの荷重検出値(または荷重算出値)を含むボード操作データをゲーム装置本体5に送信することができる。   The wireless module 106 can communicate with the same wireless standard (Bluetooth, wireless LAN, etc.) as the controller communication module 19 of the game apparatus body 5. Therefore, the CPU 10 of the game apparatus body 5 can transmit an information acquisition command to the board-type controller 9 via the controller communication module 19 or the like. Thus, the board type controller 9 can receive commands from the game apparatus body 5 via the wireless module 106 and the antenna 106a. Further, the board-type controller 9 can transmit board operation data including load detection values (or load calculation values) of the load sensors 94 a to 94 d to the game apparatus body 5.

例えば、4つの荷重センサ94a〜94dで検出される4つの荷重値の単なる合計値を用いて実行されるようなゲームの場合には、ユーザはボード型コントローラ9の4つの荷重センサ94a〜94dに対して任意の位置をとることができる。つまり、ユーザは、台9aの上の任意の位置に任意の向きで乗ってゲームをプレイすることができる。しかしながら、ゲームの種類によっては、4つの荷重センサ94で検出される荷重値がユーザから見ていずれの方向の荷重値であるかを識別して処理を行う必要がある。つまり、ボード型コントローラ9の4つの荷重センサ94とユーザとの位置関係が把握されている必要がある。この場合、例えば、4つの荷重センサ94とユーザとの位置関係を予め規定しておき、当該所定の位置関係が得られるようにユーザが台9a上に乗ることが前提とされてもよい。典型的には、台9aの中央に乗ったユーザの前後左右にそれぞれ荷重センサ94a〜94dが2つずつ存在するような位置関係、つまり、ユーザがボード型コントローラ9の台9aの中央に乗った位置関係が規定される。この場合、この実施例では、ボード型コントローラ9の台9aが平面視で矩形状に形成されるとともにその矩形の1辺(長辺)に電源ボタン9cが設けられているので、この電源ボタン9cを目印として利用して、ユーザには電源ボタン9cの設けられた長辺が所定の方向(前、後、左または右)に存在するようにして台9aに乗ってもらうことを予め決めておく。このようにすれば、荷重センサ94a〜94dで検出される荷重値は、ユーザから見て所定の方向(右前、左前、右後および左後)の荷重値となる。したがって、ボード型コントローラ9およびゲーム装置本体5は、荷重検出値データに含まれる荷重センサ94の識別情報と、予め設定(記憶)された荷重センサ94のユーザに対する位置または方向を示す配置データとに基づいて、各荷重検出値がユーザから見ていずれの方向に対応するかを把握することができる。これにより、例えば前後左右の操作方向や上げている足の区別のようなユーザによるゲーム操作の意図を把握することが可能になる。   For example, in the case of a game that is executed using a mere total value of four load values detected by the four load sensors 94a to 94d, the user uses the four load sensors 94a to 94d of the board type controller 9. Any position can be taken. That is, the user can play the game by riding in any direction on any position on the table 9a. However, depending on the type of game, it is necessary to perform processing by identifying which direction the load value detected by the four load sensors 94 is viewed from the user. That is, it is necessary to grasp the positional relationship between the four load sensors 94 of the board-type controller 9 and the user. In this case, for example, it may be assumed that the positional relationship between the four load sensors 94 and the user is defined in advance, and the user gets on the table 9a so as to obtain the predetermined positional relationship. Typically, a positional relationship in which there are two load sensors 94a to 94d on each of the front, rear, left and right of the user who rides on the center of the base 9a, that is, the user gets on the center of the base 9a of the board type controller 9 A positional relationship is defined. In this case, in this embodiment, the base 9a of the board-type controller 9 is formed in a rectangular shape in plan view, and the power button 9c is provided on one side (long side) of the rectangle. As a mark, the user decides in advance that the user should get on the base 9a so that the long side provided with the power button 9c is in a predetermined direction (front, back, left or right). . In this way, the load values detected by the load sensors 94a to 94d are load values in a predetermined direction (right front, left front, right rear, and left rear) as viewed from the user. Therefore, the board-type controller 9 and the game apparatus body 5 use the identification information of the load sensor 94 included in the load detection value data and the arrangement data indicating the position or direction of the load sensor 94 set (stored) with respect to the user. Based on this, it is possible to grasp which direction each load detection value corresponds to when viewed from the user. Thereby, for example, it is possible to grasp the intention of the game operation by the user, such as the front / rear / left / right operation direction or the distinction of the raised foot.

次に、ゲーム装置本体5が行う具体的な処理を説明する前に、図面を用いてゲーム装置本体5で行うゲーム処理の概要について説明する。なお、図9は、端末装置6およびボード型コントローラ9を用いて操作するユーザの様子の一例を示す図である。図10Aは、モニタ2に表示される画像の一例を示す図である。図10Bは、端末装置6のLCD61に表示される画像の一例を示す図である。図11Aは、端末装置6の姿勢による操作が基準操作指示方向を示している場合にモニタ2に表示される画像の一例を示す図である。図11Bは、端末装置6の姿勢による操作が基準操作指示方向を示している状態において端末装置6のLCD61に表示される画像の一例を示す図である。図12Aは、図11Bに示した状態から端末装置6を卓上で反時計方向にロール回転させた場合にモニタ2に表示される画像の一例を示す図である。図12Bは、図11Bに示した状態から端末装置6を卓上で反時計方向にロール回転させた場合に端末装置6のLCD61に表示される画像の一例を示す図である。図13Aは、図11Bに示した状態から端末装置6を卓上で反時計方向に90°ロール回転させた場合にモニタ2に表示される画像の一例を示す図である。図13Bは、図11Bに示した状態から端末装置6を卓上で反時計方向に90°ロール回転させた場合に端末装置6のLCD61に表示される画像の一例を示す図である。図14は、端末装置6の姿勢から得られる操作指示方向の変化に対応する一例としてプレイヤオブジェクトおよび仮想カメラの回転動作を説明するための図である。図15は、端末装置6の姿勢から得られる操作指示方向の変化に対応する他の例として地形オブジェクトの回転動作を説明するための図である。図16Aは、図11Bに示した状態から端末装置6のタッチパネル62がタッチ操作された場合にモニタ2に表示される画像の一例を示す図である。図16Bは、図11Bに示した状態から端末装置6のタッチパネル62がタッチ操作された場合に端末装置6のLCD61に表示される画像の一例を示す図である。図17は、端末装置6のタッチパネル62へのタッチ操作に対応する一例としてプレイヤオブジェクトおよび仮想カメラの移動動作を説明するための図である。図18は、端末装置6のタッチパネル62へのタッチ操作に対応する他の例として地形オブジェクトの移動動作を説明するための図である。   Next, before describing specific processing performed by the game apparatus body 5, an outline of game processing performed by the game apparatus body 5 will be described with reference to the drawings. FIG. 9 is a diagram showing an example of a state of a user who operates using the terminal device 6 and the board type controller 9. FIG. 10A is a diagram illustrating an example of an image displayed on the monitor 2. FIG. 10B is a diagram illustrating an example of an image displayed on the LCD 61 of the terminal device 6. FIG. 11A is a diagram illustrating an example of an image displayed on the monitor 2 when the operation based on the attitude of the terminal device 6 indicates the reference operation instruction direction. FIG. 11B is a diagram illustrating an example of an image displayed on the LCD 61 of the terminal device 6 in a state where the operation based on the attitude of the terminal device 6 indicates the reference operation instruction direction. FIG. 12A is a diagram illustrating an example of an image displayed on the monitor 2 when the terminal device 6 is rolled counterclockwise on the desktop from the state illustrated in FIG. 11B. FIG. 12B is a diagram illustrating an example of an image displayed on the LCD 61 of the terminal device 6 when the terminal device 6 is rolled counterclockwise on the table from the state illustrated in FIG. 11B. FIG. 13A is a diagram illustrating an example of an image displayed on the monitor 2 when the terminal device 6 is rotated 90 ° counterclockwise on the desktop from the state illustrated in FIG. 11B. FIG. 13B is a diagram illustrating an example of an image displayed on the LCD 61 of the terminal device 6 when the terminal device 6 is rotated 90 ° counterclockwise on the desktop from the state illustrated in FIG. 11B. FIG. 14 is a diagram for explaining the rotation operation of the player object and the virtual camera as an example corresponding to the change in the operation instruction direction obtained from the attitude of the terminal device 6. FIG. 15 is a diagram for explaining the rotation operation of the terrain object as another example corresponding to the change in the operation instruction direction obtained from the attitude of the terminal device 6. FIG. 16A is a diagram illustrating an example of an image displayed on the monitor 2 when the touch panel 62 of the terminal device 6 is touched from the state illustrated in FIG. 11B. FIG. 16B is a diagram illustrating an example of an image displayed on the LCD 61 of the terminal device 6 when the touch panel 62 of the terminal device 6 is touched from the state illustrated in FIG. 11B. FIG. 17 is a diagram for explaining the movement operation of the player object and the virtual camera as an example corresponding to the touch operation on the touch panel 62 of the terminal device 6. FIG. 18 is a diagram for explaining the movement operation of the terrain object as another example corresponding to the touch operation on the touch panel 62 of the terminal device 6.

図9に示すように、ユーザは、端末装置6およびボード型コントローラ9を用いて操作し、端末装置6の姿勢や方向を変化させる操作と、端末装置6のタッチパネル62をタッチする操作と、ボード型コントローラ9に加える荷重を変化させる操作とを行う。具体的には、ユーザは、卓上に端末装置6を載置した状態で端末装置6の本体を持ち、両足をボード型コントローラ9上にそれぞれ乗せる。そして、ユーザは、モニタ2に表示された画像や端末装置6のLCD61に表示された画像を見ながら、ボード型コントローラ9上で動作(例えば、ユーザが座った姿勢で足踏みするようにボード型コントローラ9上の両足を動作させることによって、ボード型コントローラ9上にかける荷重に変化を繰り返し与える操作)する。また、ユーザは、端末装置6自体を卓上で動かす操作をしたり、端末装置6のタッチパネル62をタッチ操作したりすることによってプレイする。そして、端末装置6のLCD61およびモニタ2には、卓上における端末装置6の方向(姿勢)と、端末装置6のタッチパネル62へのタッチ操作とに応じて、仮想世界のプレイヤオブジェクトが動作(例えば、姿勢や方向が変化する動作や移動する動作)し、プレイヤオブジェクトの方向や位置に応じて仮想世界に設定される仮想カメラの姿勢や位置を変化させたゲーム画像が表現される。また、ボード型コントローラ9上におけるユーザ動作に応じて、仮想世界においてプレイヤオブジェクトが動作(例えば、移動)する。なお、後述では、ユーザが足踏みするようにボード型コントローラ9を操作することによってプレイヤオブジェクトおよび仮想カメラが移動し、端末装置6を卓上で動かす操作をすることによって仮想世界におけるプレイヤオブジェクトおよび仮想カメラの方向が変化し、端末装置6のタッチパネル62へのタッチ操作によっても仮想世界におけるプレイヤオブジェクトおよび仮想カメラが移動するゲーム例を用いて説明する。   As shown in FIG. 9, the user operates using the terminal device 6 and the board type controller 9 to change the posture and direction of the terminal device 6, touch the touch panel 62 of the terminal device 6, The operation of changing the load applied to the mold controller 9 is performed. Specifically, the user holds the main body of the terminal device 6 in a state where the terminal device 6 is placed on a table and puts both feet on the board type controller 9. Then, the user operates on the board-type controller 9 while watching the image displayed on the monitor 2 or the image displayed on the LCD 61 of the terminal device 6 (for example, the board-type controller so that the user steps on the sitting posture). The operation of repeatedly applying a change to the load applied to the board type controller 9 by operating both feet on 9). Further, the user plays by performing an operation of moving the terminal device 6 itself on the table or touching the touch panel 62 of the terminal device 6. Then, on the LCD 61 and the monitor 2 of the terminal device 6, a player object in the virtual world operates (for example, for example, according to the direction (posture) of the terminal device 6 on the table and the touch operation on the touch panel 62 of the terminal device 6 (for example, A game image in which the posture and position of the virtual camera set in the virtual world are changed according to the direction and position of the player object. Further, the player object moves (for example, moves) in the virtual world in accordance with the user movement on the board type controller 9. In the following description, the player object and the virtual camera are moved by operating the board type controller 9 so that the user steps, and the player object and the virtual camera in the virtual world are moved by operating the terminal device 6 on the table. A description will be given using a game example in which the player object and the virtual camera move in the virtual world when the direction changes and the touch operation on the touch panel 62 of the terminal device 6 moves.

図10Aに示すように、モニタ2には、仮想世界内に設定された地形オブジェクト全体の様子として、当該地形オブジェクトの直上遠方位置から俯瞰した仮想世界の画像が表示される。図10Aに示した一例では、地形オブジェクト上を移動するプレイヤオブジェクトPoの現在地と、当該現在地を中心として端末装置6のLCD61に表示されている端末装置表示範囲とが、上記地形オブジェクト上に描かれている。そして、地形オブジェクトの北方向(図示N方向)が仮想世界基準方向(例えば、モニタ2に表示される仮想世界の上方向)に向いた状態で、地形オブジェクト全体がモニタ2に表示される。このように、地形オブジェクト全体を俯瞰した仮想世界内の様子をモニタ2に表示することによって、ユーザが地形オブジェクトの全体状況や当該地形オブジェクトとプレイヤオブジェクトPoの現在地(端末装置表示範囲)との位置関係が把握しやすくなるとともに、ユーザが当該ゲームをプレイしている様子を見ている他の人が、地形オブジェクト上をプレイヤオブジェクトPoが移動していく様子を見て楽しむこともできる。   As shown in FIG. 10A, the monitor 2 displays an image of the virtual world as seen from the far distant position directly above the terrain object as the state of the entire terrain object set in the virtual world. In the example shown in FIG. 10A, the current location of the player object Po moving on the terrain object and the terminal device display range displayed on the LCD 61 of the terminal device 6 centering on the current location are drawn on the terrain object. ing. Then, the entire terrain object is displayed on the monitor 2 with the north direction (N direction in the figure) of the terrain object facing the virtual world reference direction (for example, the upward direction of the virtual world displayed on the monitor 2). In this way, by displaying on the monitor 2 a state in the virtual world overlooking the entire terrain object, the user can determine the overall situation of the terrain object and the position of the terrain object and the current location (terminal device display range) of the player object Po. The relationship can be easily grasped, and another person watching the user playing the game can enjoy watching the player object Po moving on the terrain object.

また、図10Bに示すように、端末装置6のLCD61には、仮想世界内においてプレイヤオブジェクトPoが地形オブジェクト上を移動していく様子として、プレイヤオブジェクトPoの直上近傍位置から俯瞰した仮想世界の画像が表示される。なお、LCD61に表示される仮想世界の視点は、相対的に地形オブジェクト(プレイヤオブジェクトPo)に近く、当該視点からプレイヤオブジェクトPoまでの距離が、モニタ2に表示する仮想世界の視点から地形オブジェクト(プレイヤオブジェクトPo)までの距離より相対的に短く設定される。図10Bに示した一例では、地形オブジェクトと当該地形オブジェクト上を移動するプレイヤオブジェクトPoとが表示されている。そして、LCD61には、上記端末装置表示範囲内の地形オブジェクトが表示され、LCD61の実質的に中央となる地形オブジェクト上の位置にプレイヤオブジェクトPoが表示されている。そして、端末装置6の姿勢による操作が後述する基準操作指示方向を示している場合、地形オブジェクトの上記北方向がLCD61の上方向(y軸正方向)となるように地形オブジェクトの一部が表示され、プレイヤオブジェクトPoの正面方向(図示F方向)がLCD61の上方向となる姿勢でLCD61の中央位置にプレイヤオブジェクトPoが表示される。このように、プレイヤオブジェクトPoの直上近傍位置から地形オブジェクトおよびプレイヤオブジェクトPoをLCD61に表示することによって、端末装置6を卓上で操ってLCD61に表示を見ているユーザがプレイヤオブジェクトPoを真上から見ているようなゲームプレイが可能となり、仮想世界の臨場感を与えることができる。   Further, as shown in FIG. 10B, the LCD 61 of the terminal device 6 has an image of the virtual world as seen from the position immediately above the player object Po as the player object Po moves on the terrain object in the virtual world. Is displayed. The viewpoint of the virtual world displayed on the LCD 61 is relatively close to the terrain object (player object Po), and the distance from the viewpoint to the player object Po is from the viewpoint of the virtual world displayed on the monitor 2 ( It is set relatively shorter than the distance to the player object Po). In the example shown in FIG. 10B, a terrain object and a player object Po moving on the terrain object are displayed. The LCD 61 displays a terrain object within the terminal device display range, and a player object Po is displayed at a position on the terrain object substantially at the center of the LCD 61. When the operation based on the attitude of the terminal device 6 indicates a reference operation instruction direction to be described later, a part of the terrain object is displayed so that the north direction of the terrain object is the upward direction of the LCD 61 (y-axis positive direction). Then, the player object Po is displayed at the center position of the LCD 61 in such a posture that the front direction (the F direction in the drawing) of the player object Po is the upward direction of the LCD 61. In this way, by displaying the terrain object and the player object Po on the LCD 61 from the position immediately above the player object Po, the user who is operating the terminal device 6 on the table and watching the display on the LCD 61 displays the player object Po from directly above. You can play the game as you see it, giving you a sense of realism in the virtual world.

なお、図10Aに示した例では、地形オブジェクトの直上遠方位置から俯瞰した仮想世界内の様子がモニタ2に表示されているが、他の視点の仮想世界をモニタ2に表示してもかまわない。端末装置6だけでなくモニタ2にも同じ仮想世界を表示し、それぞれ視点の異なる仮想世界の画像を表示することによって、ユーザが操作する際に2つの表示装置に表示される画像を操作状況や好みに応じて使い分けることが可能となる。端末装置6に表示する仮想世界の範囲に対して、モニタ2に表示する仮想世界の範囲を広くなれば、モニタ2に表示する仮想世界の視点は地形オブジェクトの直上位置でなく、斜め上方位置等でもかまわない。   In the example shown in FIG. 10A, the state in the virtual world viewed from a position just above the terrain object is displayed on the monitor 2, but the virtual world from another viewpoint may be displayed on the monitor 2. . By displaying the same virtual world not only on the terminal device 6 but also on the monitor 2 and displaying images of the virtual worlds with different viewpoints, the images displayed on the two display devices when the user operates can be changed to It becomes possible to use properly according to preference. If the range of the virtual world displayed on the monitor 2 becomes wider than the range of the virtual world displayed on the terminal device 6, the viewpoint of the virtual world displayed on the monitor 2 is not a position directly above the terrain object, but an obliquely upper position, etc. But it doesn't matter.

一例として、ボード型コントローラ9上でユーザが足踏みするような動作をした場合、プレイヤオブジェクトPoの正面方向(図示F方向)へ当該足踏み動作に応じた速度でプレイヤオブジェクトPoが地形オブジェクト上を移動する。例えば、ユーザがボード型コントローラ9上で足踏みする周期が短いほどプレイヤオブジェクトPoの移動速度が速くなる。このように、ユーザは、ボード型コントローラ9上の動作によって、プレイヤオブジェクトPoを移動させたり移動速度を変化させたりすることができる。   As an example, when the user performs a stepping action on the board-type controller 9, the player object Po moves on the terrain object at a speed corresponding to the stepping action in the front direction (F direction in the figure) of the player object Po. . For example, the movement speed of the player object Po increases as the cycle of the user stepping on the board-type controller 9 is shorter. Thus, the user can move the player object Po or change the moving speed by the operation on the board type controller 9.

例えば、上述したように、ボード型コントローラ9からはボード型コントローラ9上のユーザ動作に応じた荷重検出値が出力される。そして、上記荷重検出値を用いれば、ボード型コントローラ9に加わっている合計荷重の算出が可能である。そして、上記合計荷重そのものや合計荷重の変化を用いれば、ユーザがボード型コントローラ9上でどのような動作をしているのか推定することが可能となる。このようなボード型コントローラ9上で推定されるユーザ動作に応じて、プレイヤオブジェクトPoの移動/停止や移動速度が設定される。   For example, as described above, the board type controller 9 outputs a load detection value corresponding to the user operation on the board type controller 9. If the load detection value is used, the total load applied to the board-type controller 9 can be calculated. If the total load itself or the change in the total load is used, it is possible to estimate what kind of operation the user is performing on the board type controller 9. The movement / stop and movement speed of the player object Po are set in accordance with the user action estimated on the board type controller 9 as described above.

また、卓上における端末装置6の方向(姿勢)に応じて、仮想世界におけるプレイヤオブジェクトPoおよび仮想カメラと地形オブジェクトとの間の相対的な方向が変化する。例えば、ユーザが端末装置6の背面と卓上とを接面した状態で、LCD61の奥行方向(端末装置奥行方向)周りに端末装置6を回転(ロール)させることに応じて、仮想世界におけるレイヤオブジェクトPoおよび仮想カメラと地形オブジェクトとの間の相対的な方向が左右に変化する。   Further, the relative direction between the player object Po and the virtual camera and the terrain object in the virtual world changes according to the direction (posture) of the terminal device 6 on the table. For example, when the user rotates (rolls) the terminal device 6 around the depth direction (terminal device depth direction) of the LCD 61 in a state where the back surface of the terminal device 6 is in contact with the tabletop, the layer object in the virtual world The relative direction between Po and the virtual camera and the terrain object changes left and right.

図11Aに示すように、地形オブジェクトの北方向(図示N方向)が仮想世界基準方向(例えば、モニタ2に表示される仮想世界の上方向)に向いた状態で、地形オブジェクト全体がモニタ2に表示されている。また、図11Bに示すように、端末装置6の姿勢による操作が基準操作指示方向を示している場合、地形オブジェクトの上記北方向がLCD61の上方向(y軸正方向)となるように地形オブジェクトの一部が表示され、プレイヤオブジェクトPoの正面方向(図示F方向)がLCD61の上方向となる姿勢でLCD61の中央位置にプレイヤオブジェクトPoが表示される。ここで、端末装置6の姿勢による操作が基準操作指示方向を示している状態とは、初期設定された際に端末装置6が卓上に配置されていた方向と同じ方向を向いた端末装置6の状態を示しており、典型的には端末装置6の上方向(y軸正方向)をユーザの前方向に向けて(すなわち、y軸負方向をユーザに向かう方向にして)卓上に載置した状態を示している。つまり、端末装置6の姿勢による操作が基準操作指示方向を示している場合、地形オブジェクトの上記北方向およびプレイヤオブジェクトPoの正面方向(図示F方向)がそれぞれLCD61の上方向となるように、プレイヤオブジェクトPoおよび地形オブジェクトが表示される。   As shown in FIG. 11A, the entire terrain object is displayed on the monitor 2 with the north direction (N direction in the figure) of the terrain object facing the virtual world reference direction (for example, the upward direction of the virtual world displayed on the monitor 2). It is displayed. Further, as shown in FIG. 11B, when the operation based on the attitude of the terminal device 6 indicates the reference operation instruction direction, the terrain object is such that the north direction of the terrain object is the upward direction of the LCD 61 (y-axis positive direction). Is displayed, and the player object Po is displayed at the center position of the LCD 61 with a posture in which the front direction (F direction in the drawing) of the player object Po is the upward direction of the LCD 61. Here, the state in which the operation based on the attitude of the terminal device 6 indicates the reference operation instruction direction is a state in which the terminal device 6 is directed in the same direction as the direction in which the terminal device 6 is placed on the desktop when the initial setting is performed. Typically, the terminal device 6 is placed on the table with the upper direction (y-axis positive direction) facing the front direction of the user (that is, with the y-axis negative direction facing the user). Indicates the state. That is, when the operation based on the attitude of the terminal device 6 indicates the reference operation instruction direction, the player makes the north direction of the terrain object and the front direction (F direction in the drawing) of the player object Po be the upward direction of the LCD 61, respectively. The object Po and the terrain object are displayed.

そして、上記基準操作指示方向を示している端末装置6をLCD61の奥行方向(z軸方向)を中心に反時計回りに卓上で回転させた場合(すなわち、図11Bに示すA方向に卓上でロールした場合)、図12Aおよび図12Bに示すような画像がモニタ2およびLCD61にそれぞれ表示される。図12Bに示すように、上記基準操作指示方向を示している状態から端末装置6を反時計方向にロール回転させた場合、当該ロール回転に応じてLCD61に表示する仮想世界を生成する仮想カメラの姿勢を変化させる。例えば、上記仮想カメラは、端末装置6がロール回転した回転角度(例えば、z軸周りにy軸が回転移動した角度)だけ、ロール回転した回転方向(例えば、z軸周りにy軸が回転移動した方向)へ、当該仮想カメラの視線方向周りに回転するように姿勢制御される。また、上記基準操作指示方向を示している状態から端末装置6を反時計方向にロール回転させた場合、端末装置6がロール回転した回転角度だけ、ロール回転した回転方向へ、仮想世界の鉛直方向周りにプレイヤオブジェクトPoが回転して、正面方向Fが変化する。   When the terminal device 6 indicating the reference operation instruction direction is rotated on the table counterclockwise about the depth direction (z-axis direction) of the LCD 61 (that is, rolled on the table in the direction A shown in FIG. 11B). In such a case, images as shown in FIGS. 12A and 12B are displayed on the monitor 2 and the LCD 61, respectively. As shown in FIG. 12B, when the terminal device 6 is rotated counterclockwise from the state indicating the reference operation instruction direction, a virtual camera that generates a virtual world to be displayed on the LCD 61 according to the roll rotation. Change posture. For example, the virtual camera is rotated in the roll direction (for example, the y axis is rotated around the z axis) by the rotation angle (for example, the angle by which the y axis is rotated around the z axis). The orientation is controlled so as to rotate around the viewing direction of the virtual camera. When the terminal device 6 is rolled counterclockwise from the state indicating the reference operation instruction direction, the vertical direction of the virtual world is changed to the rotation direction rotated by the rotation angle of the terminal device 6 by the roll rotation. The player object Po rotates around and the front direction F changes.

一例として、図14に示すように、端末装置6がA方向にロール角度Cだけロール回転(すなわち、z軸周りにy軸がA方向に角度Cだけ回転移動)した場合、プレイヤオブジェクトPoは、仮想世界の鉛直方向を中心として角度CだけA方向へ仮想世界内で回転して姿勢制御され、プレイヤオブジェクトPoの正面方向も同様に回転する。また、プレイヤオブジェクトPoの直上から俯瞰する位置に配置されている仮想カメラも、当該仮想カメラの視線方向(図示Z軸方向であり、仮想世界鉛直方向と同じ方向)を中心として上記角度CだけA方向へ仮想世界内で回転する。これによって、図11Bおよび図12Bを比較すれば明らかなように、プレイヤオブジェクトPoが地形オブジェクトに対して角度CだけA方向へ回転しているが、仮想カメラも同様の回転をしているため、結果的にLCD61に対しては同じ状態でプレイヤオブジェクトPoが表示される。一方、端末装置6は、A方向へロール角度Cだけ回転しているが、仮想カメラも同様の回転をしているためにLCD61に表示される地形オブジェクトがA方向の逆方向に同じ角度Cだけ回転して表示され、結果的に実空間に対しては同じ方向に地形オブジェクトが表示される。このような端末装置6の姿勢に対する表示制御によって、図11Bおよび図12Bを比較すれば明らかなように、プレイヤオブジェクトPoは、端末装置6がロール回転した場合であっても仮想カメラに対して相対的に同じ位置に配置されているが、LCD61(端末装置6)が回転角度Cだけ反時計方向へ回転しているため、結果的に実空間においては端末装置6と同じ方向に回転して、地形オブジェクトや実空間に対してA方向に回転しているように見える。一方、地形オブジェクトは、仮想カメラに対して相対的に回転角度Cだけ時計方向へ回転することになるが、LCD61(端末装置6)が回転角度Cだけ反時計方向へ回転しているため、結果的に実空間においては同じ方向に表示されているように見える。   As an example, as illustrated in FIG. 14, when the terminal device 6 rolls in the A direction by a roll angle C (that is, the y axis rotates around the z axis by the angle C in the A direction), the player object Po is The posture is controlled by rotating in the virtual world by an angle C about the vertical direction of the virtual world in the virtual world, and the front direction of the player object Po is similarly rotated. In addition, the virtual camera arranged at a position overlooking the player object Po is also A with the angle C centered on the visual line direction of the virtual camera (the Z-axis direction in the figure and the same direction as the virtual world vertical direction). Rotate in the virtual world in the direction. Thus, as is apparent from a comparison between FIGS. 11B and 12B, the player object Po rotates in the A direction by an angle C with respect to the terrain object, but the virtual camera also rotates in the same manner. As a result, the player object Po is displayed on the LCD 61 in the same state. On the other hand, the terminal device 6 is rotated by the roll angle C in the A direction. However, since the virtual camera is also rotating in the same manner, the terrain object displayed on the LCD 61 is only the same angle C in the reverse direction of the A direction. As a result, the terrain object is displayed in the same direction as the real space. As is apparent from a comparison between FIG. 11B and FIG. 12B, the player object Po remains relatively relative to the virtual camera even when the terminal device 6 rolls. However, since the LCD 61 (terminal device 6) rotates counterclockwise by the rotation angle C, as a result, it rotates in the same direction as the terminal device 6 in real space, It appears to rotate in the A direction with respect to the terrain object and real space. On the other hand, the terrain object rotates clockwise by a rotation angle C relative to the virtual camera, but the result is that the LCD 61 (terminal device 6) rotates counterclockwise by the rotation angle C. In fact, it appears to be displayed in the same direction in real space.

上述した仮想世界画像の生成方式は、一例として、地形オブジェクトを仮想世界で固定して、LCD61に表示する仮想世界の画像を生成する仮想カメラおよびプレイヤオブジェクトPoを仮想世界において回転させることによって行っている。しかしながら、上述した仮想世界画像は、仮想世界におけるプレイヤオブジェクトPoおよび仮想カメラと地形オブジェクトとの間の相対的な方向を変化させれば、他の方法でも生成することができる。   The virtual world image generation method described above is performed by, for example, fixing a terrain object in the virtual world and rotating the virtual camera and player object Po for generating a virtual world image to be displayed on the LCD 61 in the virtual world. Yes. However, the virtual world image described above can be generated by other methods as long as the relative direction between the player object Po and the virtual camera and the terrain object in the virtual world is changed.

例えば、図11Bに示した地形オブジェクトおよびプレイヤオブジェクトPoが配置された仮想世界の画像を、端末装置6のロール回転に応じて図12Bに示されるような画像に変化させる場合、図15に示すように、地形オブジェクトを端末装置6のロール回転に応じて仮想カメラの視線方向(仮想世界鉛直方向)を中心に回転させてもかまわない。この場合、端末装置6が反時計方向に回転角度Cだけ回転した場合であっても、仮想カメラおよびプレイヤオブジェクトPoは、仮想世界において固定して配置する。その一方で、端末装置6が反時計方向に回転角度Cだけ回転した場合、仮想カメラの注視点(プレイヤオブジェクトPoの位置)を中心として回転角度Cだけ時計方向へ地形オブジェクトを回転させる。このような仮想世界画像の生成方式であっても、同様の画像をLCD61に表示することができる。このように、仮想世界におけるプレイヤオブジェクトPoおよび仮想カメラと地形オブジェクトとの少なくとも一方を端末装置6のロール回転に応じて相対的に回転させれば、図11Bおよび図12Bに示した仮想世界画像を生成することができるが、以下においては、地形オブジェクトを仮想世界で固定して、仮想カメラおよびプレイヤオブジェクトPoを仮想世界において回転させる方法を用いて説明する。   For example, when the image of the virtual world in which the terrain object and the player object Po shown in FIG. 11B are arranged is changed to the image shown in FIG. 12B according to the roll rotation of the terminal device 6, as shown in FIG. In addition, the terrain object may be rotated around the viewing direction (virtual world vertical direction) of the virtual camera in accordance with the roll rotation of the terminal device 6. In this case, even if the terminal device 6 rotates counterclockwise by the rotation angle C, the virtual camera and the player object Po are fixedly arranged in the virtual world. On the other hand, when the terminal device 6 rotates counterclockwise by the rotation angle C, the terrain object is rotated clockwise by the rotation angle C around the gazing point (position of the player object Po) of the virtual camera. Even with such a virtual world image generation method, a similar image can be displayed on the LCD 61. Thus, if at least one of the player object Po, the virtual camera, and the terrain object in the virtual world is relatively rotated according to the roll rotation of the terminal device 6, the virtual world images shown in FIGS. 11B and 12B are obtained. In the following, description will be made using a method in which the terrain object is fixed in the virtual world and the virtual camera and the player object Po are rotated in the virtual world.

一方、図11Aおよび図12Aを比較すれば明らかなように、端末装置6が反時計方向に回転角度Cだけ回転した場合であっても、モニタ2に表示されている地形オブジェクト全体の画像は変化しない。しかしながら、上述したように、端末装置6のLCD61に表示する地形オブジェクトの範囲の方向が変化するため、当該範囲の方向変化に応じて、端末装置表示範囲が回転して表示される。例えば、端末装置6が反時計方向に回転角度Cだけロール回転した場合、モニタ2に表示されている端末装置表示範囲も当該範囲中心周りに回転角度Cだけ反時計方向に回転して表示される。   On the other hand, as is clear from a comparison between FIG. 11A and FIG. 12A, the image of the entire terrain object displayed on the monitor 2 changes even when the terminal device 6 rotates counterclockwise by the rotation angle C. do not do. However, as described above, since the direction of the range of the terrain object displayed on the LCD 61 of the terminal device 6 changes, the terminal device display range is rotated and displayed in accordance with the direction change of the range. For example, when the terminal device 6 rolls counterclockwise by the rotation angle C, the terminal device display range displayed on the monitor 2 is also displayed by rotating counterclockwise by the rotation angle C around the range center. .

さらにA方向に端末装置6をロール回転して、図11Bに示した状態から端末装置6を卓上で反時計方向に90°ロール回転させた場合、図13Aおよび図13Bに示すような画像がモニタ2およびLCD61にそれぞれ表示される。図13Bに示すように、図11Bに示した状態から端末装置6を卓上で反時計方向に90°ロール回転させた場合、端末装置6がさらにロール回転した回転角度だけ、仮想カメラの視線方向周りに仮想カメラを回転させる。また、端末装置6がさらにロール回転した回転角度だけ、当該ロール回転方向へ正面方向(図示F方向)を回転させた姿勢でプレイヤオブジェクトPoが地形オブジェクト上に配置される。これによって、正面方向がLCD61の上方向(y軸正方向)となるようにプレイヤオブジェクトPoがLCD61に表示され、地形オブジェクトの北方向がLCD61の左から右への方向(x軸正方向)となるように地形オブジェクトがLCD61に表示される。   Further, when the terminal device 6 is rotated in the A direction and the terminal device 6 is rotated 90 ° counterclockwise on the desktop from the state shown in FIG. 11B, images as shown in FIGS. 13A and 13B are displayed. 2 and the LCD 61 respectively. As shown in FIG. 13B, when the terminal device 6 is rotated 90 ° counterclockwise on the table from the state shown in FIG. 11B, the terminal device 6 is further rotated around the viewing direction of the virtual camera by the rotation angle of the roll rotation. Rotate the virtual camera. In addition, the player object Po is arranged on the terrain object in a posture in which the front direction (F direction in the drawing) is rotated in the roll rotation direction by the rotation angle that the terminal device 6 has further rotated. Thus, the player object Po is displayed on the LCD 61 such that the front direction is the upward direction of the LCD 61 (y-axis positive direction), and the north direction of the terrain object is the left-to-right direction of the LCD 61 (x-axis positive direction). Thus, the terrain object is displayed on the LCD 61.

これによって、図11Bおよび図13Bを比較すれば明らかなように、プレイヤオブジェクトPoが地形オブジェクトに対して回転角度90°だけA方向へ地形オブジェクトに対して方向を変えるが、仮想カメラも同様の回転をしているため、結果的にLCD61に対しては同じ状態でプレイヤオブジェクトPoが表示される。そして、プレイヤオブジェクトPoは、LCD61(端末装置6)が回転角度90°だけ反時計方向へロール回転しているため、結果的に実空間においては端末装置6と同じ方向に回転して、地形オブジェクトや実空間に対してA方向に90°回転しているように見える。また、端末装置6は、A方向へロール角度90°だけ回転しているが、仮想カメラも同様の回転をしているためにLCD61に表示される地形オブジェクトがA方向の逆方向に同じ角度90°だけ回転して表示され、結果的に実空間に対しては同じ方向に地形オブジェクトが表示される。これによって、図11Bおよび図13Bを比較すれば明らかなように、プレイヤオブジェクトPoは、回転角度90°だけA方向へ地形オブジェクトに対して方向を変えることになるが、仮想カメラも同様の回転をしているため、結果的にLCD61に対しては同じ状態で表示され、地形オブジェクトがA方向の逆方向に90°回転したように表示される。   11B and FIG. 13B, the player object Po changes its direction with respect to the terrain object in the direction A by a rotation angle of 90 ° with respect to the terrain object, but the virtual camera rotates in the same way. As a result, the player object Po is displayed in the same state on the LCD 61 as a result. Then, since the LCD 61 (terminal device 6) rolls counterclockwise by a rotation angle of 90 °, the player object Po eventually rotates in the same direction as the terminal device 6 in real space, and the terrain object And it appears to be rotated 90 ° in the A direction with respect to real space. Further, although the terminal device 6 is rotated in the A direction by a roll angle of 90 °, since the virtual camera is also rotating in the same manner, the terrain object displayed on the LCD 61 has the same angle 90 in the reverse direction of the A direction. As a result, the terrain object is displayed in the same direction as the real space. 11B and FIG. 13B, the player object Po changes its direction with respect to the terrain object in the A direction by a rotation angle of 90 °, but the virtual camera rotates in the same manner. As a result, it is displayed on the LCD 61 in the same state, and the terrain object is displayed as if it is rotated 90 ° in the direction opposite to the A direction.

一方、図13Aに示すように、図11Bに示した状態から端末装置6を卓上で反時計方向に90°ロール回転させた場合、モニタ2に表示されている端末装置表示範囲も当該範囲中心周りに回転角度90°だけ反時計方向に回転して表示される。   On the other hand, as shown in FIG. 13A, when the terminal device 6 is rotated 90 ° counterclockwise on the desktop from the state shown in FIG. 11B, the terminal device display range displayed on the monitor 2 is also around the center of the range. Are rotated counterclockwise by a rotation angle of 90 °.

このように、ユーザが端末装置6をロール回転させることによって、プレイヤオブジェクトPoおよび仮想カメラを地形オブジェクトに対して相対的に回転させてLCD61に表示することができる。そして、端末装置6のロール角度およびロール方向と、プレイヤオブジェクトPoおよび仮想カメラを地形オブジェクトに対して相対的に回転させる回転角度および回転方向を同じにすることによって、ユーザは端末装置6がプレイヤオブジェクトPoとなったかのようなリアリティある方向操作が可能となる。また、ユーザは、端末装置6のLCD61を覗き窓として、あたかも仮想世界内を俯瞰して覗いているような感覚を味わうことができる。   As described above, when the user rolls the terminal device 6, the player object Po and the virtual camera can be rotated relative to the terrain object and displayed on the LCD 61. Then, by making the roll angle and roll direction of the terminal device 6 the same as the rotation angle and rotation direction for rotating the player object Po and the virtual camera relative to the terrain object, the user can make the terminal device 6 play the player object. Realistic direction operation as if it became Po becomes possible. In addition, the user can enjoy a feeling as if he / she is looking down from inside the virtual world using the LCD 61 of the terminal device 6 as a viewing window.

例えば、端末装置6からは端末装置6の姿勢変化に応じた加速度データや角速度データが出力される。そして、上記加速度データが示す加速度を用いれば、端末装置6に作用している重力加速度の方向が算出できるため、実空間における鉛直方向を基準として端末装置6がどのような姿勢になっているのか、すなわち鉛直方向を基準とした端末装置6のxyz軸方向を推定することができる。また、上記角速度データが示す角速度および/または上記加速度データが示す加速度を用いれば、端末装置6に作用している角速度や動的な加速度がわかるため、これらの角速度および/または動的な加速度を用いて、実空間における端末装置6の初期姿勢からの姿勢変化、(すなわち、xyz各軸周りのxyz軸の方向変化)を推定することができる。このように推定される端末装置6の姿勢変化(xyz軸方向変化)に応じて、プレイヤオブジェクトPoおよび仮想カメラと地形オブジェクトとの相対的な方向、姿勢、位置等が設定される。   For example, the terminal device 6 outputs acceleration data and angular velocity data corresponding to the posture change of the terminal device 6. And if the acceleration which the said acceleration data shows is used, since the direction of the gravitational acceleration which is acting on the terminal device 6 is computable, what kind of attitude | position is the terminal device 6 on the basis of the perpendicular direction in real space? That is, it is possible to estimate the xyz-axis direction of the terminal device 6 with respect to the vertical direction. In addition, if the angular velocity indicated by the angular velocity data and / or the acceleration indicated by the acceleration data is used, the angular velocity and / or dynamic acceleration acting on the terminal device 6 can be known. By using this, it is possible to estimate a change in posture from the initial posture of the terminal device 6 in real space (that is, a change in the direction of the xyz axis around each xyz axis). The relative direction, posture, position, and the like of the player object Po and the virtual camera and the terrain object are set according to the estimated posture change (xyz axis direction change) of the terminal device 6 in this way.

また、端末装置6のタッチパネル62をタッチ操作することによって、プレイヤオブジェクトPoおよび仮想カメラを地形オブジェクトに対して相対的に移動することができる。例えば、ユーザがLCD61の表面を覆うタッチパネル62を左方向(図11Bに示す図示B方向)へドラッグするようにタッチ操作した場合、図16Aおよび図16Bに示すような画像がモニタ2およびLCD61にそれぞれ表示される。図11Bに示すように、ユーザがタッチパネル62を左方向へドラッグするようにタッチ操作した場合、ドラッグ操作された長さに応じた距離だけ、ドラッグ操作された方向(図示B方向)へ、プレイヤオブジェクトPoおよび仮想カメラに対して地形オブジェクトが相対的に移動(すなわち、地形オブジェクトに対してプレイヤオブジェクトPoおよび仮想カメラが、ドラッグ操作された逆方向へ相対的に移動)した仮想世界の画像がLCD61に表示される。また、図16Aに示すように、ユーザがタッチパネル62を左方向へドラッグするようにタッチ操作した場合、LCD61に表示される地形オブジェクトの範囲の移動に応じて(すなわち、ドラッグ操作された長さに応じた距離だけ、ドラッグ操作された逆方向へ)、端末装置表示範囲が移動した地形オブジェクト全体の画像がモニタ2に表示される。   Further, by touching the touch panel 62 of the terminal device 6, the player object Po and the virtual camera can be moved relative to the terrain object. For example, when the user performs a touch operation so that the touch panel 62 covering the surface of the LCD 61 is dragged leftward (the B direction shown in FIG. 11B), images as shown in FIGS. 16A and 16B are displayed on the monitor 2 and the LCD 61, respectively. Is displayed. As shown in FIG. 11B, when the user performs a touch operation to drag the touch panel 62 to the left, the player object moves in the dragged direction (direction B in the figure) by a distance corresponding to the dragged length. An image of the virtual world in which the terrain object is moved relative to Po and the virtual camera (that is, the player object Po and the virtual camera are moved relative to the terrain object in the opposite direction of the drag operation) is displayed on the LCD 61. Is displayed. Also, as shown in FIG. 16A, when the user performs a touch operation to drag the touch panel 62 to the left, according to the movement of the range of the terrain object displayed on the LCD 61 (that is, to the length of the drag operation). An image of the entire terrain object whose terminal device display range has been moved is displayed on the monitor 2 in the opposite direction of the drag operation by the corresponding distance.

一例として、図17に示すように、ユーザがタッチパネル62を左方向(図示B方向)へドラッグするようにタッチ操作した場合、プレイヤオブジェクトPoおよび仮想カメラは、仮想世界内を当該ドラッグ操作されたB方向の逆方向(仮想カメラの右方向(X軸正方向)となる図示D方向)へそれぞれ同じ距離だけ移動する。ここで、ドラッグ操作中のタッチ位置の軌跡と重なって表示される仮想世界(地形オブジェクト)上の軌跡を基準として、当該軌跡の逆方向にプレイヤオブジェクトPoおよび仮想カメラの移動方向が設定され、当該軌跡と同じ長さにプレイヤオブジェクトPoおよび仮想カメラの移動距離が設定される。これによって、タッチパネル62がドラッグ操作された場合、LCD61に表示された地形オブジェクトが、タッチパネル62に対するドラッグ操作中のタッチ位置の移動に追従する、すなわち当該タッチ位置と重なって表示されている地形オブジェクトの位置が当該ドラッグ操作中のタッチ位置と常に重なって表示されるように設定される。そして、ユーザがタッチパネル62をドラッグ操作した場合であっても、プレイヤオブジェクトPoは、LCD61において方向、姿勢、位置の何れも変化しない。これによって、図11Bおよび図16Bを比較すれば明らかなように、ユーザがタッチパネル62を左方向へドラッグするようにタッチ操作した場合、地形オブジェクトは、ドラッグ操作に応じた方向へドラッグ操作に応じた距離だけ移動してLCD61に表示され、結果的に実空間においてもタッチ位置の移動に追従して移動しているように見える。一方、プレイヤオブジェクトPoは、タッチパネル62がタッチ操作された場合、ドラッグ操作に応じた方向の逆方向へドラッグ操作に応じた距離だけ地形オブジェクトに対しては相対的に移動するが、LCD61に対して固定配置される。   As an example, as illustrated in FIG. 17, when the user performs a touch operation so as to drag the touch panel 62 in the left direction (the B direction in the drawing), the player object Po and the virtual camera are moved in the virtual world. It moves by the same distance in the opposite direction (D direction in the figure, which is the right direction (X-axis positive direction) of the virtual camera). Here, the moving direction of the player object Po and the virtual camera is set in the opposite direction of the trajectory on the basis of the trajectory on the virtual world (terrain object) displayed overlapping the trajectory of the touch position during the drag operation. The moving distance of the player object Po and the virtual camera is set to the same length as the trajectory. Thus, when the touch panel 62 is dragged, the terrain object displayed on the LCD 61 follows the movement of the touch position during the drag operation on the touch panel 62, that is, the terrain object displayed overlapping the touch position. The position is set so that the position is always overlapped with the touch position during the drag operation. Even when the user performs a drag operation on the touch panel 62, the player object Po does not change any of the direction, posture, and position on the LCD 61. 11B and FIG. 16B, when the user performs a touch operation to drag the touch panel 62 to the left, the terrain object responds to the drag operation in the direction corresponding to the drag operation. It moves by the distance and is displayed on the LCD 61, and as a result, it seems to move following the movement of the touch position even in the real space. On the other hand, when touch operation is performed on the touch panel 62, the player object Po moves relative to the terrain object in a direction opposite to the direction corresponding to the drag operation by a distance corresponding to the drag operation. Fixed placement.

上述した仮想世界画像の生成方式は、一例として、地形オブジェクトを仮想世界で固定して、LCD61に表示する仮想世界の画像を生成する仮想カメラおよびプレイヤオブジェクトPoを仮想世界において移動させることによって行っている。しかしながら、上述した仮想世界画像は、仮想世界におけるプレイヤオブジェクトPoおよび仮想カメラと地形オブジェクトとの間の相対的な位置を変化させれば、他の方法でも生成することができる。   The virtual world image generation method described above is performed, for example, by fixing a terrain object in the virtual world and moving the virtual camera and player object Po that generate an image of the virtual world displayed on the LCD 61 in the virtual world. Yes. However, the virtual world image described above can be generated by other methods as long as the relative position between the player object Po and the virtual camera and the terrain object in the virtual world is changed.

例えば、図11Bに示した地形オブジェクトおよびプレイヤオブジェクトPoが配置された仮想世界の画像を、タッチパネル62へのタッチ操作に応じて図16Bに示されるような画像に変化させる場合、図18に示すように、地形オブジェクトをタッチ操作に応じて移動させてもかまわない。この場合、タッチパネル62を用いてドラッグ操作された場合であっても、プレイヤオブジェクトPoおよび仮想カメラは、仮想世界において固定して配置する。その一方で、タッチパネル62を用いてドラッグ操作された場合、当該ドラッグ操作に応じた方向(タッチパネル62の左方向(x軸負方向)となる図示B方向へのドラッグ操作の場合、仮想カメラの左方向(X軸負方向)となる図示B方向)へ当該ドラッグ操作に応じた距離だけ地形オブジェクトを仮想世界で移動させる。このような仮想世界画像の生成方式であっても、同様の画像をLCD61に表示することができる。このように、仮想世界におけるプレイヤオブジェクトPoおよび仮想カメラと地形オブジェクトとの少なくとも一方をタッチパネル62へのタッチ操作に応じて相対的に移動させれば、図11Bおよび図16Bに示した仮想世界画像を生成することができるが、以下においては、地形オブジェクトを仮想世界で固定して、仮想カメラおよびプレイヤオブジェクトPoを仮想世界において移動させる方法を用いて説明する。   For example, when the image of the virtual world in which the terrain object and the player object Po shown in FIG. 11B are arranged is changed to the image shown in FIG. 16B according to the touch operation on the touch panel 62, as shown in FIG. In addition, the terrain object may be moved according to the touch operation. In this case, even when a drag operation is performed using the touch panel 62, the player object Po and the virtual camera are fixedly arranged in the virtual world. On the other hand, when a drag operation is performed using the touch panel 62, the left of the virtual camera is displayed in the direction corresponding to the drag operation (the drag operation in the B direction illustrated in the left direction (x-axis negative direction) of the touch panel 62. The terrain object is moved in the virtual world by a distance corresponding to the drag operation in the direction (B direction in the figure, which is the negative direction of the X axis). Even with such a virtual world image generation method, a similar image can be displayed on the LCD 61. As described above, if at least one of the player object Po, the virtual camera, and the terrain object in the virtual world is relatively moved according to the touch operation on the touch panel 62, the virtual world images shown in FIGS. 11B and 16B are displayed. In the following description, a method of fixing a terrain object in the virtual world and moving the virtual camera and the player object Po in the virtual world will be described.

このように、ユーザが端末装置6のタッチパネル62をタッチ操作することによって、地形オブジェクトに対してプレイヤオブジェクトPoおよび仮想カメラを相対的に移動させてLCD61に表示することができる。そして、タッチパネル62へのタッチ位置の移動方向および移動距離に地形オブジェクトの表示位置の移動が追従するように、プレイヤオブジェクトPoおよび仮想カメラの相対的な移動方向および移動距離を設定することによって、あたかもユーザが地形オブジェクトをタッチ操作でスライド移動させているようなリアリティあるゲームを実現することができる。   Thus, when the user performs a touch operation on the touch panel 62 of the terminal device 6, the player object Po and the virtual camera can be moved relative to the terrain object and displayed on the LCD 61. Then, by setting the relative moving direction and moving distance of the player object Po and the virtual camera so that the movement of the display position of the terrain object follows the moving direction and moving distance of the touch position on the touch panel 62, it is as if A realistic game in which the user slides the terrain object by a touch operation can be realized.

ユーザがボード型コントローラ9を用いた操作によってプレイヤオブジェクトPoを移動させる場合と、タッチパネル62へのタッチ操作によってプレイヤオブジェクトPoを移動させる場合とによって、地形オブジェクトに対するプレイヤオブジェクトPoの移動態様を変化させることが考えられる。例えば、ボード型コントローラ9を用いた操作によってプレイヤオブジェクトPoが移動する場合は、地形オブジェクトによって表現されている移動可能経路や移動可能領域に準じて移動することができ、当該地形オブジェクト上に対するアクション(例えば、地形オブジェクト上のアイテムを取得するアクションや、地形オブジェクト上の他のオブジェクトとの間のアクション)が可能となる。その一方で、タッチパネル62へのタッチ操作によってプレイヤオブジェクトPoが移動する場合は、地形オブジェクトによって表現されている移動可能経路や移動可能領域とは無関係に移動(例えば、地形オブジェクト上の空中を移動するように扱われる)することができ、当該地形オブジェクト上に対するアクションができない。これによって、ユーザは、プレイヤオブジェクトPoの移動目的に応じて、ボード型コントローラ9を用いた操作とタッチ操作とを使い分ける必要が生じ、各移動態様のメリットを生かした操作が可能となる。   The movement mode of the player object Po with respect to the terrain object is changed depending on whether the user moves the player object Po by an operation using the board-type controller 9 or moves the player object Po by a touch operation on the touch panel 62. Can be considered. For example, when the player object Po moves by an operation using the board-type controller 9, the player object Po can move according to a movable route or a movable area expressed by the terrain object, and an action ( For example, an action for acquiring an item on the terrain object and an action between other objects on the terrain object) are possible. On the other hand, when the player object Po moves by a touch operation on the touch panel 62, the player object Po moves regardless of the movable path and the movable area expressed by the terrain object (for example, moves in the air on the terrain object). Action on the terrain object is not possible. As a result, the user needs to use the board-type controller 9 and the touch operation properly in accordance with the purpose of movement of the player object Po, and can perform operations utilizing the merits of each movement mode.

また、モニタ2には、地形オブジェクト全体の中心が画面中央に配置された画像が表示される一例を用いたが、地形オブジェクト全体の中心が画面の中央からずれた状態でモニタ2に表示されてもかまわない。例えば、地形オブジェクト上に配置されているプレイヤオブジェクトPoの現在地を第2仮想カメラの注視点として、当該現在地が常にモニタ2の画面中央に配置されるように地形布オブジェクトを配置してもかまわない。これによって、プレイヤオブジェクトPo移動する場合であっても、現在地が常にモニタ2の中央に配置され、プレイヤオブジェクトPo移動によって現在地の表示位置が大きく移動することがないため、ユーザに対して現在地をわかりやすくする効果が期待できる。   The monitor 2 uses an example in which an image in which the center of the entire terrain object is arranged at the center of the screen is used. However, the image is displayed on the monitor 2 with the center of the entire terrain object shifted from the center of the screen. It doesn't matter. For example, the terrain cloth object may be arranged so that the current location of the player object Po placed on the terrain object is always located at the center of the screen of the monitor 2 with the second virtual camera as the gazing point. . Thus, even when the player object Po moves, the current location is always arranged at the center of the monitor 2 and the display position of the current location does not move greatly due to the movement of the player object Po. We can expect effect to make it easy.

次に、ゲームシステム1において行われる処理の詳細を説明する。まず、図19を参照して、当該処理において用いられる主なデータについて説明する。なお、図19は、ゲーム装置本体5のメインメモリに記憶される主なデータおよびプログラムの一例を示す図である。   Next, details of processing performed in the game system 1 will be described. First, main data used in the processing will be described with reference to FIG. FIG. 19 is a diagram showing an example of main data and programs stored in the main memory of the game apparatus body 5.

図19に示すように、メインメモリのデータ記憶領域には、ボード操作データDa、端末操作データDb、荷重値データDc、端末装置方向姿勢データDd、操作方向データDe、プレイヤオブジェクトデータDf、地形オブジェクトデータDg、端末装置表示範囲データDh、前回タッチ位置データDi、足踏フラグデータDj、移動速度データDk、仮想カメラデータDm、および画像データDn等が記憶される。なお、メインメモリには、図19に示す情報に含まれるデータの他、モニタ2やLCD61に表示される各種オブジェクトの画像データや処理に使用される音声データ等、処理に必要なデータが適宜記憶される。また、メインメモリのプログラム記憶領域には、上記情報処理プログラムを構成する各種プログラム群Paが記憶される。   As shown in FIG. 19, in the data storage area of the main memory, board operation data Da, terminal operation data Db, load value data Dc, terminal device direction / posture data Dd, operation direction data De, player object data Df, terrain object Data Dg, terminal device display range data Dh, previous touch position data Di, footstep flag data Dj, movement speed data Dk, virtual camera data Dm, image data Dn, and the like are stored. In addition to the data included in the information shown in FIG. 19, the main memory appropriately stores data necessary for processing such as image data of various objects displayed on the monitor 2 and the LCD 61 and sound data used for processing. Is done. Various program groups Pa constituting the information processing program are stored in the program storage area of the main memory.

ボード操作データDaは、ボード型コントローラ9から送信データとして送信されてくる一連の操作情報(ボード操作データ)が格納され、最新のボード操作データに更新される。例えば、ボード操作データDaは、荷重データDa1等を含んでいる。荷重データDa1は、ボード型コントローラ9の荷重センサ94a〜94dがそれぞれ検出した荷重検出値を示すデータである。   The board operation data Da stores a series of operation information (board operation data) transmitted as transmission data from the board type controller 9 and is updated to the latest board operation data. For example, the board operation data Da includes load data Da1 and the like. The load data Da1 is data indicating load detection values detected by the load sensors 94a to 94d of the board type controller 9, respectively.

端末操作データDbは、端末装置6から送信データとして送信されてくる一連の操作情報(端末操作データ)が格納され、最新の端末操作データに更新される。例えば、端末操作データDbは、加速度データDb1、角速度データDb2、およびタッチ位置データDb3等を含んでいる。加速度データDb1は、加速度センサ603によって検出された加速度(加速度ベクトル)を表すデータである。例えば、加速度データDb1は、図3に示すxyzの3軸の方向に関する加速度を各成分とする3次元の加速度を表すものであるが、他の例においては、任意の1以上の方向に関する加速度を表すものであってもよい。角速度データDb2は、ジャイロセンサ604によって検出された角速度を表すデータである。例えば、角速度データDb2は、図3に示すxyzの3軸回りのそれぞれの角速度を表すものであるが、他の例においては、任意の1軸以上の軸回り角速度を表すものであってもよい。タッチ位置データDb3は、タッチパネル62の入力面において入力が行われた位置の座標を表すデータである。   The terminal operation data Db stores a series of operation information (terminal operation data) transmitted from the terminal device 6 as transmission data, and is updated to the latest terminal operation data. For example, the terminal operation data Db includes acceleration data Db1, angular velocity data Db2, touch position data Db3, and the like. The acceleration data Db1 is data representing the acceleration (acceleration vector) detected by the acceleration sensor 603. For example, the acceleration data Db1 represents a three-dimensional acceleration having acceleration components in the xyz three-axis directions shown in FIG. 3 as components, but in another example, acceleration data in any one or more directions is expressed. It may represent. The angular velocity data Db2 is data representing the angular velocity detected by the gyro sensor 604. For example, the angular velocity data Db2 represents the angular velocities around the three axes xyz shown in FIG. 3, but in other examples, the angular velocity data Db2 may represent angular velocities around any one or more axes. . The touch position data Db3 is data representing the coordinates of the position where an input has been made on the input surface of the touch panel 62.

なお、ゲーム装置本体5は、コントローラ7、ボード型コントローラ9、および端末装置6からそれぞれ所定周期毎(例えば、1/200秒毎)に送信される操作情報に含まれるデータ(例えば、荷重検出値、加速度、および角速度を示すデータ)を逐次受信している。例えば、受信されたデータは、入出力プロセッサ31によってメインメモリに逐次記憶される。後述する処理フローでは、CPU10が最新のボード操作データおよび端末操作データを1フレーム毎(例えば、1/60秒毎)にメインメモリから読み出して、ボード操作データDaおよび端末操作データDbをそれぞれ更新する例を用いる。   Note that the game apparatus body 5 includes data (for example, load detection values) included in operation information transmitted at predetermined intervals (for example, every 1/200 second) from the controller 7, the board-type controller 9, and the terminal device 6, respectively. , Data indicating acceleration and angular velocity) are sequentially received. For example, the received data is sequentially stored in the main memory by the input / output processor 31. In the processing flow described later, the CPU 10 reads the latest board operation data and terminal operation data from the main memory every frame (for example, every 1/60 seconds), and updates the board operation data Da and the terminal operation data Db, respectively. An example is used.

また、コントローラ7、ボード型コントローラ9、および端末装置6からそれぞれ所定周期毎に送信される操作情報は、コントローラ通信モジュール19や端末通信モジュール28等に備える図示しないバッファに一旦蓄えられてもよい。この場合、上記バッファに蓄えられたデータが、1フレーム毎に読み出されて、メインメモリのボード操作データDa(例えば、荷重データDa1)や端末操作データDb(例えば、加速度データDb1、角速度データDb2、およびタッチ位置データDb3)が更新されて用いられる。このとき、操作情報を受信する周期と処理周期とが異なるために、上記バッファには複数の時点に受信した操作情報が記述されていることになるが、複数の時点に受信した操作情報のうち最新の操作情報のみを用いて当該処理が実行される。   Further, the operation information transmitted from the controller 7, the board type controller 9, and the terminal device 6 at each predetermined period may be temporarily stored in a buffer (not shown) provided in the controller communication module 19, the terminal communication module 28, or the like. In this case, the data stored in the buffer is read for each frame, and board operation data Da (for example, load data Da1) and terminal operation data Db (for example, acceleration data Db1, angular velocity data Db2) in the main memory. , And touch position data Db3) are updated and used. At this time, since the cycle for receiving the operation information and the processing cycle are different, the operation information received at a plurality of times is described in the buffer. Of the operation information received at a plurality of times, The process is executed using only the latest operation information.

荷重値データDcは、ボード型コントローラ9が検出する荷重値を示すデータの集合である。例えば、荷重値データDcは、荷重センサ94a〜94dがそれぞれ検出した荷重の合計値(合計荷重値)を示すデータの集合である。具体的には、荷重値データDcは、時系列的に算出された所定期間内の上記合計荷重値を示すデータの配列であり、配列の各要素に上記合計荷重値を示すデータが時系列に格納される。   The load value data Dc is a set of data indicating the load value detected by the board type controller 9. For example, the load value data Dc is a set of data indicating the total value (total load value) of the loads detected by the load sensors 94a to 94d. Specifically, the load value data Dc is an array of data indicating the total load value within a predetermined period calculated in time series, and data indicating the total load value in each element of the array is time-series. Stored.

端末装置方向姿勢データDdは、実空間における端末装置6の現時点の方向および姿勢を示すデータである。例えば、端末装置方向姿勢データDdは、端末操作データDbに含まれる加速度データDb1および角速度データDb2に基づいて算出される。   The terminal device direction / posture data Dd is data indicating the current direction and posture of the terminal device 6 in the real space. For example, the terminal device orientation / posture data Dd is calculated based on the acceleration data Db1 and the angular velocity data Db2 included in the terminal operation data Db.

操作方向データDeは、基準操作指示方向データDe1および操作指示方向データDe2等を含んでいる。基準操作指示方向データDe1は、初期設定の際に設定され、操作指示方向の基準となる方向を示すデータである。操作指示方向データDe2は、現時点でユーザから指示されている操作指示方向を示すデータである。なお、基準操作指示方向および操作指示方向の算出方法については、後述する。   The operation direction data De includes reference operation instruction direction data De1, operation instruction direction data De2, and the like. The reference operation instruction direction data De1 is data that is set at the time of initial setting and indicates a direction serving as a reference for the operation instruction direction. The operation instruction direction data De2 is data indicating the operation instruction direction currently instructed by the user. Note that the calculation method of the reference operation instruction direction and the operation instruction direction will be described later.

プレイヤオブジェクトデータDfは、仮想世界におけるプレイヤオブジェクトPoに関するデータである。例えば、プレイヤオブジェクトデータDfは、仮想世界におけるプレイヤオブジェクトPoの位置、姿勢、方向等を示すデータである。   The player object data Df is data related to the player object Po in the virtual world. For example, the player object data Df is data indicating the position, posture, direction, etc. of the player object Po in the virtual world.

地形オブジェクトデータDgは、仮想世界における地形オブジェクトに関するデータである。例えば、地形オブジェクトデータDgは、仮想世界における地形オブジェクトの位置、姿勢、方向等を示すデータである。   The terrain object data Dg is data regarding terrain objects in the virtual world. For example, the terrain object data Dg is data indicating the position, posture, direction, and the like of the terrain object in the virtual world.

端末装置表示範囲データDhは、地形オブジェクト上に描画される端末装置表示範囲を示すデータである。例えば、端末装置表示範囲データDhは、地形オブジェクトに対する端末装置表示範囲の描画位置、線種等を示すデータである。   The terminal device display range data Dh is data indicating the terminal device display range drawn on the terrain object. For example, the terminal device display range data Dh is data indicating the drawing position, line type, and the like of the terminal device display range for the terrain object.

前回タッチ位置データDiは、前回の処理においてタッチパネル62がタッチされたタッチ位置を示すデータである。   The previous touch position data Di is data indicating the touch position where the touch panel 62 is touched in the previous process.

足踏フラグデータDjは、ボード型コントローラ9上に閾値以上の荷重が加わった際にオンに設定され、ボード型コントローラ9上に加わる荷重が閾値未満となった際にオフに設定される足踏フラグを示すデータである。   The footstep flag data Dj is set to ON when a load greater than or equal to the threshold is applied to the board type controller 9, and is set to OFF when the load applied to the board type controller 9 is less than the threshold. Data indicating a flag.

移動速度データDkは、ボード型コントローラ9への操作に応じて、プレイヤオブジェクトPoが仮想世界を移動する速度であり、地形オブジェクトに対してプレイヤオブジェクトPoが移動する速度を示すデータである。   The moving speed data Dk is data indicating the speed at which the player object Po moves in the virtual world in response to an operation on the board-type controller 9, and the speed at which the player object Po moves with respect to the terrain object.

仮想カメラデータDmは、仮想世界に設定される仮想カメラに関するデータである。例えば、仮想カメラデータDmは、端末装置6のLCD61に表示するゲーム画像を生成するための第1仮想カメラに関するデータと、モニタ2に表示するゲーム画像を生成するための第2仮想カメラに関するデータとを含む。   The virtual camera data Dm is data related to the virtual camera set in the virtual world. For example, the virtual camera data Dm includes data relating to a first virtual camera for generating a game image to be displayed on the LCD 61 of the terminal device 6 and data relating to a second virtual camera for generating a game image to be displayed on the monitor 2. including.

画像データDnは、プレイヤオブジェクトPo画像データDn1および地形オブジェクト画像データDn2等を含んでいる。プレイヤオブジェクトPo画像データDn1は、仮想世界にプレイヤオブジェクトPoを配置してゲーム画像を生成するためのデータである。地形オブジェクト画像データDn2は、仮想世界に地形オブジェクトを配置してゲーム画像を生成するためのデータである。   The image data Dn includes player object Po image data Dn1, terrain object image data Dn2, and the like. The player object Po image data Dn1 is data for arranging the player object Po in the virtual world and generating a game image. The terrain object image data Dn2 is data for arranging a terrain object in the virtual world to generate a game image.

次に、図20〜図23を参照して、ゲーム装置本体5において行われるゲーム処理の詳細を説明する。なお、図20は、ゲーム装置本体5において実行されるゲーム処理の一例を示すフローチャートである。図21は、図20におけるステップ44のゲーム制御処理の一例を示すサブルーチンである。図22は、図21におけるステップ83のオブジェクト設定処理の一例を示すサブルーチンである。図23は、図22におけるステップ118の移動処理の一例を示すサブルーチンである。ここで、図20〜図23に示すフローチャートにおいては、ゲーム処理のうち、端末装置6およびボード型コントローラ9を用いたユーザの操作に応じて、プレイヤオブジェクトPoおよび仮想カメラが地形オブジェクトに対して相対的に動作して表示される処理について主に説明し、本願発明と直接関連しない他の処理については詳細な説明を省略する。また、図20〜図23では、CPU10が実行する各ステップを「S」と略称する。   Next, with reference to FIGS. 20 to 23, details of the game process performed in the game apparatus body 5 will be described. FIG. 20 is a flowchart showing an example of game processing executed in the game apparatus body 5. FIG. 21 is a subroutine showing an example of the game control process in step 44 in FIG. FIG. 22 is a subroutine showing an example of the object setting process in step 83 in FIG. FIG. 23 is a subroutine showing an example of the movement process of step 118 in FIG. Here, in the flowcharts shown in FIGS. 20 to 23, the player object Po and the virtual camera are relative to the terrain object in accordance with the user operation using the terminal device 6 and the board-type controller 9 in the game process. The processing that is displayed by operating automatically will be mainly described, and detailed description of other processing not directly related to the present invention will be omitted. 20 to 23, each step executed by the CPU 10 is abbreviated as “S”.

ゲーム装置本体5の電源が投入されると、ゲーム装置本体5のCPU10は、ROM/RTC13に記憶されている起動用のプログラムを実行し、これによってメインメモリ等の各ユニットが初期化される。そして、光ディスク4に記憶されたゲームプログラムがメインメモリに読み込まれ、CPU10によって当該プログラムの実行が開始される。図20〜図23に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。   When the power of the game apparatus body 5 is turned on, the CPU 10 of the game apparatus body 5 executes a startup program stored in the ROM / RTC 13, thereby initializing each unit such as the main memory. Then, the game program stored in the optical disc 4 is read into the main memory, and the CPU 10 starts executing the program. The flowchart shown in FIGS. 20-23 is a flowchart which shows the process performed after the above process is completed.

図20において、CPU10は、初期処理を実行し(ステップ40)、次のステップに処理を進める。例えば、上記ステップ40における初期処理において、CPU10は、仮想世界を構築し、仮想世界におけるプレイヤオブジェクトPoおよび地形オブジェクトや仮想カメラ(第1仮想カメラおよび第2仮想カメラ)を所定の位置に配置したり、ゲーム処理で用いる各種パラメータの初期値を設定したりする。なお、第1仮想カメラは、プレイヤオブジェクトPoの直上位置から俯瞰する位置に、プレイヤオブジェクトPoの正面方向が当該第1仮想カメラの上方向(Y軸正方向)となるように初期配置される。   In FIG. 20, the CPU 10 executes an initial process (step 40), and proceeds to the next step. For example, in the initial processing in step 40, the CPU 10 constructs a virtual world and places the player object Po, the terrain object, and the virtual cameras (first virtual camera and second virtual camera) in a predetermined position in the virtual world. Also, initial values of various parameters used in the game process are set. Note that the first virtual camera is initially arranged at a position overlooking the position directly above the player object Po so that the front direction of the player object Po is the upward direction (Y-axis positive direction) of the first virtual camera.

次に、CPU10は、端末装置6から送信されてくるデータに基づいて、基準操作指示方向を算出し(ステップ41)、次のステップに処理を進める。以下、CPU10が基準操作指示方向を算出する一例について説明する。   Next, the CPU 10 calculates a reference operation instruction direction based on the data transmitted from the terminal device 6 (step 41), and proceeds to the next step. Hereinafter, an example in which the CPU 10 calculates the reference operation instruction direction will be described.

端末装置6は、上述したようなデータをゲーム装置本体5へ繰り返し送信している。ゲーム装置本体5においては、端末通信モジュール28が上記データを逐次受信し、入出力プロセッサ31が端末操作データとカメラ画像データとマイク音データとをメインメモリに逐次記憶する。上記ステップ41においては、CPU10は、メインメモリから最新の端末操作データを読み出して加速度データDb1、角速度データDb2、およびタッチ位置データDb3を更新する。   The terminal device 6 repeatedly transmits data as described above to the game apparatus body 5. In the game apparatus body 5, the terminal communication module 28 sequentially receives the data, and the input / output processor 31 sequentially stores the terminal operation data, camera image data, and microphone sound data in the main memory. In step 41, the CPU 10 reads the latest terminal operation data from the main memory and updates the acceleration data Db1, the angular velocity data Db2, and the touch position data Db3.

次に、CPU10は、実空間における端末装置6の方向および姿勢を算出する。例えば、CPU10は、加速度データDb1が示す加速度および角速度データDb2が示す角速度に基づいて、端末装置6の現時点の方向および姿勢を示すデータ(例えば、端末装置6のxyz軸それぞれの方向を示すデータ)を算出し、算出された端末装置6の方向および姿勢を示すデータを用いて端末装置方向姿勢データDdを更新する。例えば、CPU10は、角速度データDb2が示す角速度を用いて、端末装置6の単位時間当たりにおける実空間での回転量(方向変化量)を算出することができる。また、実空間において端末装置6がほぼ静止している状態(静的な状態)では、端末装置6に対して加えられる加速度が重力加速度となるため、加速度データDb1が示す加速度によって端末装置6に加えられる重力方向(すなわち、実空間における鉛直方向を基準とした端末装置6の姿勢)を算出することができる。したがって、CPU10は、加速度データDb1が示す加速度および角速度データDb2が示す角速度に基づいて端末装置6の方向や姿勢を示すデータを算出することができる。   Next, the CPU 10 calculates the direction and orientation of the terminal device 6 in real space. For example, the CPU 10 indicates data indicating the current direction and orientation of the terminal device 6 based on the acceleration indicated by the acceleration data Db1 and the angular velocity indicated by the angular velocity data Db2 (for example, data indicating the respective directions of the xyz axes of the terminal device 6). And the terminal device direction / posture data Dd is updated using the data indicating the calculated direction and posture of the terminal device 6. For example, the CPU 10 can calculate the amount of rotation (direction change amount) in the real space per unit time of the terminal device 6 using the angular velocity indicated by the angular velocity data Db2. Further, in a state where the terminal device 6 is almost stationary in a real space (static state), the acceleration applied to the terminal device 6 is a gravitational acceleration, and therefore the terminal device 6 is accelerated by the acceleration indicated by the acceleration data Db1. The gravity direction to be applied (that is, the attitude of the terminal device 6 with respect to the vertical direction in the real space) can be calculated. Therefore, the CPU 10 can calculate data indicating the direction and orientation of the terminal device 6 based on the acceleration indicated by the acceleration data Db1 and the angular velocity indicated by the angular velocity data Db2.

なお、本実施形態においては、端末装置6で検出される加速度および角速度を示すデータに基づいて端末装置6の方向や姿勢を算出するが、他の実施形態においては、何れか1つのデータや3つ以上のデータを用いて端末装置6の方向や姿勢を算出してもよい。例えば、端末装置6に設けられた磁気センサ602は、端末装置6に加わる磁気を検出しており、端末装置6に加わる地磁気の方向から端末装置6を基準とした所定の方位(すなわち、所定の方位を基準とした端末装置6の姿勢)を算出することができる。なお、端末装置6が配置されている実空間に、地磁気以外の磁界が発生している場合であっても、端末装置6の回転量を算出することができる。したがって、CPU10は、端末装置6で検出される加速度、角速度、および磁気を示すデータの少なくとも1つを用いれば、端末装置6の方向や姿勢を算出することができる。   In the present embodiment, the direction and orientation of the terminal device 6 are calculated based on the data indicating the acceleration and angular velocity detected by the terminal device 6, but in other embodiments, any one of the data and 3 You may calculate the direction and attitude | position of the terminal device 6 using two or more data. For example, the magnetic sensor 602 provided in the terminal device 6 detects the magnetism applied to the terminal device 6, and has a predetermined orientation (that is, a predetermined direction) with respect to the terminal device 6 from the direction of geomagnetism applied to the terminal device 6. The attitude of the terminal device 6 with respect to the azimuth can be calculated. Note that the amount of rotation of the terminal device 6 can be calculated even when a magnetic field other than geomagnetism is generated in the real space where the terminal device 6 is disposed. Therefore, the CPU 10 can calculate the direction and orientation of the terminal device 6 by using at least one of data indicating acceleration, angular velocity, and magnetism detected by the terminal device 6.

また、端末装置6の方向や姿勢の具体的な算出方法はどのような方法であってもよいが、例えば、角速度データDb2が示す角速度に基づいて算出される端末装置6の方向や姿勢を、加速度データDb1が示す加速度および磁気センサ602が検出した磁気の方向を用いて補正する方法が考えられる。   The specific calculation method of the direction and orientation of the terminal device 6 may be any method. For example, the direction and orientation of the terminal device 6 calculated based on the angular velocity indicated by the angular velocity data Db2 A method of correcting using the acceleration indicated by the acceleration data Db1 and the direction of magnetism detected by the magnetic sensor 602 can be considered.

具体的には、CPU10は、まず、角速度データDb2が示す角速度に基づいて端末装置6の姿勢を算出する。端末装置6の姿勢を角速度から算出する方法はどのような方法であってもよいが、一例として、前回の姿勢(前回に算出されたxyz軸の方向)と今回の角速度(今回の処理ループにおけるステップ42で取得された角速度)とを用いて算出される。CPU10は、前回のxyz軸方向を今回の角速度で各軸周りに単位時間分だけ回転させることによって新たなxyz軸方向を算出する。なお、前回のxyz軸方向は、端末装置方向姿勢データDdにより表され、今回の角速度は、角速度データDb2により表される。したがって、CPU10は、端末装置方向姿勢データDdおよび角速度データDb2を読み出して、端末装置6の姿勢(新たなxyz軸方向)を算出する。なお、上述したように上記ステップ41において、端末装置6の初期姿勢が定められている。したがって、端末装置6の姿勢を角速度から算出する場合には、CPU10は、最初に算出された端末装置6の初期姿勢を基準として現時点における端末装置6の姿勢を算出することができる。   Specifically, the CPU 10 first calculates the attitude of the terminal device 6 based on the angular velocity indicated by the angular velocity data Db2. Any method may be used to calculate the attitude of the terminal device 6 from the angular velocity, but as an example, the previous attitude (direction of the xyz axis calculated last time) and the current angular speed (in the current processing loop). And the angular velocity obtained in step 42). The CPU 10 calculates a new xyz-axis direction by rotating the previous xyz-axis direction by a unit time around each axis at the current angular velocity. The previous xyz-axis direction is represented by the terminal device direction / attitude data Dd, and the current angular velocity is represented by the angular velocity data Db2. Therefore, the CPU 10 reads the terminal device direction / attitude data Dd and the angular velocity data Db2 and calculates the attitude (new xyz axis direction) of the terminal device 6. As described above, in step 41, the initial posture of the terminal device 6 is determined. Therefore, when calculating the attitude of the terminal device 6 from the angular velocity, the CPU 10 can calculate the current attitude of the terminal device 6 with reference to the initially calculated initial attitude of the terminal device 6.

次に、CPU10は、角速度に基づいて算出した端末装置6の姿勢(xyz軸方向)を、加速度データDb1が示す加速度を用いて補正する。具体的には、CPU10は、加速度データDb1が示す加速度に基づいて端末装置6の姿勢(xyz軸方向)を算出する。ここで、端末装置6がほぼ静止している状態では、端末装置6に対して加えられている加速度は重力加速度となる。したがって、この状態においては、加速度データDb1が示す加速度の方向を用いて重力加速度の方向(重力方向)を算出することができるので、重力方向に対する端末装置6の向き(重力方向を基準としたxyz軸方向)を算出することができる。   Next, CPU10 correct | amends the attitude | position (xyz-axis direction) of the terminal device 6 calculated based on angular velocity using the acceleration which acceleration data Db1 shows. Specifically, the CPU 10 calculates the attitude (xyz axis direction) of the terminal device 6 based on the acceleration indicated by the acceleration data Db1. Here, in a state where the terminal device 6 is substantially stationary, the acceleration applied to the terminal device 6 is a gravitational acceleration. Therefore, in this state, since the direction of gravity acceleration (gravity direction) can be calculated using the direction of acceleration indicated by the acceleration data Db1, the direction of the terminal device 6 with respect to the gravity direction (xyz with respect to the gravity direction). Axial direction) can be calculated.

加速度に基づく端末装置6の姿勢が算出されると、CPU10は、加速度に基づく姿勢を用いて、角速度に基づく姿勢を補正する。具体的には、CPU10は、角速度に基づいて算出された端末装置6の姿勢(xyz軸方向)を、加速度に基づいて算出された端末装置6の姿勢(xyz軸方向)へ所定の割合で近づける補正を行う。上記所定の割合は、予め定められた固定値であってもよいし、加速度データDb1が示す加速度等に応じて設定されてもよい。また、加速度に基づいて算出された端末装置6の姿勢に関しては、重力方向を軸とする回転方向については姿勢を算出することができないので、CPU10は、当該回転方向に関して補正を行わないようにしてもよい。なお、角速度に基づいて算出された端末装置6の姿勢を、磁気センサ602が検出した磁気の方向に基づいて補正する場合には、CPU10は、角速度に基づいて算出された端末装置6の姿勢を、磁気の方向に基づいて算出された端末装置6の姿勢へと所定の割合で近づけるようにすればよい。以上によれば、CPU10は、端末装置6の姿勢を正確に算出することができる。   When the posture of the terminal device 6 based on the acceleration is calculated, the CPU 10 corrects the posture based on the angular velocity using the posture based on the acceleration. Specifically, the CPU 10 brings the attitude of the terminal device 6 calculated based on the angular velocity (in the xyz axis direction) closer to the attitude of the terminal device 6 calculated based on the acceleration (in the xyz axis direction) at a predetermined rate. Make corrections. The predetermined ratio may be a predetermined fixed value, or may be set according to an acceleration or the like indicated by the acceleration data Db1. In addition, regarding the attitude of the terminal device 6 calculated based on the acceleration, the attitude cannot be calculated for the rotation direction with the gravity direction as an axis, so the CPU 10 does not correct the rotation direction. Also good. When correcting the attitude of the terminal device 6 calculated based on the angular velocity based on the magnetic direction detected by the magnetic sensor 602, the CPU 10 determines the attitude of the terminal device 6 calculated based on the angular velocity. The terminal device 6 calculated based on the direction of magnetism may be approximated at a predetermined rate. Based on the above, the CPU 10 can accurately calculate the attitude of the terminal device 6.

そして、実空間における端末装置6の方向および姿勢に基づいて、操作指示方向の基準となる基準操作指示方向を算出する。なお、以下の説明においては、一例として、実空間において端末装置6の上面が向いている方向(図3に示すy軸正方向であり、端末装置上方向)から操作指示方向を設定する。操作指示方向の算出処理では、端末装置6の姿勢および方向に各種補正が行われることによって操作指示方向が算出される。そして、上記ステップ41で算出された操作指示方向を用いて基準操作指示方向を設定し、当該基準操作指示方向を用いて基準操作指示方向De1が更新される。   Then, based on the direction and orientation of the terminal device 6 in the real space, a reference operation instruction direction serving as a reference for the operation instruction direction is calculated. In the following description, as an example, the operation instruction direction is set from the direction in which the upper surface of the terminal device 6 faces in real space (the y-axis positive direction shown in FIG. 3 and the terminal device upward direction). In the operation instruction direction calculation process, the operation instruction direction is calculated by performing various corrections on the attitude and direction of the terminal device 6. Then, a reference operation instruction direction is set using the operation instruction direction calculated in step 41, and the reference operation instruction direction De1 is updated using the reference operation instruction direction.

操作指示方向を算出する際、端末装置6のx軸周りおよびy軸周りの傾きが補正される。例えば、端末装置方向姿勢データDdが示すxyz軸それぞれの方向を用いて、x軸方向およびy軸方向を強制的に水平方向に補正(例えば、x軸方向およびy軸方向の鉛直方向成分をそれぞれ0にして、実空間の水平面に鉛直方向へx軸方向およびy軸方向をそれぞれ投影した方向に補正)する。次に、水平方向に補正されたx軸方向とy軸方向との外積によって新たにz軸方向を算出する。そして、新たに算出されたz軸方向と水平方向に補正されたx軸成分との外積によって新たにy軸方向を算出し、新たに算出されたy軸正方向(操作指示方向)を用いて基準操作指示方向De1を更新する。   When calculating the operation instruction direction, the inclination of the terminal device 6 around the x axis and the y axis is corrected. For example, the x-axis direction and the y-axis direction are forcibly corrected to the horizontal direction using the directions of the xyz axes indicated by the terminal device direction / attitude data Dd (for example, the vertical direction components in the x-axis direction and the y-axis direction are respectively 0, and the x-axis direction and the y-axis direction are corrected to the directions projected onto the horizontal plane of the real space in the vertical direction). Next, a new z-axis direction is calculated based on the outer product of the x-axis direction and the y-axis direction corrected in the horizontal direction. Then, a new y-axis direction is calculated by the outer product of the newly calculated z-axis direction and the x-axis component corrected in the horizontal direction, and the newly calculated y-axis positive direction (operation instruction direction) is used. The reference operation instruction direction De1 is updated.

なお、上記基準操作指示方向は、加速度データDb1が示す加速度に基づいて補正されて算出されてもよいし、磁気センサ602が検出した磁気の方向に基づいて補正されて算出されてもよいし、端末装置6を特定の姿勢にした状態(例えば、卓上に載置して静止させた状態)でユーザに所定の操作を行わせることで、所定の操作が行われた時点におけるx軸方向およびy軸方向が水平方向に向いていると仮定して算出されてもよい。上記基準操作指示方向を設定するタイミング、すなわち上記ステップ41を実行するタイミングは、ゲーム開始時点に自動的に行われてもいいし、端末装置6を用いてユーザが所定の操作(例えば、所定の操作ボタン64を押下する操作)を行ったことに応じて行われてもかまわない。   The reference operation instruction direction may be corrected and calculated based on the acceleration indicated by the acceleration data Db1, or may be corrected and calculated based on the magnetic direction detected by the magnetic sensor 602. By causing the user to perform a predetermined operation in a state in which the terminal device 6 is in a specific posture (for example, a state where the terminal device 6 is placed on a table and stationary), the x-axis direction and y at the time when the predetermined operation is performed It may be calculated on the assumption that the axial direction is in the horizontal direction. The timing for setting the reference operation instruction direction, that is, the timing for executing the step 41 may be automatically performed at the time of starting the game, or the user can use the terminal device 6 to perform a predetermined operation (for example, a predetermined operation). The operation may be performed in response to the operation of pressing the operation button 64).

上記ステップ41の次にステップ42の処理が実行される。以降、ステップ42〜ステップ51の一連の処理からなる処理ループが所定時間(1フレーム時間)に1回の割合で繰り返し実行される。   Following step 41, the process of step 42 is executed. Thereafter, a processing loop composed of a series of processes from step 42 to step 51 is repeatedly executed at a rate of once per predetermined time (one frame time).

ステップ42において、CPU10は、ボード型コントローラ9から送信されてくるボード操作データを取得し、次のステップに処理を進める。ここで、ボード型コントローラ9は、ボード操作データをゲーム装置本体5へ繰り返し送信している。したがって、ゲーム装置本体5においては、コントローラ通信モジュール19が上記ボード操作データを逐次受信し、受信されたボード操作データが入出力プロセッサ31によってメインメモリに逐次記憶される。ボード型コントローラ9のボード操作データ送信の間隔は、ゲームの処理時間(1フレーム時間)よりも短い方が好ましく、例えば200分の1秒である。上記ステップ42においては、CPU10は、メインメモリから最新のボード操作データを読み出して荷重データDa1を更新する。なお、上記ボード操作データには、荷重センサ94a〜94dの識別情報を示すデータおよび荷重センサ94a〜94dがそれぞれ検出した荷重検出値を示すデータが含まれており、当該識別情報によって区別されたデータをそれぞれ用いて、荷重データDa1が更新される。   In step 42, the CPU 10 acquires board operation data transmitted from the board type controller 9, and proceeds to the next step. Here, the board-type controller 9 repeatedly transmits board operation data to the game apparatus body 5. Therefore, in the game apparatus body 5, the controller communication module 19 sequentially receives the board operation data, and the received board operation data is sequentially stored in the main memory by the input / output processor 31. The board operation data transmission interval of the board-type controller 9 is preferably shorter than the game processing time (one frame time), for example, 1/200 second. In step 42, the CPU 10 reads the latest board operation data from the main memory and updates the load data Da1. The board operation data includes data indicating identification information of the load sensors 94a to 94d and data indicating load detection values detected by the load sensors 94a to 94d, respectively. Is used to update the load data Da1.

次に、CPU10は、端末装置6から送信されてくる各種のデータを取得し(ステップ43)、次のステップに処理を進める。ここで、端末装置6は、上記データをゲーム装置本体5へ繰り返し送信している。したがって、ゲーム装置本体5においては、端末通信モジュール28が上記データを逐次受信し、カメラ画像データおよびマイク音データについてはコーデックLSI27によって伸張処理が逐次施される。そして、入出力プロセッサ31は、端末操作データとカメラ画像データとマイク音データとをメインメモリに逐次記憶する。上記ステップ43においては、CPU10は、メインメモリから最新の端末操作データを読み出して加速度データDb1、角速度データDb2、およびタッチ位置データDb3を更新する。   Next, the CPU 10 acquires various data transmitted from the terminal device 6 (step 43), and proceeds to the next step. Here, the terminal device 6 repeatedly transmits the data to the game apparatus body 5. Therefore, in the game apparatus body 5, the terminal communication module 28 sequentially receives the data, and the camera image data and the microphone sound data are sequentially subjected to expansion processing by the codec LSI 27. Then, the input / output processor 31 sequentially stores terminal operation data, camera image data, and microphone sound data in the main memory. In step 43, the CPU 10 reads the latest terminal operation data from the main memory and updates the acceleration data Db1, the angular velocity data Db2, and the touch position data Db3.

次に、CPU10は、ゲーム制御処理を行って(ステップ44)、次のステップに処理を進める。上記ゲーム制御処理は、ユーザによるゲーム操作に従って仮想世界内のプレイヤオブジェクトPoおよび地形オブジェクトや仮想カメラを動作させる処理等を実行し、ゲームを進行させる処理である。当該ゲーム例では、ユーザは、端末装置6およびボード型コントローラ9を用いて種々のゲームを行うことが可能である。以下、図21を参照して、上記ステップ44におけるゲーム制御処理について説明する。   Next, the CPU 10 performs a game control process (step 44), and proceeds to the next step. The game control process is a process for executing the game by executing the player object Po, the terrain object, and the virtual camera in the virtual world according to the game operation by the user. In the game example, the user can play various games using the terminal device 6 and the board type controller 9. Hereinafter, the game control process in step 44 will be described with reference to FIG.

図21において、CPU10は、合計荷重値を算出して(ステップ81)、次のステップに処理を進める。例えば、CPU10は、荷重データDa1が示す荷重センサ94a〜94dがそれぞれ検出した荷重を合計して合計荷重値を算出し、当該合計荷重値を示すデータを用いて荷重値データDcにおける合計荷重値を示す時系列データ配列のうち最新のデータを更新する。具体的には、荷重データDa1は、荷重センサ94a〜94dがそれぞれ検出した最新の荷重検出値を示しているため、当該荷重検出値を用いることによって、上記合計荷重値が算出される。このようにして算出される合計荷重値は、ボード型コントローラ9上のユーザ動作に応じて変化する。一例として、ユーザがボード型コントローラ9上に荷重を加える動作をした場合、合計荷重値が加えられた荷重に応じて上昇する。   In FIG. 21, the CPU 10 calculates the total load value (step 81) and proceeds to the next step. For example, the CPU 10 calculates the total load value by adding the loads detected by the load sensors 94a to 94d indicated by the load data Da1, and uses the data indicating the total load value to calculate the total load value in the load value data Dc. The latest data in the time series data array shown is updated. Specifically, since the load data Da1 indicates the latest load detection values detected by the load sensors 94a to 94d, the total load value is calculated by using the load detection values. The total load value calculated in this way changes according to the user operation on the board type controller 9. As an example, when the user performs an operation of applying a load on the board type controller 9, the total load value increases according to the applied load.

次に、CPU10は、端末装置6の方向および姿勢を算出し(ステップ82)、次のステップに処理を進める。例えば、CPU10は、加速度データDb1が示す加速度および角速度データDb2が示す角速度に基づいて、端末装置6の現時点の方向および姿勢を示すデータ(例えば、端末装置6のxyz軸それぞれの方向を示すデータ)を算出し、算出された端末装置6の方向および姿勢を示すデータを用いて端末装置方向姿勢データDdを更新する。なお、端末装置6の現時点の方向および姿勢を示すデータの算出方法については、上記ステップ41で説明した方法と同様であるため、詳細な説明を省略する。   Next, the CPU 10 calculates the direction and orientation of the terminal device 6 (step 82), and proceeds to the next step. For example, the CPU 10 indicates data indicating the current direction and orientation of the terminal device 6 based on the acceleration indicated by the acceleration data Db1 and the angular velocity indicated by the angular velocity data Db2 (for example, data indicating the respective directions of the xyz axes of the terminal device 6). And the terminal device direction / posture data Dd is updated using the data indicating the calculated direction and posture of the terminal device 6. Note that a method for calculating data indicating the current direction and orientation of the terminal device 6 is the same as the method described in step 41 above, and thus detailed description thereof is omitted.

次に、CPU10は、オブジェクト設定処理を行い(ステップ83)、次のステップに処理を進める。以下、図22を参照して、上記ステップ83におけるオブジェクト設定処理について説明する。   Next, the CPU 10 performs an object setting process (step 83), and proceeds to the next step. Hereinafter, the object setting process in step 83 will be described with reference to FIG.

図22において、CPU10は、操作指示方向を算出し(ステップ111)、次のステップに処理を進める。例えば、CPU10は、端末装置方向姿勢データDdが示すxyz軸それぞれの方向を用いて、x軸方向およびy軸方向を強制的に水平方向に補正し、水平方向に補正されたx軸方向とy軸方向との外積によって新たにz軸方向を算出する。そして、CPU10は、新たに算出されたz軸方向と水平方向に補正されたx軸成分との外積によって新たにy軸方向を算出し、新たに算出されたy軸正方向(操作指示方向)を用いて操作指示方向De2を更新する。   In FIG. 22, the CPU 10 calculates the operation instruction direction (step 111), and proceeds to the next step. For example, the CPU 10 forcibly corrects the x-axis direction and the y-axis direction to the horizontal direction by using the directions of the xyz axes indicated by the terminal device direction / attitude data Dd, and the corrected x-axis direction and y in the horizontal direction. The z-axis direction is newly calculated from the outer product with the axial direction. Then, the CPU 10 newly calculates the y-axis direction based on the outer product of the newly calculated z-axis direction and the x-axis component corrected in the horizontal direction, and newly calculated y-axis positive direction (operation instruction direction). Is used to update the operation instruction direction De2.

次に、CPU10は、上記ステップ111で算出された操作指示方向に応じて、仮想世界におけるプレイヤオブジェクトPoおよび第1仮想カメラの方向(姿勢)を設定し(ステップ112)、次のステップに処理を進める。例えば、CPU10は、基準操作指示方向データDe1が示す基準操作指示方向および操作指示方向データDe2が示す操作指示方向を用いて、当該基準操作指示方向に対する当該操作指示方向の変化角度および変化方向を算出する。そして、CPU10は、仮想世界基準方向(例えば、モニタ2に表示される仮想世界の上方向であり、本実施例では地形オブジェクトの方向が仮想世界に対して固定されるため地形オブジェクトの北方向)に対して、上記変化角度だけ上記変化方向に回転させた仮想世界における方向を用いてプレイヤオブジェクトPoの正面方向(例えば、図14に示すF方向)を設定し、プレイヤオブジェクトデータDfを更新する。また、CPU10は、仮想世界基準方向に対して、上記変化角度だけ上記変化方向に回転させた仮想世界における方向を用いて第1仮想カメラの上方向(例えば、図14に示すY軸正方向)を設定し、仮想カメラデータDmを更新する。例えば、図14に示されるように、基準操作指示方向に対する当該操作指示方向の変化角度が回転角度Cであり変化方向がz軸正方向に見て反時計回りである場合、プレイヤオブジェクトPoの正面方向(図示F方向)は、仮想世界基準方向から回転角度Cだけ仮想世界鉛直方向に見て反時計方向へ回転させた方向に設定される。また、第1仮想カメラの上方向(例えば、図示Y軸正方向)も、プレイヤオブジェクトPoの正面方向と同様に、仮想世界基準方向から回転角度Cだけ視線方向に見て反時計方向へ回転させた方向に設定される。   Next, the CPU 10 sets the direction (posture) of the player object Po and the first virtual camera in the virtual world according to the operation instruction direction calculated in step 111 (step 112), and the process is performed in the next step. Proceed. For example, the CPU 10 uses the reference operation instruction direction indicated by the reference operation instruction direction data De1 and the operation instruction direction indicated by the operation instruction direction data De2 to calculate the change angle and change direction of the operation instruction direction with respect to the reference operation instruction direction. To do. Then, the CPU 10 refers to the virtual world reference direction (for example, the upward direction of the virtual world displayed on the monitor 2, and in this embodiment, the direction of the terrain object is fixed with respect to the virtual world, so the north direction of the terrain object). On the other hand, the front direction of the player object Po (for example, the F direction shown in FIG. 14) is set using the direction in the virtual world rotated in the change direction by the change angle, and the player object data Df is updated. Further, the CPU 10 uses the direction in the virtual world that is rotated in the change direction by the change angle with respect to the virtual world reference direction to move upward in the first virtual camera (for example, the positive Y-axis direction shown in FIG. 14). And the virtual camera data Dm is updated. For example, as shown in FIG. 14, when the change angle of the operation instruction direction with respect to the reference operation instruction direction is the rotation angle C and the change direction is counterclockwise when viewed in the positive z-axis direction, the front of the player object Po The direction (direction F in the figure) is set to a direction rotated counterclockwise as viewed in the virtual world vertical direction from the virtual world reference direction by the rotation angle C. Further, the upward direction of the first virtual camera (for example, the positive Y-axis direction in the figure) is also rotated counterclockwise as viewed in the line-of-sight direction from the virtual world reference direction by the rotation angle C, similarly to the front direction of the player object Po. Set in the direction.

次に、CPU10は、タッチパネル62に対するタッチ操作が行われているか否かを判断する(ステップ113)。例えば、CPU10は、タッチ位置データDb3を参照して、ユーザがタッチパネル62に対するタッチ操作を行っているか否かを判断する。そして、CPU10は、タッチパネル62に対するタッチ操作が行われている場合、次のステップ114に処理を進める。一方、CPU10は、タッチパネル62に対するタッチ操作が行われていない場合、次のステップ117に処理を進める。   Next, the CPU 10 determines whether or not a touch operation on the touch panel 62 is performed (step 113). For example, the CPU 10 refers to the touch position data Db3 and determines whether or not the user is performing a touch operation on the touch panel 62. Then, when a touch operation on the touch panel 62 is performed, the CPU 10 advances the processing to the next step 114. On the other hand, when the touch operation on the touch panel 62 is not performed, the CPU 10 advances the process to the next step 117.

ステップ114において、CPU10は、移動速度を0に設定して、次のステップに処理を進める。例えば、CPU10は、0に設定された移動速度を用いて、移動速度データDkを更新する。   In step 114, the CPU 10 sets the moving speed to 0 and proceeds to the next step. For example, the CPU 10 updates the moving speed data Dk using the moving speed set to 0.

次に、CPU10は、前回のタッチ位置から現時点のタッチ位置までの移動距離および移動方向に基づいて、当該移動距離だけ当該移動方向の逆方向へプレイヤオブジェクトPoおよび第1仮想カメラの位置を仮想世界において移動させ(ステップ115)、次のステップに処理を進める。例えば、CPU10は、タッチ位置データDb3が示す現時点のタッチ位置と前回タッチ位置データDiが示す前回タッチ位置とを用いて、現時点のタッチ位置と重なる仮想世界の位置から前回タッチ位置と重なる仮想世界の位置までの距離および方向を算出する。そして、CPU10は、算出された仮想世界の距離(移動距離)だけ算出された仮想世界の方向(移動方向)へプレイヤオブジェクトPoおよび第1仮想カメラの位置を移動させ、当該位置を用いてプレイヤオブジェクトデータDfおよび仮想カメラデータDmを更新する。これによって、図17に示すように、プレイヤオブジェクトPoの位置は、タッチパネル62に対するドラッグ操作方向(図示B方向)と重なる仮想世界の方向の逆方向(図示D方向)へ当該ドラッグ操作された長さに応じた距離だけ、地形オブジェクトに対して相対的に移動する。また、第1仮想カメラの位置もプレイヤオブジェクトPoと同じ移動方向へ同じ移動距離だけ地形オブジェクトに対して相対的に移動するため、結果的にLCD61に表示されたプレイヤオブジェクトPoの表示位置は移動せず、LCD61に表示された地形オブジェクトがタッチパネル62に対するドラッグ操作中のタッチ位置の移動に追従するように移動して表示されることになる。   Next, based on the moving distance and moving direction from the previous touch position to the current touch position, the CPU 10 sets the positions of the player object Po and the first virtual camera in the direction opposite to the moving direction by the moving distance. (Step 115), and the process proceeds to the next step. For example, the CPU 10 uses the current touch position indicated by the touch position data Db3 and the previous touch position indicated by the previous touch position data Di to change the virtual world overlapping the previous touch position from the virtual world position overlapping the current touch position. Calculate the distance and direction to the position. Then, the CPU 10 moves the positions of the player object Po and the first virtual camera in the calculated direction (moving direction) of the virtual world by the calculated distance (moving distance) of the virtual world, and uses the positions to determine the player object. Data Df and virtual camera data Dm are updated. As a result, as shown in FIG. 17, the position of the player object Po is the length of the drag operation in the direction opposite to the direction of the virtual world (D direction in the figure) overlapping the drag operation direction (B direction in the figure) with respect to the touch panel 62. It moves relative to the terrain object by a distance corresponding to. Further, since the position of the first virtual camera also moves relative to the terrain object by the same movement distance in the same movement direction as the player object Po, the display position of the player object Po displayed on the LCD 61 is consequently moved. Instead, the terrain object displayed on the LCD 61 is moved and displayed so as to follow the movement of the touch position during the drag operation on the touch panel 62.

次に、CPU10は、現時点のタッチ位置を用いて前回タッチ位置を更新し(ステップ116)、次のステップ119に処理を進める。例えば、CPU10は、タッチ位置データDb3が示す現時点のタッチ位置を用いて前回タッチ位置データを新たに設定し、当該新たに設定された前回タッチ位置データを用いて前回タッチ位置データDiを更新する。   Next, the CPU 10 updates the previous touch position using the current touch position (step 116), and proceeds to the next step 119. For example, the CPU 10 newly sets the previous touch position data using the current touch position indicated by the touch position data Db3, and updates the previous touch position data Di using the newly set previous touch position data.

一方、ステップ117において、CPU10は、前回タッチ位置を初期化し、次のステップに処理を進める。例えば、CPU10は、前回タッチ位置をNullに初期化し、初期化された前回タッチ位置を用いて前回タッチ位置データDiを更新する。   On the other hand, in step 117, the CPU 10 initializes the previous touch position and proceeds to the next step. For example, the CPU 10 initializes the previous touch position to Null, and updates the previous touch position data Di using the initialized previous touch position.

次に、CPU10は、移動処理を行い(ステップ118)、次のステップ119に処理を進める。以下、図23を参照して、上記ステップ118で行う移動処理について説明する。   Next, the CPU 10 performs a movement process (step 118), and proceeds to the next step 119. Hereinafter, the movement process performed in step 118 will be described with reference to FIG.

図23において、CPU10は、足踏フラグデータDjが示す足踏フラグがオンに設定されているか否かを判断する(ステップ121)。そして、CPU10は、足踏フラグがオフに設定されている場合、次のステップ122に処理を進める。一方、CPU10は、足踏フラグがオンに設定されている場合、次のステップ125に処理を進める。   In FIG. 23, the CPU 10 determines whether or not the footstep flag indicated by the footstep flag data Dj is set to ON (step 121). Then, the CPU 10 advances the processing to the next step 122 when the stepping flag is set to OFF. On the other hand, if the footstep flag is set to ON, the CPU 10 proceeds to the next step 125.

ステップ122において、CPU10は、荷重値データDcが示す合計荷重値が所定の閾値以上であるか否かを判断する。そして、CPU10は、合計荷重値が所定の閾値以上である場合、次のステップ123に処理を進める。一方、CPU10は、合計荷重値が所定の閾値未満である場合、次のステップ127に処理を進める。ここで、上記ステップ122で用いられる閾値は、ユーザがボード型コントローラ9上で足踏みしたことを検出するための値であり、予め設定された値でもいいし、ユーザ操作によって設定された値でもよい。   In step 122, the CPU 10 determines whether or not the total load value indicated by the load value data Dc is equal to or greater than a predetermined threshold value. And CPU10 advances a process to the following step 123, when a total load value is more than a predetermined threshold value. On the other hand, if the total load value is less than the predetermined threshold value, the CPU 10 proceeds to the next step 127. Here, the threshold value used in step 122 is a value for detecting that the user has stepped on the board-type controller 9, and may be a preset value or a value set by a user operation. .

ステップ123において、CPU10は、移動速度を設定し、次のステップに処理を進める。例えば、CPU10は、移動速度Vを
V=(1/F)*Vs
で算出し、算出された移動速度Vを用いて、移動速度データDkを更新する。ここで、Fは、足踏フラグがオンされてから現時点までのフレーム数(ゲームの処理周期を繰り返した回数であり、ゲームの処理時間=1フレーム時間とする)を示しており、ユーザがボード型コントローラ9上で前回足踏みしたことが検出されてから現時点(すなわち、今回足踏みを検出された時点)までのフレーム数を示している。また、Vsは、予め定められた移動速度の最大値である。
In step 123, the CPU 10 sets the moving speed and proceeds to the next step. For example, the CPU 10 sets the moving speed V to V = (1 / F) * Vs
And the moving speed data Dk is updated using the calculated moving speed V. Here, F indicates the number of frames from when the footstep flag is turned on to the current time (the number of times the game processing cycle has been repeated, where game processing time = 1 frame time). The number of frames from when it was detected that the last step on the mold controller 9 was detected to the present time (that is, when the current step is detected) is shown. Vs is a predetermined maximum moving speed.

次に、CPU10は、足踏フラグをオンに設定して足踏フラグデータDjを更新し(ステップ124)、次のステップ127に処理を進める。   Next, the CPU 10 sets the footstep flag on to update the footstep flag data Dj (step 124), and proceeds to the next step 127.

一方、上記ステップ121において足踏フラグがオンに設定されていると判断された場合、CPU10は、荷重値データDcが示す合計荷重値が所定の閾値未満であるか否かを判断する(ステップ125)。そして、CPU10は、合計荷重値が所定の閾値未満である場合、次のステップ126に処理を進める。一方、CPU10は、合計荷重値が所定の閾値以上である場合、次のステップ127に処理を進める。ここで、上記ステップ125で用いられる閾値は、ユーザがボード型コントローラ9上で足踏みを1回することによって一旦上昇した荷重が下降したことを検出することによって、当該1回の足踏みをカウントするための値であり、予め設定された値でもいいし、ユーザ操作によって設定された値でもよい。   On the other hand, when it is determined in step 121 that the footstep flag is set to ON, the CPU 10 determines whether or not the total load value indicated by the load value data Dc is less than a predetermined threshold (step 125). ). Then, when the total load value is less than the predetermined threshold value, the CPU 10 proceeds to the next step 126. On the other hand, if the total load value is equal to or greater than the predetermined threshold value, the CPU 10 proceeds to the next step 127. Here, the threshold value used in the above step 125 is to count the one stepping by detecting that the load once increased by the user once stepping on the board type controller 9 is lowered. This value may be a preset value or a value set by a user operation.

ステップ126において、CPU10は、足踏フラグをオフに設定して足踏フラグデータDjを更新し、次のステップ127に処理を進める。   In step 126, the CPU 10 sets the footstep flag to off, updates the footstep flag data Dj, and proceeds to the next step 127.

ステップ127において、CPU10は、移動速度を減衰させ、次のステップに処理を進める。例えば、CPU10は、移動速度データDkが示す移動速度に1未満の所定の正の値を乗算したり、当該移動速度が0となるまで所定の値を減算したりすることによって、当該移動速度を減衰させる。そして、CPU10は、減衰後の移動速度を用いて、移動速度データDkを更新する。   In step 127, the CPU 10 attenuates the moving speed and proceeds to the next step. For example, the CPU 10 multiplies the movement speed indicated by the movement speed data Dk by a predetermined positive value less than 1, or subtracts a predetermined value until the movement speed becomes 0, thereby reducing the movement speed. Attenuate. Then, the CPU 10 updates the moving speed data Dk using the moving speed after attenuation.

次に、CPU10は、プレイヤオブジェクトPoの正面方向へ移動速度に応じてプレイヤオブジェクトPoおよび第1仮想カメラの位置を仮想世界において移動させ(ステップ128)、当該サブルーチンによる処理を終了する。例えば、CPU10は、プレイヤオブジェクトデータDfが示すプレイヤオブジェクトPoの正面方向と移動速度データDkが示す移動速度とを用いて、仮想世界においてプレイヤオブジェクトPoの正面方向へ当該移動速度の距離だけプレイヤオブジェクトPoの位置を移動させ、当該位置を用いてプレイヤオブジェクトデータDfを更新する。また、CPU10は、プレイヤオブジェクトPoと同じ正面方向へ同じ移動距離だけ第1仮想カメラの位置を移動させ、当該位置を用いて仮想カメラデータDmを更新する。   Next, the CPU 10 moves the positions of the player object Po and the first virtual camera in the virtual world according to the moving speed in the front direction of the player object Po (step 128), and ends the processing by the subroutine. For example, the CPU 10 uses the front direction of the player object Po indicated by the player object data Df and the moving speed indicated by the moving speed data Dk, in the virtual world, by the distance corresponding to the moving speed in the front direction of the player object Po. And the player object data Df is updated using the position. Further, the CPU 10 moves the position of the first virtual camera in the same front direction as the player object Po by the same movement distance, and updates the virtual camera data Dm using the position.

図22に戻り、ステップ119において、CPU10は、地形オブジェクトに対する第1仮想カメラの位置および方向(または、プレイヤオブジェクトPoの位置および方向)に基づいて、端末装置表示範囲を設定して端末装置表示範囲データDhを更新し、当該サブルーチンによる処理を終了する。例えば、CPU10は、仮想カメラデータDmが示す第1仮想カメラの位置(または、プレイヤオブジェクトデータDfが示すプレイヤオブジェクトPoの位置および方向)と、地形オブジェクトデータDgが示す地形オブジェクトの位置とに基づいて、端末装置表示範囲の位置を設定する。具体的には、第1仮想カメラの注視点(プレイヤオブジェクトPoの位置)が端末装置表示範囲の中心位置となるように、地形オブジェクトに対する端末装置表示範囲の位置を設定する。そして、CPU10は、LCD61に表示されている仮想世界の範囲の形状や方向と実質的に一致するように、第1仮想カメラのロール方向(プレイヤオブジェクトPoの正面方向)を用いて端末装置表示範囲の形状および方向を設定する。   Returning to FIG. 22, in step 119, the CPU 10 sets the terminal device display range based on the position and direction of the first virtual camera with respect to the terrain object (or the position and direction of the player object Po) and sets the terminal device display range. The data Dh is updated, and the processing by the subroutine is finished. For example, the CPU 10 is based on the position of the first virtual camera indicated by the virtual camera data Dm (or the position and direction of the player object Po indicated by the player object data Df) and the position of the terrain object indicated by the terrain object data Dg. The position of the terminal device display range is set. Specifically, the position of the terminal device display range with respect to the terrain object is set so that the gazing point (position of the player object Po) of the first virtual camera becomes the center position of the terminal device display range. Then, the CPU 10 uses the roll direction of the first virtual camera (the front direction of the player object Po) so as to substantially match the shape and direction of the range of the virtual world displayed on the LCD 61. Set the shape and direction.

図21に戻り、上記ステップ83のオブジェクト設定処理の後、CPU10は、第2仮想カメラに関するパラメータを設定して仮想カメラデータDmを更新し(ステップ84)、当該サブルーチンによる処理を終了する。例えば、モニタ用ゲーム画像は、仮想世界内に仮想カメラを配置して、仮想カメラから見たゲーム空間を計算することによって得られる3次元のCG画像等によってそれぞれ生成される。一例として、モニタ用ゲーム画像を生成するための第2仮想カメラは、上述した第1仮想カメラが設定されている同じ仮想世界に設定され、当該仮想世界に配置されている地形オブジェクトの直上遠方位置に固定配置される。そして、第2仮想カメラの姿勢は、仮想世界の鉛直方向が当該第2仮想カメラの視線方向となり、仮想世界基準方向(本実施例では地形オブジェクトの方向が仮想世界に対して固定されるため地形オブジェクトの北方向)が当該第2仮想カメラの上方向となるように設定される。このように、端末用ゲーム画像およびモニタ用ゲーム画像がそれぞれ異なる視点から見た仮想世界のゲーム画像となるため、それらが表示されるLCD61およびモニタ2にもそれぞれ異なる視点から見た仮想世界のゲーム画像が表示されることになる。   Returning to FIG. 21, after the object setting process in step 83, the CPU 10 sets the parameters related to the second virtual camera and updates the virtual camera data Dm (step 84), and ends the process of the subroutine. For example, the monitor game image is generated by a three-dimensional CG image obtained by arranging a virtual camera in the virtual world and calculating a game space viewed from the virtual camera. As an example, the second virtual camera for generating the monitor game image is set in the same virtual world in which the first virtual camera described above is set, and a distant position directly above the terrain object placed in the virtual world Fixedly arranged. The orientation of the second virtual camera is such that the vertical direction of the virtual world is the line-of-sight direction of the second virtual camera, and the virtual world reference direction (in this embodiment, the direction of the terrain object is fixed relative to the virtual world) The north direction of the object) is set to be the upward direction of the second virtual camera. In this way, since the terminal game image and the monitor game image become virtual world game images viewed from different viewpoints, the virtual world game viewed from different viewpoints also on the LCD 61 and the monitor 2 on which they are displayed. An image will be displayed.

図20に戻り、上記ステップ44におけるゲーム制御処理の後、CPU10およびGPU32は、モニタ2に表示するためのモニタ用ゲーム画像を生成し(ステップ45)、次のステップに処理を進める。例えば、CPU10およびGPU32は、上記ステップ44のゲーム制御処理の結果を表す各データをメインメモリから読み出し、モニタ用ゲーム画像を生成するために必要なデータをVRAM34から読み出してゲーム画像を生成し、生成されたモニタ用ゲーム画像をVRAM34に記憶する。上記モニタ用ゲーム画像は、上記ステップ44のゲーム制御処理の結果を表すものであればよく、どのような方法で生成されてもよい。例えば、モニタ用ゲーム画像は、仮想カメラデータDmが示す第2仮想カメラに関するパラメータに基づいて仮想世界に第2仮想カメラを配置し、プレイヤオブジェクトデータDf、地形オブジェクトデータDg、および端末装置表示範囲データDhに基づいて、プレイヤオブジェクトPoと端末装置表示範囲が描画された地形オブジェクトとを仮想世界に配置して、当該第2仮想カメラから見た仮想世界を計算することによって得られる3次元のCG画像によって生成される。具体的には、CPU10は、端末装置表示範囲データDhに基づいて、端末装置表示範囲を地形オブジェクト(端末装置表示範囲は、地形オブジェクトの枠外に描画されることもあり得る)に描画する。そして、CPU10は、プレイヤオブジェクトデータDfおよび地形オブジェクトデータDgが示す位置および方向に基づいて、プレイヤオブジェクトPoおよび地形オブジェクトをそれぞれ仮想世界に配置する。   Returning to FIG. 20, after the game control process in step 44, the CPU 10 and the GPU 32 generate a monitor game image to be displayed on the monitor 2 (step 45), and the process proceeds to the next step. For example, the CPU 10 and the GPU 32 read out each data representing the result of the game control process in step 44 from the main memory, read out data necessary for generating a monitor game image from the VRAM 34, generate a game image, and generate The monitored game image is stored in the VRAM 34. The monitor game image may be generated by any method as long as it represents the result of the game control process in step 44. For example, in the monitor game image, the second virtual camera is arranged in the virtual world based on the parameters related to the second virtual camera indicated by the virtual camera data Dm, and the player object data Df, the terrain object data Dg, and the terminal device display range data A three-dimensional CG image obtained by arranging the player object Po and the terrain object on which the terminal device display range is drawn based on Dh in the virtual world and calculating the virtual world viewed from the second virtual camera. Generated by. Specifically, the CPU 10 draws the terminal device display range on the terrain object (the terminal device display range may be drawn outside the frame of the terrain object) based on the terminal device display range data Dh. Then, the CPU 10 places the player object Po and the terrain object in the virtual world based on the position and direction indicated by the player object data Df and the terrain object data Dg.

次に、CPU10およびGPU32は、端末装置6に表示するための端末用ゲーム画像を生成し(ステップ46)、次のステップに処理を進める。例えば、CPU10およびGPU32は、上記ステップ44のゲーム制御処理の結果を表す各データをメインメモリから読み出し、端末用ゲーム画像を生成するために必要なデータをVRAM34から読み出してゲーム画像を生成し、生成されたモニタ用ゲーム画像をVRAM34に記憶する。端末用ゲーム画像についても、上記モニタ用ゲーム画像と同様に上記ステップ44のゲーム制御処理の結果を表すものであればよく、どのような方法で生成されてもよい。また、端末用ゲーム画像は、上記モニタ用ゲーム画像と同様の方法で生成されてもよいし、異なる方法で生成されてもよい。例えば、端末用ゲーム画像は、仮想カメラデータDmが示す第1仮想カメラに関するパラメータに基づいて仮想世界に第1仮想カメラを配置し、上記ステップ45と同様にプレイヤオブジェクトPoおよび地形オブジェクトをそれぞれ仮想世界に配置して、当該第1仮想カメラから見た仮想世界を計算することによって得られる3次元のCG画像によって仮想世界画像が生成される。   Next, the CPU 10 and the GPU 32 generate a terminal game image to be displayed on the terminal device 6 (step 46), and proceed to the next step. For example, the CPU 10 and the GPU 32 read out each data representing the result of the game control process in step 44 from the main memory, read out data necessary for generating a terminal game image from the VRAM 34, generate a game image, and generate The monitored game image is stored in the VRAM 34. The terminal game image may be generated by any method as long as it represents the result of the game control process in step 44 as in the case of the monitor game image. Further, the terminal game image may be generated by the same method as the monitor game image or may be generated by a different method. For example, in the terminal game image, the first virtual camera is arranged in the virtual world based on the parameters relating to the first virtual camera indicated by the virtual camera data Dm, and the player object Po and the terrain object are respectively set in the virtual world in the same manner as in step 45. And a virtual world image is generated by a three-dimensional CG image obtained by calculating the virtual world viewed from the first virtual camera.

次に、CPU10は、モニタ2のスピーカ2aに出力するためのモニタ用ゲーム音声を生成し(ステップ47)、次のステップに処理を進める。例えば、CPU10は、上記ステップ44のゲーム制御処理の結果に応じてスピーカ2aから出力するためのモニタ用ゲーム音声をDSP33に生成させる。一例として、CPU10は、上記ステップ44のゲーム制御処理の結果に応じて設定された仮想世界において、第2仮想カメラの位置を基準として聞こえると想定される各オブジェクトの動作音および効果音等に、モニタ2から出力させたいBGM等を加えたモニタ用ゲーム音声を、DSP33に生成させる。   Next, the CPU 10 generates a monitor game sound to be output to the speaker 2a of the monitor 2 (step 47), and proceeds to the next step. For example, the CPU 10 causes the DSP 33 to generate a monitor game sound to be output from the speaker 2a in accordance with the result of the game control process in step 44. As an example, in the virtual world set according to the result of the game control process in the above step 44, the CPU 10 uses the operation sound and sound effect of each object assumed to be heard based on the position of the second virtual camera. The DSP 33 generates monitor game sound to which BGM or the like to be output from the monitor 2 is added.

次に、CPU10は、端末装置6のスピーカ607に出力するための端末用ゲーム音声を生成し(ステップ48)、次のステップに処理を進める。例えば、CPU10は、上記ステップ44のゲーム制御処理の結果に応じてスピーカ607から出力するための端末用ゲーム音声をDSP33に生成させる。一例として、CPU10は、上記ステップ44のゲーム制御処理の結果に応じて設定された仮想世界において、第1仮想カメラの位置を基準として聞こえると想定される各オブジェクトの動作音および効果音等に、端末装置6から出力させたいBGM等を加えた端末用ゲーム音声を、DSP33に生成させる。なお、上記端末用ゲーム音声は、上記モニタ用ゲーム音声と同じであってもよいし、異なっていてもよい。また、上記端末用ゲーム音声は、上記モニタ用ゲーム音声に対して、一部の音声が異なる(例えば効果音は異なるが、BGMが同じ)ものでもよい。なお、モニタ用ゲーム音声と端末用ゲーム音声とが同一である場合、ステップ48において端末用ゲーム音声の生成処理が実行されなくてもよい。   Next, the CPU 10 generates a terminal game sound to be output to the speaker 607 of the terminal device 6 (step 48), and proceeds to the next step. For example, the CPU 10 causes the DSP 33 to generate terminal game sound to be output from the speaker 607 in accordance with the result of the game control process in step 44. As an example, in the virtual world set according to the result of the game control process in the above step 44, the CPU 10 uses the operation sound and sound effect of each object assumed to be heard based on the position of the first virtual camera. The DSP 33 generates a terminal game sound to which BGM or the like to be output from the terminal device 6 is added. The terminal game sound may be the same as or different from the monitor game sound. Further, the terminal game sound may be a part of the sound different from the monitor game sound (for example, sound effects are different but BGM is the same). If the monitor game sound and the terminal game sound are the same, the generation process of the terminal game sound may not be executed in step 48.

次に、CPU10は、モニタ2へモニタ用ゲーム画像およびモニタ用ゲーム音声を出力し(ステップ49)、次のステップに処理を進める。例えば、CPU10は、VRAM34に記憶されたモニタ用ゲーム画像のデータと、DSP33によって生成されたモニタ用ゲーム音声のデータとを、AV−IC15へ送る。これに応じて、AV−IC15は、モニタ用ゲーム画像およびモニタ用ゲーム音声を示すデータを、AVコネクタ16を介してモニタ2へ出力する。これによって、モニタ用ゲーム画像がモニタ2に表示されるとともに、モニタ用ゲーム音声がスピーカ2aから出力される。   Next, the CPU 10 outputs the monitor game image and the monitor game sound to the monitor 2 (step 49), and proceeds to the next step. For example, the CPU 10 sends the monitor game image data stored in the VRAM 34 and the monitor game sound data generated by the DSP 33 to the AV-IC 15. In response to this, the AV-IC 15 outputs data indicating the monitor game image and the monitor game sound to the monitor 2 via the AV connector 16. As a result, the monitor game image is displayed on the monitor 2 and the monitor game sound is output from the speaker 2a.

次に、CPU10は、端末装置6へ端末用ゲーム画像および端末用ゲーム音声を送信し(ステップ50)、次のステップに処理を進める。例えば、CPU10は、VRAM34に記憶された端末用ゲーム画像のデータおよびDSP33によって生成された端末用ゲーム音声のデータは、CPU10によってコーデックLSI27に送られ、コーデックLSI27によって所定の圧縮処理が行われる。さらに、圧縮処理が施された端末用ゲーム画像のデータおよび端末用ゲーム音声のデータは、コーデックLSI27によって端末通信モジュール28に送られ、アンテナ29を介して端末通信モジュール28によって端末装置6へ送信される。ゲーム装置本体5から送信された端末用ゲーム画像のデータおよび端末用ゲーム音声のデータは、端末装置6の無線モジュール610によって受信され、コーデックLSI606によって所定の伸張処理が行われる。そして、伸張処理が行われた端末用ゲーム画像のデータは、LCD61に出力され、伸張処理が行われた端末用ゲーム音声のデータ音声データは、サウンドIC608に出力される。これによって、端末用ゲーム画像がLCD61に表示されるとともに、端末用ゲーム音声がスピーカ607から出力される。   Next, the CPU 10 transmits the terminal game image and the terminal game sound to the terminal device 6 (step 50), and proceeds to the next step. For example, the CPU 10 sends the terminal game image data stored in the VRAM 34 and the terminal game sound data generated by the DSP 33 to the codec LSI 27, and the codec LSI 27 performs a predetermined compression process. Further, the terminal game image data and the terminal game sound data subjected to the compression processing are transmitted to the terminal communication module 28 by the codec LSI 27 and transmitted to the terminal device 6 by the terminal communication module 28 via the antenna 29. The The terminal game image data and the terminal game sound data transmitted from the game apparatus body 5 are received by the wireless module 610 of the terminal apparatus 6 and subjected to predetermined decompression processing by the codec LSI 606. The terminal game image data that has undergone the decompression process is output to the LCD 61, and the data sound data of the terminal game sound that has undergone the decompression process is output to the sound IC 608. As a result, the terminal game image is displayed on the LCD 61 and the terminal game sound is output from the speaker 607.

次に、CPU10は、ゲームを終了するか否かを判定する(ステップ51)。ゲームを終了する条件としては、例えば、ゲームオーバーやゲームクリアとなる条件が満たされたことや、ユーザがゲームを終了する操作を行ったこと等がある。CPU10は、ゲームを終了しない場合に上記ステップ42に戻って処理を繰り返し、ゲームを終了する場合に当該フローチャートによる処理を終了する。以降、ステップ42〜ステップ51の一連の処理は、ステップ51でゲームを終了すると判定されるまで繰り返し実行される。   Next, the CPU 10 determines whether or not to end the game (step 51). As a condition for ending the game, for example, a condition that a game is over or a game is cleared is satisfied, or a user performs an operation to end the game. If the game is not finished, the CPU 10 returns to step 42 and repeats the process. If the game is finished, the process according to the flowchart is finished. Thereafter, the series of processing from step 42 to step 51 is repeatedly executed until it is determined in step 51 that the game is to be ended.

上述した処理によれば、端末装置6の姿勢や動きによる操作および端末装置6のタッチパネル62へのタッチ操作によって、仮想世界の仮想カメラ(第1仮想カメラ)を制御することが可能となっている。例えば、端末装置6の姿勢や動きによる操作によって仮想カメラを仮想世界においてロール回転させる制御が可能であるとともに、タッチパネル62へのドラッグ操作によって仮想カメラを仮想世界において移動させるような制御も可能となっている。このように、上述した処理によれば、端末装置6の動きや姿勢によって端末装置6に表示される画像の視点(第1仮想カメラの位置や姿勢)が変わる場合に、当該視点をタッチ操作でも変えることができるため、ユーザが視点を変える操作をさらに容易にすることができる。   According to the processing described above, it is possible to control the virtual camera (first virtual camera) in the virtual world by an operation based on the attitude or movement of the terminal device 6 and a touch operation on the touch panel 62 of the terminal device 6. . For example, the virtual camera can be controlled to roll and rotate in the virtual world by an operation based on the attitude and movement of the terminal device 6, and the virtual camera can be controlled to move in the virtual world by a drag operation on the touch panel 62. ing. As described above, according to the above-described processing, when the viewpoint (position and orientation of the first virtual camera) of the image displayed on the terminal device 6 changes depending on the movement and orientation of the terminal device 6, the viewpoint can be changed even by a touch operation. Since it can be changed, the user can further easily change the viewpoint.

また、上述した処理によれば、端末装置6の姿勢や動きによる操作、端末装置6のタッチパネル62へのタッチ操作、およびボード型コントローラ9に加える荷重による操作によって、仮想世界のプレイヤオブジェクトPoの動作を制御することが可能となっている。例えば、端末装置6の姿勢や動きによる操作によってプレイヤオブジェクトPoを仮想世界において方向を変える制御が可能であるとともに、タッチパネル62へのドラッグ操作やボード型コントローラ9に加える荷重による操作によってプレイヤオブジェクトPoを仮想世界において移動させるような制御も可能となっている。このように、上述した処理によれば、仮想世界に複数のオブジェクトが登場する場合に、当該オブジェクトに対するユーザ操作を多様にすることが可能となる。   Further, according to the above-described processing, the operation of the player object Po in the virtual world is performed by the operation based on the attitude and movement of the terminal device 6, the touch operation on the touch panel 62 of the terminal device 6, and the operation based on the load applied to the board type controller 9. Can be controlled. For example, it is possible to control the direction of the player object Po in the virtual world by an operation based on the attitude or movement of the terminal device 6, and the player object Po can be controlled by a drag operation on the touch panel 62 or an operation by a load applied to the board type controller 9. Control that moves in the virtual world is also possible. Thus, according to the above-described processing, when a plurality of objects appear in the virtual world, it is possible to diversify user operations on the objects.

なお、上述した説明では、仮想世界にプレイヤオブジェクトPoと地形オブジェクトとが登場するゲーム例を用いたが、これらのオブジェクトが配置されていない仮想世界を端末装置6のLCD61に表示するような場合であっても本発明を適用することができる。例えば、LCD61に表示する仮想世界画像を生成するための仮想カメラを、仮想世界内に配置する。そして、端末装置6の姿勢や動きに応じて上記仮想カメラの仮想世界における姿勢や位置を変化させるとともに、タッチパネル62へのタッチ操作に応じて当該仮想カメラの仮想世界における姿勢や位置を変化させる。一例として、端末装置6がロール回転した場合、仮想世界に対して上記仮想カメラを当該ロール回転に応じて視線方向周りに相対的に回転させる。また、タッチパネル62に対してドラッグ操作が行われた場合、当該ドラッグ操作に応じた距離だけ当該ドラッグ操作に応じた方向または逆方向へ仮想世界に対して上記仮想カメラを相対的に移動させる。このように仮想カメラが単に仮想世界に配置されている場合であっても、端末装置6への操作に応じてユーザが所望する視点で当該仮想世界をLCD61に表示することができるため、ユーザが当該視点を変える操作を容易にすることができる。   In the above description, the game example in which the player object Po and the terrain object appear in the virtual world is used. However, the virtual world in which these objects are not arranged is displayed on the LCD 61 of the terminal device 6. Even if it exists, this invention is applicable. For example, a virtual camera for generating a virtual world image to be displayed on the LCD 61 is arranged in the virtual world. Then, the attitude and position of the virtual camera in the virtual world are changed according to the attitude and movement of the terminal device 6, and the attitude and position of the virtual camera in the virtual world are changed according to a touch operation on the touch panel 62. As an example, when the terminal device 6 rolls, the virtual camera is rotated relative to the virtual world around the viewing direction according to the roll rotation. When a drag operation is performed on the touch panel 62, the virtual camera is moved relative to the virtual world in a direction corresponding to the drag operation or a reverse direction by a distance corresponding to the drag operation. Even when the virtual camera is simply arranged in the virtual world as described above, the virtual world can be displayed on the LCD 61 from the viewpoint desired by the user in accordance with the operation on the terminal device 6. The operation of changing the viewpoint can be facilitated.

また、上述したゲーム例では、端末装置6のLCD61に表示されるゲーム画像と、モニタ2に表示されるゲーム画像とは、何れも同じ仮想世界の様子を示す画像であるが、当該仮想世界を見る視点や範囲が異なる画像である。したがって、ユーザは、2つの表示画面に表示された異なる視界や表示範囲となった仮想世界を見ることが可能となり、ゲーム状況等に応じて適宜好適なゲーム画像を見ることが可能となる。また、上述したゲーム例では、ユーザが端末装置6を卓上で動かして操作を行い、実空間における端末装置6の姿勢や位置に応じてプレイヤオブジェクトPoの方向を地形オブジェクトに対して相対的に変化させるとともに、LCD61に表示される画像も当該変化に応じて変化させることもできる。したがって、端末装置6を動かしながらLCD61に表示される画像を見るユーザに、仮想世界の臨場感を与えることができる。その一方で、LCD61に表示される画像だけを見ていると仮想世界全体に対する位置やプレイヤオブジェクトPoの周囲の状況の把握が難しくなることも考えられるが、モニタ2に相対的に広い範囲の仮想世界を表示することによって、このような問題を解消することができる。   In the above-described game example, the game image displayed on the LCD 61 of the terminal device 6 and the game image displayed on the monitor 2 are both images showing the same virtual world. It is an image with a different viewpoint and range. Therefore, the user can see the virtual world that is displayed in different views and display ranges displayed on the two display screens, and can view a suitable game image as appropriate according to the game situation and the like. In the above-described game example, the user moves and operates the terminal device 6 on the table, and the direction of the player object Po is changed relative to the terrain object according to the posture and position of the terminal device 6 in the real space. In addition, the image displayed on the LCD 61 can be changed according to the change. Accordingly, it is possible to give a virtual world a sense of presence to a user who views an image displayed on the LCD 61 while moving the terminal device 6. On the other hand, if only the image displayed on the LCD 61 is viewed, it may be difficult to grasp the position of the entire virtual world and the situation around the player object Po. By displaying the world, such a problem can be solved.

また、上述した実施形態では、仮想カメラから見たゲーム空間を計算することによって得られる3次元のCG画像等がLCD61やモニタ2に表示されているが、他の画像処理によって生成された仮想世界の画像をLCD61やモニタ2に表示してもかまわない。例えば、プレイヤオブジェクトPoや地形オブジェクトが2次元画像で表現された2次元の仮想世界画像を、LCD61やモニタ2に表示してもかまわない。   In the above-described embodiment, a three-dimensional CG image or the like obtained by calculating the game space viewed from the virtual camera is displayed on the LCD 61 or the monitor 2, but the virtual world generated by other image processing is displayed. These images may be displayed on the LCD 61 or the monitor 2. For example, a two-dimensional virtual world image in which the player object Po or the terrain object is represented by a two-dimensional image may be displayed on the LCD 61 or the monitor 2.

また、上述した説明では、地形オブジェクト上をプレイヤオブジェクトPoが移動するゲーム例を用いたが、本発明は当該ゲームに限定されないことは言うまでもない。例えば、のこぎりで板材を切るようなゲームに、本発明を適用することが考えられる。当該ゲームでは、上記地形オブジェクトを板材としプレイヤオブジェクトPoをのこぎりとして同様の表示制御を行い、ボード型コントローラ9に加える荷重による操作によって当該のこぎりで板材が切断されていく様子がLCD61およびモニタ2に表示される。このようなゲームであっても、上述した本発明の効果を同様に得ることができる。   In the above description, a game example in which the player object Po moves on the terrain object has been used, but it goes without saying that the present invention is not limited to this game. For example, it is conceivable to apply the present invention to a game in which a board is cut with a saw. In the game, the display object is displayed on the LCD 61 and the monitor 2 by performing the same display control using the terrain object as a plate material and the player object Po as a saw, and the operation of the load applied to the board type controller 9 by the saw. Is done. Even in such a game, the effects of the present invention described above can be obtained similarly.

また、ゲームシステム1は、端末装置6およびボード型コントローラ9を操作手段として、上記で説明したように種々のゲームを行うことが可能である。端末装置6は、可搬形のディスプレイや第2のディスプレイとしても使用することができる一方で、本体の動きによる操作、タッチ操作、ボタン操作等による入力を行うコントローラとしても使用することができ、ゲームシステム1によれば、幅広いゲームを実施することが可能となる。つまり、端末装置6は、表示装置として機能するとともに、操作装置としても機能するものであるため、モニタ2およびコントローラ7を使用せずに端末装置6を表示手段として使用し、端末装置6およびボード型コントローラ9を操作手段として使用するようなゲームシステムのような形態もあり得る。さらに、端末装置6は、表示装置として機能するとともに、操作装置としても機能するものであるため、モニタ2、コントローラ7、およびボード型コントローラ9を使用せずに端末装置6を表示手段として使用し、端末装置6を操作手段として使用するようなゲームシステムのような形態もあり得る。   The game system 1 can play various games as described above using the terminal device 6 and the board-type controller 9 as operation means. While the terminal device 6 can be used as a portable display or a second display, the terminal device 6 can also be used as a controller that performs input by operation of the main body, touch operation, button operation, etc. According to the system 1, it becomes possible to implement a wide range of games. That is, since the terminal device 6 functions as a display device and also as an operation device, the terminal device 6 is used as a display means without using the monitor 2 and the controller 7, and the terminal device 6 and the board are used. There may be a form such as a game system using the mold controller 9 as an operation means. Furthermore, since the terminal device 6 functions as a display device and also as an operation device, the terminal device 6 is used as a display means without using the monitor 2, the controller 7, and the board type controller 9. There may be a game system that uses the terminal device 6 as an operation means.

また、上記実施形態においては、端末装置6は、ゲーム処理を実行しない、いわゆるシンクライアント端末として機能するものであった。しかしながら、端末装置6は、上記実施形態においてゲーム装置本体5によって実行される一連のゲーム処理のうち、少なくとも一部の処理が端末装置6によって実行されてもよい。一例として、一部の処理(例えば、端末用ゲーム画像の生成処理)を端末装置6が実行するようにしてもよい。他の例として、ゲーム装置本体5によって実行される一連のゲーム処理全てを端末装置6が実行するようにしてもよい。この場合、端末装置6は、表示装置として機能するとともに、ゲーム処理を実行する処理装置としても機能するものであるため、モニタ2、ゲーム装置本体5、およびコントローラ7を使用せずに端末装置6を表示手段として使用し、ボード型コントローラ9を操作手段として使用し、端末装置6を処理手段として使用するようなゲームシステムのような形態もあり得る。当該ゲームシステムでは、端末装置6およびボード型コントローラ9のみが無線または有線によって接続され、ボード型コントローラ9からボード操作データを端末装置6へ出力することによって、種々のゲームを行うことができる。また、ボード型コントローラ9も使用しない場合、端末装置6を表示手段、操作手段、および処理手段として使用するような形態もあり得ることは言うまでもない。   Moreover, in the said embodiment, the terminal device 6 functions as what is called a thin client terminal which does not perform a game process. However, in the terminal device 6, at least a part of the series of game processes executed by the game apparatus body 5 in the above embodiment may be executed by the terminal device 6. As an example, the terminal device 6 may execute a part of processing (for example, processing for generating a terminal game image). As another example, the terminal device 6 may execute all the series of game processes executed by the game apparatus body 5. In this case, since the terminal device 6 functions as a display device and also functions as a processing device that executes game processing, the terminal device 6 does not use the monitor 2, the game device body 5, and the controller 7. Can be used as a display means, a board type controller 9 is used as an operation means, and a terminal system 6 is used as a processing means. In the game system, only the terminal device 6 and the board type controller 9 are connected wirelessly or by wire, and various kinds of games can be performed by outputting board operation data from the board type controller 9 to the terminal device 6. Needless to say, when the board-type controller 9 is not used, the terminal device 6 may be used as a display unit, an operation unit, and a processing unit.

また、上記実施形態においては、端末装置6の姿勢および/または動き(位置や姿勢そのもの、あるいは、位置や姿勢の変化を含む)を算出するために用いられる姿勢データ(例えば、磁気センサ602、加速度センサ603、およびジャイロセンサ604から出力される少なくとも1つのデータ)を端末装置6からゲーム装置本体5へ出力され、ゲーム装置本体5における情報処理によって端末装置6の姿勢および/または動きが算出されている。しかしながら、ゲーム装置本体5において算出されている端末装置6の姿勢および/または動きを、端末装置6において算出してもかまわない。この場合、端末装置6で算出された端末装置6の姿勢および/または動きを示すデータ(すなわち、上記姿勢データを用いて算出された、端末装置6の位置や姿勢そのもの、あるいは、位置や姿勢の変化を示すデータ)が、端末装置6からゲーム装置本体5へ出力され、ゲーム装置本体5における情報処理において当該データが利用されることになる。   In the above embodiment, posture data (for example, magnetic sensor 602, acceleration) used to calculate the posture and / or movement of the terminal device 6 (including the position and posture itself, or changes in the position and posture). At least one data output from the sensor 603 and the gyro sensor 604) is output from the terminal device 6 to the game apparatus body 5, and the attitude and / or movement of the terminal apparatus 6 is calculated by information processing in the game apparatus body 5. Yes. However, the attitude and / or movement of the terminal device 6 calculated in the game apparatus main body 5 may be calculated in the terminal device 6. In this case, data indicating the posture and / or movement of the terminal device 6 calculated by the terminal device 6 (that is, the position and posture of the terminal device 6 itself calculated using the posture data, or the position and posture of the terminal device 6). Data indicating a change) is output from the terminal device 6 to the game apparatus main body 5, and the data is used in information processing in the game apparatus main body 5.

また、上述した説明では、端末装置6とゲーム装置本体5との間およびボード型コントローラ9とゲーム装置本体5との間がそれぞれ無線通信によって接続された態様を用いたが、他の態様によって装置間の無線通信が行われてもかまわない。第1の例として、端末装置6が他の無線通信の中継装置として機能する。この場合、ボード型コントローラ9のボード操作データが端末装置6へ無線送信され、受信したボード操作データと共に端末装置6の端末操作データを、端末装置6がゲーム装置本体5へ無線送信する。この場合、端末装置6とゲーム装置本体5とが無線通信によって直接的に接続されるが、ボード型コントローラ9は、端末装置6を介してゲーム装置本体5と無線通信によって接続されることになる。第2の例として、ボード型コントローラ9が他の無線通信の中継装置として機能する。この場合、端末装置6の端末操作データがボード型コントローラ9へ無線送信され、受信した端末操作データと共にボード型コントローラ9のボード操作データを、ボード型コントローラ9がゲーム装置本体5へ無線送信する。この場合、ボード型コントローラ9とゲーム装置本体5とが無線通信によって直接的に接続されるが、端末装置6は、ボード型コントローラ9を介してゲーム装置本体5と無線通信によって接続されることになる。なお、他の装置が中継してゲーム装置本体5に操作データを送信する場合、ケーブルを介して当該操作データを生成する装置と当該操作データを中継する他の装置との間を電気的に接続してもかまわない。   Further, in the above description, a mode in which the terminal device 6 and the game device body 5 and the board type controller 9 and the game device body 5 are connected by wireless communication is used. Wireless communication between them may be performed. As a first example, the terminal device 6 functions as a relay device for other wireless communication. In this case, the board operation data of the board type controller 9 is wirelessly transmitted to the terminal device 6, and the terminal device 6 wirelessly transmits the terminal operation data of the terminal device 6 to the game apparatus body 5 together with the received board operation data. In this case, the terminal device 6 and the game apparatus body 5 are directly connected by wireless communication, but the board-type controller 9 is connected to the game apparatus body 5 by wireless communication via the terminal device 6. . As a second example, the board type controller 9 functions as another wireless communication relay device. In this case, the terminal operation data of the terminal device 6 is wirelessly transmitted to the board type controller 9, and the board type controller 9 wirelessly transmits the board operation data of the board type controller 9 to the game apparatus body 5 together with the received terminal operation data. In this case, the board type controller 9 and the game apparatus body 5 are directly connected by wireless communication, but the terminal device 6 is connected to the game apparatus body 5 by wireless communication via the board type controller 9. Become. When another device relays and transmits operation data to the game apparatus main body 5, an electrical connection is established between the device that generates the operation data and another device that relays the operation data via a cable. It doesn't matter.

また、端末装置6および/またはボード型コントローラ9と、ゲーム装置本体5とがケーブルを介して電気的に接続されてもかまわない。この場合、端末装置6および/またはボード型コントローラ9に接続されたケーブルをゲーム装置本体5の接続端子に接続する。第1の例として、端末装置6とゲーム装置本体5とが第1のケーブルを介して電気的に接続され、ボード型コントローラ9とゲーム装置本体5とが第2のケーブルを介して電気的に接続される。第2の例として、端末装置6とゲーム装置本体5との間がケーブルを介して電気的に接続される。この場合、ボード型コントローラ9のボード操作データは、端末装置6へ無線送信された後に上記ケーブルを介してゲーム装置本体5に送信されてもいいし、ボード型コントローラ9から直接ゲーム装置本体5に無線送信されてもよい。第3の例として、ボード型コントローラ9とゲーム装置本体5との間がケーブルを介して電気的に接続される。この場合、端末装置6の端末操作データは、ボード型コントローラ9へ無線送信された後に上記ケーブルを介してゲーム装置本体5に送信されてもいいし、端末装置6から直接ゲーム装置本体5に無線送信されてもよい。   Further, the terminal device 6 and / or the board-type controller 9 and the game apparatus body 5 may be electrically connected via a cable. In this case, the cable connected to the terminal device 6 and / or the board type controller 9 is connected to the connection terminal of the game apparatus body 5. As a first example, the terminal device 6 and the game apparatus body 5 are electrically connected via a first cable, and the board-type controller 9 and the game apparatus body 5 are electrically connected via a second cable. Connected. As a second example, the terminal device 6 and the game apparatus body 5 are electrically connected via a cable. In this case, the board operation data of the board type controller 9 may be transmitted wirelessly to the terminal device 6 and then transmitted to the game apparatus body 5 via the cable, or directly from the board type controller 9 to the game apparatus body 5. It may be transmitted wirelessly. As a third example, the board type controller 9 and the game apparatus body 5 are electrically connected via a cable. In this case, the terminal operation data of the terminal device 6 may be transmitted wirelessly to the board type controller 9 and then transmitted to the game apparatus body 5 via the cable, or directly from the terminal apparatus 6 to the game apparatus body 5. May be sent.

また、上記実施形態においては、ゲームシステム1が端末装置6およびボード型コントローラ9をそれぞれ1つ有する構成であったが、ゲームシステム1は、複数組の端末装置6およびボード型コントローラ9を有する構成であってもよい。すなわち、ゲーム装置本体5は、複数組の端末装置6およびボード型コントローラ9とそれぞれ無線通信可能であり、ゲーム画像のデータとゲーム音声のデータと制御データとを各端末装置6へ送信し、端末操作データとカメラ画像データとマイク音データとボード操作データとを各端末装置6およびボード型コントローラ9から受信するものであってもよい。なお、ゲーム装置本体5は、複数の端末装置6およびボード型コントローラ9のそれぞれと無線通信を行うが、このとき、ゲーム装置本体5は、各端末装置6およびボード型コントローラ9との無線通信を時分割で行ってもよいし、周波数帯域を分割して行ってもよい。   In the above embodiment, the game system 1 has one terminal device 6 and one board-type controller 9, but the game system 1 has a plurality of sets of terminal devices 6 and a board-type controller 9. It may be. That is, the game apparatus main body 5 can wirelessly communicate with a plurality of sets of terminal devices 6 and board type controllers 9, and transmits game image data, game sound data, and control data to each terminal device 6. Operation data, camera image data, microphone sound data, and board operation data may be received from each terminal device 6 and the board type controller 9. The game apparatus body 5 performs wireless communication with each of the plurality of terminal apparatuses 6 and the board type controller 9. At this time, the game apparatus body 5 performs wireless communication with each terminal apparatus 6 and the board type controller 9. It may be performed by time division or may be performed by dividing the frequency band.

上記のように複数組の端末装置6およびボード型コントローラ9を有する場合には、ゲームシステム1を用いてより多くの種類のゲームを行うことができる。例えば、ゲームシステム1が2組の端末装置6およびボード型コントローラ9を有する場合には、2人のユーザが同時にゲームを行うことができる。また、ゲームシステム1が2組の端末装置6およびボード型コントローラ9を有する場合には、ゲームシステム1は3つの表示装置を有することになるので、3人のユーザのそれぞれのためのゲーム画像を生成し、各表示装置に表示させることができる。   As described above, when a plurality of sets of terminal devices 6 and the board-type controller 9 are provided, more types of games can be played using the game system 1. For example, when the game system 1 has two sets of terminal devices 6 and a board type controller 9, two users can play a game simultaneously. Further, when the game system 1 has two sets of terminal devices 6 and a board-type controller 9, the game system 1 has three display devices, so that game images for each of the three users can be displayed. It can be generated and displayed on each display device.

また、上述した説明では、ボード型コントローラ9に複数の荷重センサ94を設けているが、上記処理においてはボード型コントローラ9に加わっている荷重の重心位置の情報が不要であるので、ボード型コントローラ9に少なくとも1つの荷重センサ94をボード型コントローラ9に設けてもかまわない。   In the above description, the board-type controller 9 is provided with a plurality of load sensors 94. However, since the information on the center of gravity of the load applied to the board-type controller 9 is unnecessary in the above processing, the board-type controller 9, at least one load sensor 94 may be provided in the board-type controller 9.

また、上記実施例では、据置型のゲーム装置3を用いて説明したが、携帯型のゲーム装置や一般的なパーソナルコンピュータ等の情報処理装置で本発明の情報処理プログラムを実行して、本発明を実現してもかまわない。また、他の実施形態では、ゲーム装置に限らず任意の携帯型電子機器、例えば、PDA(Personal Digital Assistant)や携帯電話、パーソナルコンピュータ、カメラ等であってもよい。何れの装置であっても、当該装置と端末装置6およびボード型コントローラ9とを無線または有線で接続することによって、本発明を実現することができる。   In the above embodiment, the stationary game apparatus 3 has been described. However, the information processing program of the present invention is executed by an information processing apparatus such as a portable game apparatus or a general personal computer. May be realized. In another embodiment, the present invention is not limited to a game device, and may be any portable electronic device such as a PDA (Personal Digital Assistant), a mobile phone, a personal computer, a camera, or the like. In any device, the present invention can be realized by connecting the device, the terminal device 6 and the board-type controller 9 wirelessly or by wire.

また、上述した説明ではゲーム処理をゲーム装置本体5で行う例を用いたが、上記ゲーム処理における処理ステップの少なくとも一部をゲームシステム1の外部に設けられた他の装置で行ってもかまわない。例えば、ゲーム装置本体5が他の装置(例えば、サーバや他のゲーム装置)と通信可能に構成されている場合、上記ゲーム処理における処理ステップは、ゲーム装置本体5および当該他の装置が協働することによって実行してもよい。一例として、他の装置において、オブジェクトおよび仮想世界等を設定する処理が行われ、ゲーム装置本体5からオブジェクトの動作や姿勢に関するデータが他の装置へ送信されて、上記ゲーム処理が行われることが考えられる。そして、他の装置で生成された仮想世界を示す画像データがゲーム装置本体5へ送信され、当該仮想世界がモニタ2やLCD61に表示される。このように、上記ゲーム処理における処理ステップの少なくとも一部を他の装置で行うことによって、上述したゲーム処理と同様の処理が可能となる。なお、上記情報処理における処理ステップの少なくとも一部をボード型コントローラ9(マイコン100)で行ってもよい。また、上述したゲーム処理は、少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行されることが可能である。また、上記実施形態においては、ゲーム装置本体5のCPU10が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われたが、ゲーム装置本体5が備える専用回路によって上記処理の一部または全部が行われてもよい。   In the above description, an example in which the game process is performed by the game apparatus main body 5 is used. However, at least a part of the process steps in the game process may be performed by another apparatus provided outside the game system 1. . For example, when the game apparatus body 5 is configured to be communicable with another apparatus (for example, a server or another game apparatus), the game apparatus body 5 and the other apparatus cooperate in the processing steps in the game process. It may be executed by doing. As an example, processing for setting an object, a virtual world, or the like is performed in another device, and the game processing is performed by transmitting data related to the movement and posture of the object from the game device body 5 to the other device. Conceivable. Then, image data indicating the virtual world generated by another device is transmitted to the game apparatus body 5 and the virtual world is displayed on the monitor 2 or the LCD 61. As described above, by performing at least a part of the processing steps in the game process with another device, the same process as the game process described above can be performed. Note that at least a part of the processing steps in the information processing may be performed by the board-type controller 9 (microcomputer 100). Further, the above-described game processing can be executed by cooperation between one processor or a plurality of processors included in an information processing system configured by at least one information processing apparatus. In the above embodiment, the CPU 10 of the game apparatus body 5 executes the predetermined program, so that the process according to the above-described flowchart is performed. All may be done.

また、上述したゲーム装置本体5の形状や、端末装置6、コントローラ7、およびボード型コントローラ9の形状および各種操作ボタンやセンサの形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、上述した情報処理で用いられる処理順序、設定値、表示態様、判定に用いられる値等は、単なる一例に過ぎず他の順序、表示態様、値であっても、本発明を実現できることは言うまでもない。   Further, the shape of the game apparatus main body 5 described above, the shape of the terminal device 6, the controller 7, and the board-type controller 9, and the shapes, numbers, and installation positions of various operation buttons and sensors are merely examples. It goes without saying that the present invention can be realized even in the shape, number, and installation position. In addition, the processing order, setting value, display mode, value used for determination, and the like used in the information processing described above are merely examples, and the present invention can be realized even in other orders, display modes, and values. Needless to say.

また、上記情報処理プログラムは、光ディスク4等の外部記憶媒体を通じてゲーム装置本体5に供給されるだけでなく、有線または無線の通信回線を通じてゲーム装置本体5に供給されてもよい。また、情報処理プログラムは、ゲーム装置本体5内部の不揮発性記憶装置に予め記録されていてもよい。なお、情報処理プログラムを記憶する情報記憶媒体としては、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープなどでもよい。また、上記情報処理プログラムを記憶する情報記憶媒体としては、不揮発性半導体メモリや揮発性メモリでもよい。このような記憶媒体は、コンピュータ等が読み取り可能な記録媒体ということができる。例えば、コンピュータ等に、これらの記録媒体のプログラムを読み込ませて実行させることにより、上述で説明した各種機能を提供させることができる。   The information processing program may be supplied not only to the game apparatus body 5 through an external storage medium such as the optical disc 4 but also to the game apparatus body 5 through a wired or wireless communication line. Further, the information processing program may be recorded in advance in a nonvolatile storage device inside the game apparatus body 5. The information storage medium for storing the information processing program may be a CD-ROM, DVD, or an optical disk storage medium similar to them, a flexible disk, a hard disk, a magneto-optical disk, a magnetic tape, or the like. The information storage medium for storing the information processing program may be a nonvolatile semiconductor memory or a volatile memory. Such a storage medium can be referred to as a computer-readable recording medium. For example, the various functions described above can be provided by causing a computer or the like to read and execute the programs of these recording media.

以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、本発明の具体的な実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。   Although the present invention has been described in detail above, the above description is merely illustrative of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. It is understood that the scope of the present invention should be construed only by the claims. Moreover, it is understood that those skilled in the art can implement an equivalent range from the description of the specific embodiments of the present invention based on the description of the present invention and the common general technical knowledge. In addition, it is to be understood that the terms used in the present specification are used in the meaning normally used in the art unless otherwise specified. Thus, unless defined otherwise, all technical and technical terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. In case of conflict, the present specification, including definitions, will control.

本発明に係る情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法は、装置本体の動きや姿勢によって当該装置に表示される画像の視点が変わる場合に、当該視点を変える操作をさらに容易にすることができ、ユーザ操作に基づいて視点を制御する処理等を行う情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法として有用である。   An information processing program, an information processing apparatus, an information processing system, and an information processing method according to the present invention further perform an operation of changing the viewpoint when the viewpoint of an image displayed on the apparatus changes depending on the movement or posture of the apparatus body. It is easy to use, and is useful as an information processing program, an information processing apparatus, an information processing system, and an information processing method for performing processing for controlling a viewpoint based on a user operation.

1…ゲームシステム
2…モニタ
3…ゲーム装置
4…光ディスク
5…ゲーム装置本体
10、617…CPU
11…システムLSI
12…外部メインメモリ
13…ROM/RTC
14…ディスクドライブ
15…AV−IC
16…AVコネクタ
17…フラッシュメモリ
18…ネットワーク通信モジュール
19…コントローラ通信モジュール
20…拡張コネクタ
21…メモリカード用コネクタ
22、23、29、611、754…アンテナ
24…電源ボタン
25…リセットボタン
26…イジェクトボタン
27…コーデックLSI
28…端末通信モジュール
31…入出力プロセッサ
32…GPU
33…DSP
34…VRAM
35…内部メインメモリ
6…端末装置
60、71…ハウジング
61…LCD
62…タッチパネル
63…アナログスティック
64…操作ボタン
65…マーカ部
66…カメラ
67…拡張コネクタ
68…足部
601…タッチパネルコントローラ
602…磁気センサ
603、701…加速度センサ
604、703…ジャイロセンサ
605…UIコントローラ
606…コーデックLSI
607、706…スピーカ
608…サウンドIC
609…マイク
612…赤外線通信モジュール
613…フラッシュメモリ
614…電源IC
616…充電器
618…内部メモリ
619、704…バイブレータ
7…コントローラ
72…操作部
73…コネクタ
74…撮像情報演算部
700…基板
702…LED
741…赤外線フィルタ
742…レンズ
743…撮像素子
744…画像処理回路
75…通信部
752…メモリ
8…マーカ
9…ボード型コントローラ
90…支持板
92…脚
94…荷重センサ
95…起歪体
96…歪センサ
102…ADコンバータ
104…DC−DCコンバータ
106、610、753…無線モジュール
108…増幅器
100、751…マイコン
110、615…電池
DESCRIPTION OF SYMBOLS 1 ... Game system 2 ... Monitor 3 ... Game device 4 ... Optical disk 5 ... Game device main body 10,617 ... CPU
11 ... System LSI
12 ... External main memory 13 ... ROM / RTC
14 ... Disk drive 15 ... AV-IC
16 ... AV connector 17 ... Flash memory 18 ... Network communication module 19 ... Controller communication module 20 ... Expansion connector 21 ... Memory card connectors 22, 23, 29, 611, 754 ... Antenna 24 ... Power button 25 ... Reset button 26 ... Eject Button 27 ... Codec LSI
28 ... Terminal communication module 31 ... Input / output processor 32 ... GPU
33 ... DSP
34 ... VRAM
35 ... Internal main memory 6 ... Terminal devices 60, 71 ... Housing 61 ... LCD
62 ... Touch panel 63 ... Analog stick 64 ... Operation button 65 ... Marker part 66 ... Camera 67 ... Expansion connector 68 ... Foot part 601 ... Touch panel controller 602 ... Magnetic sensors 603, 701 ... Acceleration sensors 604, 703 ... Gyro sensor 605 ... UI controller 606. Codec LSI
607, 706 ... Speaker 608 ... Sound IC
609 ... Microphone 612 ... Infrared communication module 613 ... Flash memory 614 ... Power supply IC
616 ... Charger 618 ... Internal memory 619, 704 ... Vibrator 7 ... Controller 72 ... Operation unit 73 ... Connector 74 ... Imaging information calculation unit 700 ... Board 702 ... LED
741 ... Infrared filter 742 ... Lens 743 ... Image sensor 744 ... Image processing circuit 75 ... Communication unit 752 ... Memory 8 ... Marker 9 ... Board type controller 90 ... Support plate 92 ... Leg 94 ... Load sensor 95 ... Strain body 96 ... Strain Sensor 102 ... AD converter 104 ... DC-DC converter 106, 610, 753 ... Wireless module 108 ... Amplifier 100, 751 ... Microcomputer 110, 615 ... Battery

Claims (31)

可搬型表示装置本体の姿勢および/または動きに応じた本体状態データと当該可搬型表示装置に設けられたタッチパネルへのタッチ位置に応じたタッチ位置データとを少なくとも出力する当該可搬型表示装置に、画像を表示することが可能な情報処理装置のコンピュータで実行される情報処理プログラムであって、
前記コンピュータを、
前記本体状態データに基づいて仮想世界の画像を生成するための第1仮想カメラの位が移動する方向を制御し、前記タッチ位置データに基づいて当該第1仮想カメラの位置を制御する第1仮想カメラ制御手段と、
前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御手段として機能させる、情報処理プログラム。
In the portable display device that outputs at least the main body state data according to the attitude and / or movement of the portable display device main body and the touch position data according to the touch position on the touch panel provided in the portable display device, An information processing program executed by a computer of an information processing apparatus capable of displaying an image,
The computer,
It controls the first direction position of the virtual camera moves in order to generate a virtual image of the world based on the body condition data, and controls the position of the first virtual camera on the basis of the touch position data First virtual camera control means;
An information processing program for causing a first image indicating a virtual world viewed from the first virtual camera to function as display control means for displaying on the portable display device.
前記本体状態データに基づいて、前記可搬型表示装置の姿勢および/または動きを算出する姿勢動き算出手段として、さらに前記コンピュータを機能させ、
前記第1仮想カメラ制御手段は、前記姿勢動き算出手段が算出した可搬型表示装置の姿勢および/または動きと前記タッチ位置データが示すタッチ位置とに基づいて、前記第1仮想カメラの姿勢および/または位置を制御する、請求項1に記載の情報処理プログラム。
Based on the main body state data, further causing the computer to function as a posture movement calculating means for calculating the posture and / or movement of the portable display device,
The first virtual camera control means is configured to determine the attitude and / or movement of the first virtual camera based on the attitude and / or movement of the portable display device calculated by the attitude movement calculation means and the touch position indicated by the touch position data. The information processing program according to claim 1 which controls a position.
前記第1仮想カメラ制御手段は、前記可搬型表示装置の姿勢および/または動きに基づいて、前記第1仮想カメラを仮想世界に対して相対的に回転させて当該第1仮想カメラの姿勢を制御し、前記タッチ位置データが示すタッチ位置に基づいて、前記第1仮想カメラを仮想世界に対して相対的に移動させて当該第1仮想カメラの位置を制御する、請求項2に記載の情報処理プログラム。   The first virtual camera control means controls the attitude of the first virtual camera by rotating the first virtual camera relative to the virtual world based on the attitude and / or movement of the portable display device. The information processing according to claim 2, wherein the position of the first virtual camera is controlled by moving the first virtual camera relative to the virtual world based on the touch position indicated by the touch position data. program. 前記第1仮想カメラ制御手段は、前記可搬型表示装置の姿勢および/または動きに基づいて、前記第1仮想カメラを仮想世界に配置されたオブジェクトに対して相対的に回転させて当該第1仮想カメラの姿勢を制御し、前記タッチ位置データが示すタッチ位置に基づいて、前記第1仮想カメラを前記オブジェクトに対して相対的に移動させて当該第1仮想カメラの位置を制御する、請求項3に記載の情報処理プログラム。   The first virtual camera control means rotates the first virtual camera relative to an object arranged in the virtual world based on the attitude and / or movement of the portable display device. The posture of the camera is controlled, and the position of the first virtual camera is controlled by moving the first virtual camera relative to the object based on the touch position indicated by the touch position data. Information processing program described in 1. 前記姿勢動き算出手段が算出した可搬型表示装置の姿勢および/または動きと前記タッチ位置データが示すタッチ位置とに基づいて、仮想世界に配置されたプレイヤオブジェクトの動作を制御するプレイヤオブジェクト制御手段として、さらに前記コンピュータを機能させ、
前記第1仮想カメラ制御手段は、前記プレイヤオブジェクトを少なくとも含む仮想世界の画像を生成する位置に前記第1仮想カメラを配置する、請求項3に記載の情報処理プログラム。
As a player object control means for controlling the movement of the player object arranged in the virtual world based on the attitude and / or movement of the portable display device calculated by the attitude movement calculation means and the touch position indicated by the touch position data. And further functioning the computer,
The information processing program according to claim 3, wherein the first virtual camera control unit arranges the first virtual camera at a position where an image of a virtual world including at least the player object is generated.
前記第1仮想カメラ制御手段は、仮想世界において前記プレイヤオブジェクトの直上から俯瞰する位置に前記第1仮想カメラを配置する、請求項5に記載の情報処理プログラム。   The information processing program according to claim 5, wherein the first virtual camera control unit arranges the first virtual camera at a position overlooking the player object from directly above in the virtual world. 前記プレイヤオブジェクト制御手段は、前記可搬型表示装置の姿勢および/または動きに基づいて、前記第1仮想カメラと同じ回転方向および回転角度で仮想世界の鉛直方向周りに仮想世界に対して前記プレイヤオブジェクトを相対的に回転させて当該プレイヤオブジェクトの姿勢を制御し、
前記第1仮想カメラ制御手段は、前記タッチ位置データが示すタッチ位置に基づいて、前記第1仮想カメラと同じ移動方向および移動距離で仮想世界に対して前記プレイヤオブ
ジェクトを相対的に移動させて当該プレイヤオブジェクトの位置を制御する、請求項5または6に記載の情報処理プログラム。
The player object control means is configured to move the player object with respect to the virtual world around the vertical direction of the virtual world at the same rotation direction and rotation angle as the first virtual camera based on the attitude and / or movement of the portable display device. Are rotated relatively to control the posture of the player object,
The first virtual camera control means moves the player object relative to the virtual world in the same movement direction and distance as the first virtual camera based on the touch position indicated by the touch position data. The information processing program according to claim 5 or 6, which controls a position of a player object.
前記タッチ位置データに基づいて、前記タッチパネルへ入力されたタッチ位置の変位を算出するタッチ位置変位算出手段として、さらに前記コンピュータを機能させ、
前記第1仮想カメラ制御手段は、前記タッチ位置の変位に基づいて、前記第1仮想カメラを仮想世界に対して相対的に移動させる、請求項3乃至7のいずれか1つに記載の情報処理プログラム。
Based on the touch position data, as a touch position displacement calculating means for calculating the displacement of the touch position input to the touch panel, further causing the computer to function,
The information processing according to any one of claims 3 to 7, wherein the first virtual camera control means moves the first virtual camera relative to the virtual world based on the displacement of the touch position. program.
前記第1仮想カメラ制御手段は、前記タッチ位置の変位方向に基づいて前記第1仮想カメラを移動させる移動方向を算出し、当該移動方向へ当該第1仮想カメラを仮想世界に対して相対的に移動させる、請求項8に記載の情報処理プログラム。   The first virtual camera control means calculates a movement direction for moving the first virtual camera based on the displacement direction of the touch position, and moves the first virtual camera relative to the virtual world in the movement direction. The information processing program according to claim 8, wherein the information processing program is moved. 前記第1仮想カメラ制御手段は、前記タッチ位置の変位方向の逆方向を前記移動方向として算出する、請求項9に記載の情報処理プログラム。   The information processing program according to claim 9, wherein the first virtual camera control unit calculates a direction opposite to a displacement direction of the touch position as the movement direction. 前記第1仮想カメラ制御手段は、前記タッチ位置の変位と重なって表示される仮想世界における前記変位方向に対応する方向の逆方向を前記移動方向として算出する、請求項10に記載の情報処理プログラム。   The information processing program according to claim 10, wherein the first virtual camera control unit calculates, as the movement direction, a direction opposite to a direction corresponding to the displacement direction in the virtual world displayed overlapping the displacement of the touch position. . 前記第1仮想カメラ制御手段は、前記タッチ位置の変位量に基づいて前記第1仮想カメラを移動させる移動距離を算出し、当該移動距離だけ当該第1仮想カメラを仮想世界に対して相対的に移動させる、請求項8乃至11のいずれか1つに記載の情報処理プログラム。   The first virtual camera control means calculates a movement distance for moving the first virtual camera based on a displacement amount of the touch position, and moves the first virtual camera relative to the virtual world by the movement distance. The information processing program according to any one of claims 8 to 11, wherein the information processing program is moved. 前記第1仮想カメラ制御手段は、前記タッチ位置の変位と重なって表示される仮想世界における前記変位量に対応する距離を前記移動距離として算出する、請求項12に記載の情報処理プログラム。   The information processing program according to claim 12, wherein the first virtual camera control means calculates a distance corresponding to the displacement amount in the virtual world displayed overlapping the displacement of the touch position as the movement distance. 前記姿勢動き算出手段は、前記可搬型表示装置の表示画面に垂直な当該表示画面の奥行方向周りに当該可搬型表示装置が回転する姿勢および/または動きを少なくとも算出し、
前記第1仮想カメラ制御手段は、前記奥行方向周りに前記可搬型表示装置が回転する姿勢および/または動きに応じて、前記第1仮想カメラの姿勢を制御する、請求項2乃至13のいずれか1つに記載の情報処理プログラム。
The posture movement calculating means calculates at least a posture and / or movement of the portable display device rotating around a depth direction of the display screen perpendicular to the display screen of the portable display device;
The first virtual camera control means controls the posture of the first virtual camera according to the posture and / or movement of the portable display device that rotates around the depth direction. The information processing program according to one.
前記第1仮想カメラ制御手段は、前記奥行方向周りに前記可搬型表示装置が回転する回転方向に応じて、前記第1仮想カメラの視線方向周りに当該回転方向へ仮想世界に対して相対的に回転させて、当該第1仮想カメラの姿勢を制御する、請求項14に記載の情報処理プログラム。   The first virtual camera control means is relative to the virtual world in the rotation direction around the viewing direction of the first virtual camera in accordance with the rotation direction in which the portable display device rotates around the depth direction. The information processing program according to claim 14, wherein the information processing program is rotated to control the attitude of the first virtual camera. 前記第1仮想カメラ制御手段は、前記可搬型表示装置本体の向きが前記奥行方向周りに変わる角度に応じて前記第1仮想カメラを仮想世界に対して相対的に回転させて、当該第1仮想カメラの姿勢を制御する、請求項14または15に記載の情報処理プログラム。   The first virtual camera control means rotates the first virtual camera relative to the virtual world in accordance with an angle at which the orientation of the portable display device main body changes around the depth direction. The information processing program according to claim 14 or 15, which controls a posture of the camera. 前記第1仮想カメラ制御手段は、前記可搬型表示装置本体の向きが変わる角度と同じ角度だけ前記第1仮想カメラを仮想世界に対して相対的に回転させて、当該第1仮想カメラの姿勢を制御する、請求項16に記載の情報処理プログラム。   The first virtual camera control means rotates the first virtual camera relative to the virtual world by the same angle as the angle at which the orientation of the portable display device body changes, and changes the attitude of the first virtual camera. The information processing program according to claim 16 for controlling. 前記第1仮想カメラ制御手段は、前記可搬型表示装置が前記奥行方向周りに回転する回転方向および回転角度に応じて、前記第1仮想カメラの視線方向周りに当該回転角度だけ
当該回転方向へ仮想世界に対して相対的に回転させて当該第1仮想カメラの姿勢を制御し、前記タッチ位置データが前記タッチパネルをドラッグする操作を示している場合、当該タッチ位置データが示すタッチ位置と重なって前記表示画面に表示される仮想世界における当該タッチ位置の移動方向および移動距離に応じて、前記視線方向に垂直な平面に沿って前記第1仮想カメラを当該移動距離だけ当該移動方向の逆方向へ仮想世界に対して相対的に移動させて当該第1仮想カメラの位置を制御する、請求項14乃至17のいずれか1つに記載の情報処理プログラム。
The first virtual camera control means is virtual in the rotation direction by the rotation angle around the line-of-sight direction of the first virtual camera according to the rotation direction and the rotation angle of the portable display device rotating around the depth direction. When the orientation of the first virtual camera is controlled by rotating relative to the world, and the touch position data indicates an operation of dragging the touch panel, the touch position indicated by the touch position data overlaps the touch position. According to the moving direction and moving distance of the touch position in the virtual world displayed on the display screen, the first virtual camera is virtually moved in the direction opposite to the moving direction along the plane perpendicular to the line-of-sight direction. The information processing program according to any one of claims 14 to 17, which controls the position of the first virtual camera by being moved relative to the world.
荷重検出装置に加えられた荷重に基づくデータを取得する荷重取得手段として、さらに前記コンピュータを機能させ、
前記プレイヤオブジェクト制御手段は、前記荷重取得手段が取得したデータに基づいて、仮想世界に対して前記プレイヤオブジェクトを相対的に移動させて当該プレイヤオブジェクトの位置を制御する、請求項5乃至7のいずれか1つに記載の情報処理プログラム。
As a load acquisition means for acquiring data based on the load applied to the load detection device, further causing the computer to function,
The player object control means controls the position of the player object by moving the player object relative to the virtual world based on the data acquired by the load acquisition means. The information processing program as described in any one.
前記可搬型表示装置は、ジャイロセンサおよび加速度センサの少なくとも一方を含み、
前記姿勢動き算出手段は、前記ジャイロセンサおよび前記加速度センサの少なくとも一方から出力されるデータに基づいて、前記可搬型表示装置の姿勢および/または動きを算出する、請求項2乃至19のいずれか1つに記載の情報処理プログラム。
The portable display device includes at least one of a gyro sensor and an acceleration sensor,
The posture movement calculation unit calculates a posture and / or movement of the portable display device based on data output from at least one of the gyro sensor and the acceleration sensor. Information processing program described in 1.
前記表示制御手段は、前記第1画像を示す画像データを前記可搬型表示装置へ出力し、
前記可搬型表示装置は、前記情報処理装置から出力された画像データを取得する画像データ取得手段を備え、
前記可搬型表示装置の表示画面は、前記画像データ取得手段が取得した画像データが示す前記第1画像を表示する、請求項1乃至20のいずれか1つに記載の情報処理プログラム。
The display control means outputs image data indicating the first image to the portable display device,
The portable display device includes image data acquisition means for acquiring image data output from the information processing device,
21. The information processing program according to claim 1, wherein the display screen of the portable display device displays the first image indicated by the image data acquired by the image data acquisition unit.
前記第1画像を示す画像データを圧縮して圧縮画像データを生成する圧縮画像生成手段として、さらに前記コンピュータを機能させ、
前記表示制御手段は、前記圧縮画像生成手段が生成した圧縮画像データを前記可搬型表示装置へ出力し、
前記画像データ取得手段は、前記情報処理装置から出力された圧縮画像データを取得し、
前記可搬型表示装置は、前記圧縮画像データを伸張して前記第1画像を示す画像データを得る表示画像伸張手段を、さらに備え、
前記可搬型表示装置の表示画面は、前記画像データ取得手段が取得して前記表示画像伸手段が伸した画像データが示す前記第1画像を表示する、請求項21に記載の情報処理プログラム。
And further causing the computer to function as compressed image generation means for generating compressed image data by compressing image data representing the first image,
The display control means outputs the compressed image data generated by the compressed image generation means to the portable display device,
The image data acquisition means acquires the compressed image data output from the information processing apparatus;
The portable display device further includes display image expansion means for expanding the compressed image data to obtain image data indicating the first image,
A display screen of the portable display device, the image data acquisition means the display image Shin Zhang means acquires displays the first image represented by the Shin Zhang image data storage medium according to claim 21 .
前記表示制御手段は、前記第1画像とは別に、第2仮想カメラから見た前記仮想世界を示す第2画像を、前記情報処理装置に接続された別の表示装置にさらに表示する、請求項1乃至20のいずれか1つに記載の情報処理プログラム。   The display control means further displays, separately from the first image, a second image showing the virtual world viewed from a second virtual camera on another display device connected to the information processing device. The information processing program according to any one of 1 to 20. 前記第1画像を示す画像データを圧縮して圧縮画像データを生成する圧縮画像生成手段として、さらに前記コンピュータを機能させ、
前記表示制御手段は、前記圧縮画像生成手段が生成した圧縮画像データを前記可搬型表示装置へ出力し、当該圧縮画像データとは別に、前記第2画像を示す画像データを圧縮することなく前記別の表示装置へ出力し、
前記可搬型表示装置は、
前記情報処理装置から出力された圧縮画像データを取得する画像データ取得手段と、
前記圧縮画像データを伸張して前記第1画像を示す画像データを得る表示画像伸張手段とを備え、
前記可搬型表示装置の表示画面は、前記画像データ取得手段が取得して前記表示画像伸手段が伸した画像データが示す前記第1画像を表示する、請求項23に記載の情報処理プログラム。
And further causing the computer to function as compressed image generation means for generating compressed image data by compressing image data representing the first image,
The display control means outputs the compressed image data generated by the compressed image generation means to the portable display device, and separately from the compressed image data, the separate image data indicating the second image is not compressed. Output to the display device
The portable display device is:
Image data acquisition means for acquiring compressed image data output from the information processing apparatus;
Display image decompression means for decompressing the compressed image data to obtain image data representing the first image,
A display screen of the portable display device, the image data acquisition means the display image Shin Zhang means acquires displays the first image represented by the Shin Zhang image data storage medium according to claim 23 .
前記第1仮想カメラとは異なる位置に前記第2仮想カメラを設定して、当該第2仮想カメラの姿勢および/または位置を制御する第2仮想カメラ制御手段として、さらに前記コンピュータを機能させる、請求項23または24に記載の情報処理プログラム。   The second virtual camera is set at a position different from the first virtual camera, and the computer is further caused to function as second virtual camera control means for controlling the attitude and / or position of the second virtual camera. Item 25. The information processing program according to item 23 or 24. 前記第2仮想カメラ制御手段は、前記第1仮想カメラの視線方向と平行となるように前記第2仮想カメラの視線方向を設定して、前記第1仮想カメラの後方に前記第2仮想カメラを設定し、
前記表示制御手段は、前記第1画像で示される仮想世界の範囲より広い範囲を、前記第2画像として前記別の表示装置に表示する、請求項25に記載の情報処理プログラム。
The second virtual camera control means sets the line-of-sight direction of the second virtual camera so as to be parallel to the line-of-sight direction of the first virtual camera, and places the second virtual camera behind the first virtual camera. Set,
The information processing program according to claim 25, wherein the display control means displays a range wider than the range of the virtual world indicated by the first image as the second image on the other display device.
前記第1仮想カメラ制御手段は、仮想世界の鉛直方向に前記第1仮想カメラの視線方向を設定し、
前記第2仮想カメラ制御手段は、仮想世界の鉛直方向に前記第2仮想カメラの視線方向を設定する、請求項25または26に記載の情報処理プログラム。
The first virtual camera control means sets the viewing direction of the first virtual camera in the vertical direction of the virtual world,
27. The information processing program according to claim 25 or 26, wherein the second virtual camera control means sets a line-of-sight direction of the second virtual camera in a vertical direction of the virtual world.
前記第1仮想カメラ制御手段は、前記本体状態データに基づいて前記第1仮想カメラの位置が所定の速度で移動する方向を制御し、前記タッチ位置データに基づいて当該速度とは無関係に当該第1仮想カメラの位置を制御する、請求項1に記載の情報処理プログラム。The first virtual camera control means controls the direction in which the position of the first virtual camera moves at a predetermined speed based on the main body state data, and the first virtual camera control means regardless of the speed based on the touch position data. The information processing program according to claim 1, which controls a position of one virtual camera. 可搬型表示装置本体の姿勢および/または動きに応じた本体状態データと当該可搬型表示装置に設けられたタッチパネルへのタッチ位置に応じたタッチ位置データとを少なくとも出力する当該可搬型表示装置に、画像を表示することが可能な情報処理装置であって、
前記本体状態データに基づいて仮想世界の画像を生成するための第1仮想カメラの位が移動する方向を制御し、前記タッチ位置データに基づいて当該第1仮想カメラの位置を制御する第1仮想カメラ制御手段と、
前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御手段とを備える、情報処理装置。
In the portable display device that outputs at least the main body state data according to the attitude and / or movement of the portable display device main body and the touch position data according to the touch position on the touch panel provided in the portable display device, An information processing apparatus capable of displaying an image,
It controls the first direction position of the virtual camera moves in order to generate a virtual image of the world based on the body condition data, and controls the position of the first virtual camera on the basis of the touch position data First virtual camera control means;
An information processing apparatus comprising: a display control unit configured to display a first image indicating a virtual world viewed from the first virtual camera on the portable display device.
複数の装置が通信可能に構成され、可搬型表示装置本体の姿勢および/または動きに応じた本体状態データと当該可搬型表示装置に設けられたタッチパネルへのタッチ位置に応じたタッチ位置データとを少なくとも出力する当該可搬型表示装置に、画像を表示することが可能な情報処理システムであって、
前記本体状態データに基づいて仮想世界の画像を生成するための第1仮想カメラの位が移動する方向を制御し、前記タッチ位置データに基づいて当該第1仮想カメラの位置を制御する第1仮想カメラ制御手段と、
前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御手段とを備える、情報処理システム。
A plurality of devices are configured to be communicable, and main body state data corresponding to the attitude and / or movement of the portable display device main body and touch position data corresponding to the touch position on the touch panel provided in the portable display device. An information processing system capable of displaying an image on at least the portable display device that outputs,
It controls the first direction position of the virtual camera moves in order to generate a virtual image of the world based on the body condition data, and controls the position of the first virtual camera on the basis of the touch position data First virtual camera control means;
An information processing system comprising: display control means for displaying a first image showing a virtual world viewed from the first virtual camera on the portable display device.
可搬型表示装置本体の姿勢および/または動きに応じた本体状態データと当該可搬型表示装置に設けられたタッチパネルへのタッチ位置に応じたタッチ位置データとを少なくとも出力する当該可搬型表示装置に、画像を表示することが可能な少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行される情報処理方法であって、
前記本体状態データに基づいて仮想世界の画像を生成するための第1仮想カメラの位が移動する方向を制御し、前記タッチ位置データに基づいて当該第1仮想カメラの位置を制御する第1仮想カメラ制御ステップと、
前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御ステップとを含む、情報処理方法。
In the portable display device that outputs at least the main body state data according to the attitude and / or movement of the portable display device main body and the touch position data according to the touch position on the touch panel provided in the portable display device, An information processing method executed by cooperation between one processor or a plurality of processors included in an information processing system including at least one information processing apparatus capable of displaying an image,
It controls the first direction position of the virtual camera moves in order to generate a virtual image of the world based on the body condition data, and controls the position of the first virtual camera on the basis of the touch position data A first virtual camera control step;
A display control step of displaying a first image showing a virtual world viewed from the first virtual camera on the portable display device.
JP2011118902A 2011-03-08 2011-05-27 Information processing program, information processing apparatus, information processing system, and information processing method Active JP5806510B2 (en)

Priority Applications (16)

Application Number Priority Date Filing Date Title
JP2011118902A JP5806510B2 (en) 2011-05-27 2011-05-27 Information processing program, information processing apparatus, information processing system, and information processing method
EP11194630.7A EP2497547B1 (en) 2011-03-08 2011-12-20 Information processing program, information processing apparatus, information processing system, and information processing method
US13/333,045 US9205327B2 (en) 2011-03-08 2011-12-21 Storage medium having information processing program stored thereon, information processing apparatus, information processing system, and information processing method
US13/343,913 US9345962B2 (en) 2011-03-08 2012-01-05 Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
EP12150272.8A EP2497548A3 (en) 2011-03-08 2012-01-05 Information processing program, information processing apparatus, information processing system, and information processing method
US13/352,091 US9370712B2 (en) 2011-03-08 2012-01-17 Information processing system, information processing apparatus, storage medium having information processing program stored therein, and image display method for controlling virtual objects based on at least body state data and/or touch position data
EP12153067.9A EP2497549B1 (en) 2011-03-08 2012-01-30 Information processing program, information processing apparatus, information processing system, and information processing method
US13/362,381 US8845430B2 (en) 2011-03-08 2012-01-31 Storage medium having stored thereon game program, game apparatus, game system, and game processing method
US13/362,289 US9522323B2 (en) 2011-03-08 2012-01-31 Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US13/362,255 US20120231882A1 (en) 2011-03-08 2012-01-31 Storage medium having stored thereon game program, game apparatus, game system, and game processing method
US13/400,944 US9526981B2 (en) 2011-03-08 2012-02-21 Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US13/401,054 US9492742B2 (en) 2011-03-08 2012-02-21 Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US13/402,026 US9492743B2 (en) 2011-03-08 2012-02-22 Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
EP14166174.4A EP2781244A3 (en) 2011-03-08 2012-02-23 Information processing program, information processing apparatus, information processing system and information processing method
EP12156629A EP2497550A3 (en) 2011-03-08 2012-02-23 Information processing program, information processing apparatus, information processing system, and information processing method
EP12156630.1A EP2497551B1 (en) 2011-03-08 2012-02-23 Information processing program, information processing apparatus, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011118902A JP5806510B2 (en) 2011-05-27 2011-05-27 Information processing program, information processing apparatus, information processing system, and information processing method

Publications (2)

Publication Number Publication Date
JP2012247976A JP2012247976A (en) 2012-12-13
JP5806510B2 true JP5806510B2 (en) 2015-11-10

Family

ID=47468367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011118902A Active JP5806510B2 (en) 2011-03-08 2011-05-27 Information processing program, information processing apparatus, information processing system, and information processing method

Country Status (1)

Country Link
JP (1) JP5806510B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6219037B2 (en) * 2013-02-06 2017-10-25 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
US9041647B2 (en) * 2013-03-15 2015-05-26 Immersion Corporation User interface device provided with surface haptic sensations
JP5616501B1 (en) * 2013-08-09 2014-10-29 株式会社フジクラ Electronics
JP6357023B2 (en) * 2014-06-06 2018-07-11 任天堂株式会社 Information processing program, information processing apparatus, information processing apparatus control method, and information processing system

Also Published As

Publication number Publication date
JP2012247976A (en) 2012-12-13

Similar Documents

Publication Publication Date Title
US9345962B2 (en) Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
JP5792971B2 (en) Information processing system, information processing program, and information processing method
JP5829020B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP5800526B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5869236B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5756299B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP2012221145A (en) Input system, information processor, information processing program and three-dimensional position calculation method
US8917237B2 (en) Information processing system, information processing apparatus, storage medium having information processing program stored thereon, and content playback control method
JP5829040B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND IMAGE GENERATION METHOD
JP5757741B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP5806510B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5937792B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP6041466B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5841352B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP6045777B2 (en) Direction control system, direction control device, direction control program, and direction control method
JP6046879B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP6246991B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5912289B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP6041467B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5875169B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150904

R150 Certificate of patent or registration of utility model

Ref document number: 5806510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250