JP6693911B2 - Game device, game program, game system, and game processing method - Google Patents

Game device, game program, game system, and game processing method Download PDF

Info

Publication number
JP6693911B2
JP6693911B2 JP2017118622A JP2017118622A JP6693911B2 JP 6693911 B2 JP6693911 B2 JP 6693911B2 JP 2017118622 A JP2017118622 A JP 2017118622A JP 2017118622 A JP2017118622 A JP 2017118622A JP 6693911 B2 JP6693911 B2 JP 6693911B2
Authority
JP
Japan
Prior art keywords
movement
controller
information processing
data
main body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017118622A
Other languages
Japanese (ja)
Other versions
JP2017217489A (en
Inventor
惇 伊藤
惇 伊藤
慎太郎 軸丸
慎太郎 軸丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2017118622A priority Critical patent/JP6693911B2/en
Publication of JP2017217489A publication Critical patent/JP2017217489A/en
Application granted granted Critical
Publication of JP6693911B2 publication Critical patent/JP6693911B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

本発明は、複数の操作装置を用いて操作可能なゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法に関する。   The present invention relates to a game device that can be operated using a plurality of operating devices, a game program, a game system, and a game processing method.

従来、少なくとも2軸方向の加速度を検出する入力装置を用いたゲーム処理を行うゲーム装置がある(例えば、特許文献1参照)。例えば、上記特許文献1に開示されたゲーム装置は、入力装置に生じる加速度の種類に応じて、仮想空間において仮想オブジェクトを動作させてボクシングを行うゲームを開示している。   Conventionally, there is a game device that performs a game process using an input device that detects acceleration in at least two axis directions (see, for example, Patent Document 1). For example, the game device disclosed in Patent Document 1 discloses a game in which a boxing is performed by moving a virtual object in a virtual space according to the type of acceleration generated in the input device.

特開2008−67865号公報JP, 2008-67865, A

しかしながら、仮想的なボクシングゲームにおいてパンチを繰り出した場合、当該パンチが打ち終わるまで次のパンチを繰り出すための操作判定が行われないことが一般的である。したがって、パンチを繰り出してから打ち終わるまでに所定の時間を要する場合、プレイヤが当該パンチを打ち終わるまで待ちきれないことがあり、結果として次のパンチを繰り出すタイミングを逸することがあり得る。   However, in the virtual boxing game, when a punch is rolled out, it is general that an operation determination for rolling out the next punch is not performed until the punch is finished. Therefore, when it takes a predetermined time to finish punching after a punch is delivered, the player may not be able to wait until the punch is finished, and as a result, the timing of delivering the next punch may be missed.

それ故、本発明の目的は、操作指示可能な状態が断続的に生じるゲームにおいて、操作を容易にすることが可能なゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法を提供することである。   Therefore, an object of the present invention is to provide a game device, a game program, a game system, and a game processing method capable of facilitating the operation in a game in which a state in which an operation instruction is possible intermittently occurs. ..

上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。なお、特許請求の範囲の記載を解釈する際に、特許請求の範囲の記載によってのみその範囲が解釈されるべきであることが理解され、特許請求の範囲の記載と本欄の記載とが矛盾する場合には、特許請求の範囲の記載が優先する。   In order to achieve the above object, the present invention can employ the following configurations, for example. In interpreting the description of the claims, it is understood that the scope should be interpreted only by the description of the claims, and the description of the claims and the description of this column are inconsistent. In that case, the description in the claims takes precedence.

本発明のゲーム装置の一構成例は、加速度センサおよびジャイロセンサをそれぞれ備えた第1操作装置および第2操作装置を用いた操作に基づいたゲーム処理を行う。ゲーム装置は、操作データ取得部、振り判定部、オブジェクト移動制御部、およびゲーム処理部を備える。操作データ取得部は、第1操作装置から加速度センサの検出結果に基づいた第1加速度データおよびジャイロセンサの検出結果に基づいた第1角速度データを含む第1操作データを取得し、第2操作装置から加速度センサの検出結果に基づいた第2加速度データおよびジャイロセンサの検出結果に基づいた第2角速度データを含む第2操作データを取得する。振り判定部は、少なくとも第1加速度データに基づいて第1操作装置に対する第1振り入力を判定し、少なくとも第2加速度データに基づいて第2操作装置に対する第2振り入力を判定する。オブジェクト移動制御部は、仮想空間において、第1操作データに基づいて第1オブジェクトの移動を制御し、第2操作データに基づいて第2オブジェクトの移動を制御する。ゲーム処理部は、仮想空間における第1オブジェクトおよび第2オブジェクトに基づいたゲーム処理を行う。オブジェクト移動制御部は、移動開始判定部、移動方向設定部、移動開始部、軌道制御部、および移動終了設定部を含む。移動開始判定部は、第1オブジェクトが移動開始可能な第1移動開始可能状態において第1振り入力があったと判定された場合と、第1振り入力があったと判定された後の所定期間以内に当該第1移動開始可能状態になった場合とに、少なくとも当該第1振り入力に基づいて第1オブジェクトを仮想空間において移動開始させる判定を行い、第2オブジェクトが移動開始可能な第2移動開始可能状態において第2振り入力があったと判定された場合と、第2振り入力があったと判定された後の所定期間以内に当該第2移動開始可能状態になった場合とに、少なくとも当該第2振り入力に基づいて第2オブジェクトを仮想空間において移動開始させる判定を行う。移動方向設定部は、少なくとも第1角速度データに基づいて第1操作装置の姿勢を算出して、当該第1操作装置の姿勢に基づいて仮想空間における第1オブジェクトの移動方向を設定し、少なくとも第2角速度データに基づいて第2操作装置の姿勢を算出して、当該第2操作装置の姿勢に基づいて仮想空間における第2オブジェクトの移動方向を設定する。移動開始部は、移動開始判定部において第1オブジェクトを移動開始させると判定された場合に第1オブジェクトを移動開始させ、移動方向設定部において設定された第1オブジェクトの移動方向へ移動させ、移動開始判定部において第2オブジェクトを移動開始させると判定された場合に第2オブジェクトを移動開始させ、移動方向設定部において設定された第2オブジェクトの移動方向へ移動させる。軌道制御部は、第1オブジェクトの移動開始後における第1操作装置の姿勢変化に応じて、仮想空間における第1オブジェクトの軌道を変化させ、第2オブジェクトの移動開始後における第2操作装置の姿勢変化に応じて、仮想空間における第2オブジェクトの軌道を変化させる。移動終了設定部は、所定条件に基づいて第1オブジェクトの移動を終了した後に当該第1オブジェクトを第1所定位置に配置させて第1移動開始可能状態に設定し、第2オブジェクトの移動を終了した後に当該第2オブジェクトを第2所定位置に配置させて第2移動開始可能状態に設定する。   One configuration example of the game device of the present invention performs a game process based on an operation using a first operating device and a second operating device each having an acceleration sensor and a gyro sensor. The game device includes an operation data acquisition unit, a swing determination unit, an object movement control unit, and a game processing unit. The operation data acquisition unit acquires, from the first operation device, first operation data including first acceleration data based on the detection result of the acceleration sensor and first angular velocity data based on the detection result of the gyro sensor, and the second operation device. The second operation data including the second acceleration data based on the detection result of the acceleration sensor and the second angular velocity data based on the detection result of the gyro sensor is acquired from. The swing determination unit determines a first swing input to the first operating device based on at least the first acceleration data, and determines a second swing input to the second operating device based on at least the second acceleration data. The object movement control unit controls the movement of the first object based on the first operation data and the movement of the second object based on the second operation data in the virtual space. The game processing section performs game processing based on the first object and the second object in the virtual space. The object movement control unit includes a movement start determination unit, a movement direction setting unit, a movement start unit, a trajectory control unit, and a movement end setting unit. The movement start determination unit determines whether there is a first swing input in the first movement startable state in which the first object can start moving, and within a predetermined period after it is determined that the first swing input has been made. When the first movement startable state is reached, it is determined based on at least the first swing input that the first object starts moving in the virtual space, and the second object can start movement. When it is determined that the second movement input is made in the state, and when the second movement startable state is reached within a predetermined period after it is determined that the second movement input is made, at least the second movement input is made. Based on the input, it is determined to start moving the second object in the virtual space. The moving direction setting unit calculates the attitude of the first operating device based on at least the first angular velocity data, sets the moving direction of the first object in the virtual space based on the attitude of the first operating device, The attitude of the second operating device is calculated based on the two angular velocity data, and the moving direction of the second object in the virtual space is set based on the attitude of the second operating device. The movement start unit starts movement of the first object when the movement start determination unit determines to start moving the first object, moves the first object in the movement direction of the first object set by the movement direction setting unit, and moves the first object. When the start determination unit determines to start moving the second object, the second object starts moving, and moves in the moving direction of the second object set by the moving direction setting unit. The trajectory control unit changes the trajectory of the first object in the virtual space according to the posture change of the first operating device after the movement of the first object is started, and the posture of the second operating device after the movement of the second object is started. The trajectory of the second object in the virtual space is changed according to the change. The movement end setting unit sets the first object at the first predetermined position and sets the first movement startable state after ending the movement of the first object based on the predetermined condition, and ends the movement of the second object. After that, the second object is placed at the second predetermined position and set to the second movement startable state.

上記によれば、第1オブジェクトおよび第2オブジェクトは、それぞれ移動中であっても第1操作装置や第2操作装置を用いた操作によって軌道が変化するため、第1移動開始可能状態となるまでの時間や第2移動開始可能状態となるまでに時間を要することが考えられる。しかしながら、第1移動開始可能状態でない場合であっても、第1操作装置の振り入力があってから所定期間以内に第1移動開始可能状態になれば当該振り入力に基づいて第1オブジェクトの動作制御が可能となる。また、第2移動開始可能状態でない場合であっても、第2操作装置の振り入力があってから所定期間以内に第2移動開始可能状態になれば当該振り入力に基づいて第2オブジェクトの動作制御が可能となる。したがって、第1移動開始可能状態および/または第2移動開始可能状態になるまでに時間を要する場合であっても、操作を容易にすることが可能となる。   According to the above, the trajectories of the first object and the second object are changed by the operation using the first operating device and the second operating device even while they are moving, respectively. It is conceivable that it will take some time before the second movement start state becomes possible. However, even if it is not in the first movement startable state, if the first movement startable state is reached within a predetermined period after the swing input of the first operating device, the movement of the first object based on the swing input. It becomes possible to control. Even if the second movement startable state is not reached, if the second movement startable state is reached within a predetermined period after the swing input of the second operating device, the movement of the second object based on the swing input. It becomes possible to control. Therefore, even when it takes time to reach the first movement startable state and / or the second movement startable state, the operation can be facilitated.

また、上記移動開始判定部は、第1オブジェクトおよび第2オブジェクトの一方が移動開始した時点から所定期間以内に他方を移動開始させる判定がされた場合、第1オブジェクトおよび第2オブジェクトが組となった所定のアクションを開始させる判定を、さらに行ってもよい。   Further, when it is determined that one of the first object and the second object starts to move the other within a predetermined period from the time when the first object and the second object start to move, the first object and the second object form a set. The determination to start the predetermined action may be further performed.

上記によれば、第1オブジェクトの移動開始タイミングと第2オブジェクトの移動開始タイミングとの関係に基づいて、所定のアクションが行われるため、今までにない操作環境に基づいたゲームが可能となる。   According to the above, since the predetermined action is performed based on the relationship between the movement start timing of the first object and the movement start timing of the second object, a game based on an unprecedented operating environment can be performed.

また、上記ゲーム処理部は、衝突処理部を含んでもよい。衝突処理部は、仮想空間において第1オブジェクトおよび/または第2オブジェクトと他のオブジェクトとの衝突判定を行い、当該判定において肯定判定された場合に当該他のオブジェクトに対して所定の処理を行う。衝突処理部は、移動開始判定部において所定のアクションが開始されると判定された場合、仮想空間において第1オブジェクトおよび第2オブジェクトの間に設定される所定領域と他のオブジェクトとの衝突判定を、さらに行ってもよい。   Further, the game processing section may include a collision processing section. The collision processing unit performs a collision determination between the first object and / or the second object and another object in the virtual space, and when a positive determination is made in the determination, performs a predetermined process on the other object. When the movement start determination unit determines that the predetermined action is started, the collision processing unit determines the collision between the predetermined area set between the first object and the second object in the virtual space and another object. , You may go further.

上記によれば、第1オブジェクトおよび第2オブジェクトだけでなく、第1オブジェクトおよび第2オブジェクトの間にも衝突判定領域が設定されるため、戦略性に富んだゲームが可能となる。   According to the above, since the collision determination area is set not only between the first object and the second object but also between the first object and the second object, it is possible to play a game rich in strategy.

また、上記軌道制御部は、所定のアクションが行われている期間においても、第1操作装置の姿勢変化に応じて第1オブジェクトの軌道を変化させ、第2操作装置の姿勢変化に応じて第2オブジェクトの軌道を変化させてもよい。   In addition, the trajectory control unit changes the trajectory of the first object according to the posture change of the first operating device, and changes the trajectory according to the posture change of the second operating device even during a predetermined action. The trajectories of the two objects may be changed.

上記によれば、移動中の第1オブジェクトおよび/または第2オブジェクトの軌道を変化させることによって、第1オブジェクトおよび第2オブジェクトの組の関係も変化するため、さらに戦略性に富んだゲームが可能となる。   According to the above, by changing the trajectory of the moving first object and / or the second object, the relationship between the pair of the first object and the second object also changes, so that a more strategic game is possible. Becomes

また、上記振り判定部は、第1加速度データが示す加速度の大きさが第1閾値を超えたか否かに基づいて第1振り入力を判定し、第2加速度データが示す加速度の大きさが第2閾値を越えたか否かに基づいて第2振り入力を判定してもよい。   The swing determination unit determines the first swing input based on whether or not the magnitude of the acceleration indicated by the first acceleration data exceeds a first threshold value, and the magnitude of the acceleration indicated by the second acceleration data is determined as the first magnitude. The second swing input may be determined based on whether or not the two thresholds are exceeded.

上記によれば、第1操作装置および第2操作装置をそれぞれ所定の加速度以上の動きで振り動かすことによって、ゲーム操作が可能となる。   Based on the above, the game operation can be performed by swinging the first operating device and the second operating device with a motion of a predetermined acceleration or more.

また、上記移動方向設定部は、実空間における重力方向に対する第1操作装置の左右方向の軸の傾きに基づいて、第1操作装置の姿勢を算出し、当該重力方向に対する第2操作装置の左右方向の軸の傾きに基づいて、第2操作装置の姿勢を算出してもよい。   The movement direction setting unit calculates the posture of the first operating device based on the inclination of the axis of the first operating device in the left-right direction with respect to the gravity direction in the real space, and determines the left-right direction of the second operating device with respect to the gravity direction. The attitude of the second operating device may be calculated based on the inclination of the axis of the direction.

上記によれば、第1操作装置および/または第2操作装置を実空間におけるロール方向に傾けることによって、第1オブジェクトおよび/または第2オブジェクトの移動方向を制御することができる。   According to the above, the moving direction of the first object and / or the second object can be controlled by inclining the first operating device and / or the second operating device in the roll direction in the real space.

また、上記軌道制御部は、第1操作装置の左右方向の軸の前後方向周りの回転角度の変化に基づいて、第1操作装置の姿勢変化を算出し、第2操作装置の左右方向の軸の前後方向周りの回転角度の変化に基づいて、第2操作装置の姿勢変化を算出してもよい。   Further, the trajectory control unit calculates the posture change of the first operating device based on the change in the rotation angle of the left-right axis of the first operating device about the front-rear direction, and determines the horizontal axis of the second operating device. The posture change of the second operating device may be calculated based on the change in the rotation angle around the front-back direction.

上記によれば、第1操作装置および/または第2操作装置をロール方向に回転させることによって、移動中の第1オブジェクトおよび/または第2オブジェクトの軌道を制御することができる。   According to the above, the trajectory of the moving first object and / or second object can be controlled by rotating the first operating device and / or the second operating device in the roll direction.

また、上記軌道制御部は、実空間における重力方向に対する第1操作装置の前後方向の軸の回転角度の変化に基づいて、第1操作装置の姿勢変化を算出し、当該重力方向に対する第2操作装置の前後方向の軸の回転角度の変化に基づいて、第2操作装置の姿勢変化を算出してもよい。   Further, the trajectory control unit calculates the attitude change of the first operating device based on the change in the rotation angle of the longitudinal axis of the first operating device with respect to the direction of gravity in the real space, and performs the second operation in the direction of gravity. The posture change of the second operating device may be calculated based on the change in the rotation angle of the axis of the device in the front-rear direction.

上記によれば、第1操作装置および/または第2操作装置を実空間におけるヨー方向に回転させることによって、移動中の第1オブジェクトおよび/または第2オブジェクトの軌道を制御することができる。   According to the above, the trajectory of the moving first object and / or the second object can be controlled by rotating the first operating device and / or the second operating device in the yaw direction in the real space.

また、上記オブジェクト移動制御部は、移動開始位置設定部を、さらに含んでもよい。移動開始位置設定部は、少なくとも第1角速度データに基づいた第1操作装置の姿勢と少なくとも第2角速度データに基づいた第2操作装置の姿勢との両方に基づいてプレイヤオブジェクトを移動させることによって、当該プレイヤキャラクタの位置を基準とした相対的な位置に設定される第1所定位置および第2所定位置を移動させる。   Further, the object movement control unit may further include a movement start position setting unit. The movement start position setting unit moves the player object based on both the attitude of the first operating device based on at least the first angular velocity data and the attitude of the second operating device based on at least the second angular velocity data, The first predetermined position and the second predetermined position that are set relative to the position of the player character are moved.

上記によれば、第1操作装置の姿勢および第2操作装置の姿勢の両方に基づいて、第1オブジェクトおよび第2オブジェトの移動開始位置を変化させることができるため、さらにゲーム操作のバリエーションを増やすことができる。   According to the above, the movement start positions of the first object and the second object can be changed based on both the attitude of the first operating device and the attitude of the second operating device, so that the variation of the game operation is further increased. be able to.

また、本発明は、ゲームプログラム、ゲームシステム、およびゲーム処理方法の形態で実施されてもよい。   Further, the present invention may be implemented in the form of a game program, a game system, and a game processing method.

本発明によれば、オブジェクトの移動開始可能状態になるまでに時間を要する場合であっても、操作を容易にすることが可能となる。   According to the present invention, it is possible to facilitate the operation even when it takes time until the object can start moving.

本実施形態における情報処理システム1の一例において、本体装置2に左コントローラ3および右コントローラ4を装着した状態を示す図The figure which shows the state which attached the left controller 3 and the right controller 4 to the main body apparatus 2 in an example of the information processing system 1 in this embodiment. 本体装置2から左コントローラ3および右コントローラ4をそれぞれ外した状態の一例を示す図The figure which shows an example of the state which removed the left controller 3 and the right controller 4 from the main body apparatus 2, respectively. 本体装置2の一例を示す六面図Six views showing an example of the main body device 2 左コントローラ3の一例を示す六面図Six-sided view showing an example of the left controller 3 右コントローラ4の一例を示す六面図Six-sided view showing an example of the right controller 4 本実施形態における情報処理システムの他の例の全体構成を示す図The figure which shows the whole structure of the other example of the information processing system in this embodiment. クレードル5の一例の外観構成を示す図The figure which shows the external appearance structure of an example of the cradle 5. 本体装置2の内部構成の一例を示すブロック図Block diagram showing an example of the internal configuration of the main body device 2 情報処理システム1の内部構成の一例を示すブロック図Block diagram showing an example of the internal configuration of the information processing system 1. クレードル5の内部構成の一例を示すブロック図Block diagram showing an example of the internal configuration of the cradle 5. 離脱状態において、1人のユーザが左コントローラ3および右コントローラ4の組を把持して情報処理システム1を利用する様子の一例を示す図The figure which shows an example of a mode that one user hold | maintains the group of the left controller 3 and the right controller 4, and uses the information processing system 1 in a detached state. 離脱状態において、1人のユーザが左コントローラ3および右コントローラ4の組を把持して情報処理システム1を利用する様子の一例を示す図The figure which shows an example of a mode that one user hold | maintains the group of the left controller 3 and the right controller 4, and uses the information processing system 1 in a detached state. 左コントローラ3および右コントローラ4を動かすことによってプレイするゲームにおいて表示されるゲーム画像例を示す図The figure which shows the example of a game image displayed in the game played by moving the left controller 3 and the right controller 4. 左コントローラ3および右コントローラ4を動かすことによってプレイするゲームにおいて表示されるゲーム画像例を示す図The figure which shows the example of a game image displayed in the game played by moving the left controller 3 and the right controller 4. 左コントローラ3および右コントローラ4を動かすことによってプレイするゲームにおいて表示されるゲーム画像例を示す図The figure which shows the example of a game image displayed in the game played by moving the left controller 3 and the right controller 4. 本実施形態において本体装置2のDRAM85に設定されるデータ領域の一例を示す図The figure which shows an example of the data area set to DRAM85 of the main body apparatus 2 in this embodiment. 情報処理システム1で実行されるゲーム処理の一例を示すフローチャートFlowchart showing an example of a game process executed in the information processing system 1. 図17におけるステップS144およびステップS145において行われるコントローラ振り認識処理の詳細の一例を示すサブルーチンSubroutine showing an example of details of the controller swing recognition processing performed in step S144 and step S145 in FIG. 図17におけるステップS144およびステップS145において行われるコントローラ振り認識処理の詳細の一例を示すサブルーチンSubroutine showing an example of details of the controller swing recognition processing performed in step S144 and step S145 in FIG. 図17におけるステップS146およびステップS147において行われるオブジェクト軌道変化処理の詳細の一例を示すサブルーチンSubroutine showing an example of details of the object trajectory change processing performed in step S146 and step S147 in FIG. 図17におけるステップS146およびステップS147において行われるオブジェクト軌道変化処理の詳細の一例を示すサブルーチンSubroutine showing an example of details of the object trajectory change processing performed in step S146 and step S147 in FIG. 図17におけるステップS146およびステップS147において行われるオブジェクト軌道変化処理の詳細の一例を示すサブルーチンSubroutine showing an example of details of the object trajectory change processing performed in step S146 and step S147 in FIG. 図17におけるステップS148において行われるプレイヤオブジェクト移動処理の詳細の一例を示すサブルーチンSubroutine showing an example of details of the player object moving process performed in step S148 in FIG.

以下、本実施形態の一例に係るゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法について説明する。本実施形態におけるゲームシステムの一例となる情報処理システム1は、本体装置(情報処理装置;本実施形態ではゲーム装置本体として機能する)2と左コントローラ3および右コントローラ4とによって構成される。また、上記情報処理システムの他の態様は、上記構成にクレードル5(図5、図7等参照)を加えて構成されることもある。本実施形態における情報処理システム1は、本体装置2に対して左コントローラ3および右コントローラ4が着脱可能であり、左コントローラ3および右コントローラ4をそれぞれ本体装置2に装着して一体化された装置として利用でき、また、本体装置2と左コントローラ3および右コントローラ4とを別体として利用することもできる(図2参照)。また、情報処理システム1は、本体装置2に画像を表示する態様での利用と、テレビ等の他の表示装置に画像を表示させる態様での利用が可能である。前者の態様において、情報処理システム1は、携帯型装置(例えば、携帯ゲーム機)として利用することができる。また、後者の態様において、情報処理システム1は、据置型装置(例えば、据置型ゲーム機)として利用することができる。   Hereinafter, a game device, a game program, a game system, and a game processing method according to an example of the present embodiment will be described. An information processing system 1, which is an example of a game system in the present embodiment, includes a main body device (information processing device; functions as a game device main body in the present embodiment) 2, a left controller 3, and a right controller 4. Further, another aspect of the information processing system may be configured by adding the cradle 5 (see FIG. 5, FIG. 7, etc.) to the above configuration. In the information processing system 1 according to the present embodiment, the left controller 3 and the right controller 4 can be attached to and detached from the main body device 2, and the left controller 3 and the right controller 4 are attached to the main body device 2 and integrated into each other. Also, the main body device 2 and the left controller 3 and the right controller 4 can be separately used (see FIG. 2). Further, the information processing system 1 can be used in a mode of displaying an image on the main body device 2 and a mode of displaying an image on another display device such as a television. In the former aspect, the information processing system 1 can be used as a portable device (for example, a portable game machine). In the latter aspect, the information processing system 1 can be used as a stationary device (for example, a stationary game machine).

図1は、本実施形態における情報処理システム1の一例において、本体装置2に左コントローラ3および右コントローラ4を装着した状態を示す図である。図1に示すように、情報処理システム1は、本体装置2と、左コントローラ3と、右コントローラ4とを含む。左コントローラ3および右コントローラ4は、それぞれ本体装置2に装着されて一体化されている。本体装置2は、情報処理システム1における各種の処理(例えば、ゲーム処理)を実行する装置である。本体装置2は、ディスプレイ12を備える。左コントローラ3および右コントローラ4は、ユーザが入力を行うための操作部を備える装置である。   FIG. 1 is a diagram showing a state in which a left controller 3 and a right controller 4 are attached to a main body device 2 in an example of an information processing system 1 according to this embodiment. As shown in FIG. 1, the information processing system 1 includes a main body device 2, a left controller 3, and a right controller 4. The left controller 3 and the right controller 4 are attached to and integrated with the main body device 2, respectively. The main body device 2 is a device that executes various kinds of processing (for example, game processing) in the information processing system 1. The main body device 2 includes a display 12. The left controller 3 and the right controller 4 are devices including an operation unit for a user to input.

図2は、本体装置2から左コントローラ3および右コントローラ4をそれぞれ外した状態の一例を示す図である。図1および図2に示すように、左コントローラ3および右コントローラ4は、本体装置2に着脱可能である。左コントローラ3は、本体装置2の左側面(図1に示すx軸正方向側の側面)に装着することができ、本体装置2の左側面に沿って図1に示すy軸方向にスライドさせることによって本体装置2に着脱可能となっている。また、右コントローラ4は、本体装置2の右側面(図1に示すx軸負方向側の側面)に装着することができ、本体装置2の右側面に沿って図1に示すy軸方向にスライドさせることによって本体装置2に着脱可能となっている。なお、以下において、左コントローラ3および右コントローラ4の総称として「コントローラ」と記載することがある。なお、本実施形態において、1人のユーザが操作する「操作装置」は、1つのコントローラ(例えば、左コントローラ3および右コントローラ4の一方)でも複数のコントローラ(例えば、左コントローラ3および右コントローラ4の両方、またはさらに他のコントローラを含んでもよい)でもよく、当該「操作装置」は、1以上のコントローラによって構成可能となる。以下、本体装置2と左コントローラ3および右コントローラ4との具体的な構成の一例について説明する。   FIG. 2 is a diagram showing an example of a state in which the left controller 3 and the right controller 4 are removed from the main body device 2. As shown in FIGS. 1 and 2, the left controller 3 and the right controller 4 are attachable to and detachable from the main body device 2. The left controller 3 can be attached to the left side surface (side surface on the positive side of the x-axis shown in FIG. 1) of the main body device 2, and is slid in the y-axis direction shown in FIG. 1 along the left side surface of the main body device 2. As a result, it can be attached to and detached from the main body device 2. Further, the right controller 4 can be mounted on the right side surface of the main body device 2 (side surface on the negative side of the x-axis shown in FIG. 1), and along the right side surface of the main body device 2 in the y-axis direction shown in FIG. It can be attached to and detached from the main body device 2 by sliding. In the following, the left controller 3 and the right controller 4 may be collectively referred to as “controller”. In the present embodiment, the “operating device” operated by one user is one controller (for example, one of the left controller 3 and the right controller 4) or a plurality of controllers (for example, the left controller 3 and the right controller 4). , Or may further include other controllers), and the “operating device” can be configured by one or more controllers. Hereinafter, an example of a specific configuration of the main body device 2, the left controller 3, and the right controller 4 will be described.

図3は、本体装置2の一例を示す六面図である。図3に示すように、本体装置2は、略板状のハウジング11を備える。本実施形態において、ハウジング11の主面(換言すれば、表側の面、すなわち、ディスプレイ12が設けられる面)は、大略的には矩形形状である。本実施形態においては、ハウジング11は、横長の形状であるものとする。つまり、本実施形態においては、ハウジング11の主面の長手方向(すなわち、図1に示すx軸方向)を横方向(左右方向とも言う)と呼び、当該主面の短手方向(すなわち、図1に示すy軸方向)を縦方向(上下方向とも言う)と呼び、主面に垂直な方向(すなわち、図1に示すz軸方向)を奥行方向(前後方向とも言う)と呼ぶこととする。本体装置2は、本体装置2が横長となる向きで利用されることが可能である。また、本体装置2が縦長となる向きで利用されることも可能である。その場合には、ハウジング11を縦長の形状であるものと見なしてもよい。   FIG. 3 is a six-sided view showing an example of the main body device 2. As shown in FIG. 3, the main body device 2 includes a substantially plate-shaped housing 11. In the present embodiment, the main surface of the housing 11 (in other words, the front surface, that is, the surface on which the display 12 is provided) has a substantially rectangular shape. In the present embodiment, the housing 11 has a horizontally long shape. That is, in the present embodiment, the longitudinal direction of the main surface of the housing 11 (that is, the x-axis direction shown in FIG. 1) is called the lateral direction (also referred to as the left-right direction), and the lateral direction of the main surface (that is, the figure). The y-axis direction shown in 1 is referred to as the vertical direction (also referred to as the vertical direction), and the direction perpendicular to the main surface (that is, the z-axis direction shown in FIG. 1) is referred to as the depth direction (also referred to as the front-back direction). .. The main body device 2 can be used in an orientation in which the main body device 2 is horizontally long. The main body device 2 can also be used in a portrait orientation. In that case, the housing 11 may be regarded as a vertically long shape.

なお、ハウジング11の形状および大きさは、任意である。一例として、ハウジング11は、携帯可能な大きさであってよい。また、本体装置2単体または本体装置2に左コントローラ3および右コントローラ4が装着された一体型装置は、携帯型装置となってもよい。また、本体装置2または一体型装置が手持ち型の装置となってもよい。また、本体装置2または一体型装置が可搬型装置となってもよい。   The shape and size of the housing 11 are arbitrary. As an example, the housing 11 may have a portable size. Further, the main body device 2 alone or the integrated device in which the left controller 3 and the right controller 4 are attached to the main body device 2 may be a portable device. Further, the main body device 2 or the integrated device may be a handheld device. Further, the main body device 2 or the integrated device may be a portable device.

図3に示すように、本体装置2は、ハウジング11の主面に設けられるディスプレイ12を備える。ディスプレイ12は、本体装置2が取得または生成した画像(静止画であってもよいし、動画であってもよい)を表示する。本実施形態においては、ディスプレイ12は、液晶表示装置(LCD)とする。ただし、ディスプレイ12は任意の種類の表示装置であってよい。   As shown in FIG. 3, the main body device 2 includes a display 12 provided on the main surface of the housing 11. The display 12 displays an image (may be a still image or a moving image) acquired or generated by the main body device 2. In the present embodiment, the display 12 is a liquid crystal display device (LCD). However, the display 12 may be any type of display device.

また、本体装置2は、ディスプレイ12の画面上にタッチパネル13を備える。本実施形態においては、タッチパネル13は、マルチタッチ入力が可能な方式(例えば、静電容量方式)のものである。ただし、タッチパネル13は、任意の種類のものであってよく、例えば、シングルタッチ入力が可能な方式(例えば、抵抗膜方式)のものであってもよい。   The main body device 2 also includes a touch panel 13 on the screen of the display 12. In the present embodiment, the touch panel 13 is of a type that allows multi-touch input (for example, a capacitance type). However, the touch panel 13 may be of any type, for example, a type capable of single touch input (for example, a resistive film type).

本体装置2は、ハウジング11の内部においてスピーカ(すなわち、図8に示すスピーカ88)を備えている。図3に示すように、ハウジング11の主面には、スピーカ孔11aおよび11bが形成される。そして、スピーカ88の出力音は、これらのスピーカ孔11aおよび11bからそれぞれ出力される。   The main body device 2 includes a speaker (that is, the speaker 88 shown in FIG. 8) inside the housing 11. As shown in FIG. 3, speaker holes 11 a and 11 b are formed on the main surface of the housing 11. Then, the output sound of the speaker 88 is output from these speaker holes 11a and 11b, respectively.

図3に示すように、本体装置2は、ハウジング11の左側面において左レール部材15を備える。左レール部材15は、左コントローラ3を本体装置2に着脱可能に装着するための部材である。左レール部材15は、ハウジング11の左側面において、上下方向に沿って延びるように設けられる。左レール部材15は、左コントローラ3のスライダ(すなわち、図4に示すスライダ40)と係合可能な形状を有しており、左レール部材15とスライダ40とによってスライド機構が形成される。このスライド機構によって、左コントローラ3を本体装置2に対してスライド可能かつ着脱可能に装着することができる。   As shown in FIG. 3, the main body device 2 includes a left rail member 15 on the left side surface of the housing 11. The left rail member 15 is a member for removably attaching the left controller 3 to the main body device 2. The left rail member 15 is provided on the left side surface of the housing 11 so as to extend in the vertical direction. The left rail member 15 has a shape that can be engaged with the slider of the left controller 3 (that is, the slider 40 shown in FIG. 4), and the left rail member 15 and the slider 40 form a slide mechanism. With this slide mechanism, the left controller 3 can be attached to the main body device 2 slidably and detachably.

また、本体装置2は左側端子17を備える。左側端子17は、本体装置2が左コントローラ3と有線通信を行うための端子である。左側端子17は、左コントローラ3が本体装置2に装着された場合に、左コントローラ3の端子(図5に示す端子42)と接触する位置に設けられる。左側端子17の具体的な位置は任意である。本実施形態においては、図3に示すように、左側端子17は、左レール部材15の底面に設けられる。また、本実施形態においては、左側端子17は、左レール部材15の底面における下側の端部付近に設けられる。   The main body device 2 also includes a left terminal 17. The left terminal 17 is a terminal for the main body device 2 to perform wired communication with the left controller 3. The left terminal 17 is provided at a position in contact with the terminal of the left controller 3 (the terminal 42 shown in FIG. 5) when the left controller 3 is attached to the main body device 2. The specific position of the left terminal 17 is arbitrary. In the present embodiment, as shown in FIG. 3, the left side terminal 17 is provided on the bottom surface of the left rail member 15. Further, in the present embodiment, the left terminal 17 is provided near the lower end of the bottom surface of the left rail member 15.

図3に示すように、ハウジング11の右側面には、左側面に設けられる構成と同様の構成が設けられる。すなわち、本体装置2は、ハウジング11の右側面において右レール部材19を備える。右レール部材19は、ハウジング11の右側面において、上下方向に沿って延びるように設けられる。右レール部材19は、右コントローラ4のスライダ(すなわち、図5に示すスライダ62)と係合可能な形状を有しており、右レール部材19とスライダ62とによってスライド機構が形成される。このスライド機構によって、右コントローラ4を本体装置2に対してスライド可能かつ着脱可能に装着することができる。   As shown in FIG. 3, the same configuration as that provided on the left side surface is provided on the right side surface of the housing 11. That is, the main body device 2 includes the right rail member 19 on the right side surface of the housing 11. The right rail member 19 is provided on the right side surface of the housing 11 so as to extend in the vertical direction. The right rail member 19 has a shape that can be engaged with the slider of the right controller 4 (that is, the slider 62 shown in FIG. 5), and the right rail member 19 and the slider 62 form a slide mechanism. With this slide mechanism, the right controller 4 can be slidably and detachably attached to the main body device 2.

また、本体装置2は右側端子21を備える。右側端子21は、本体装置2が右コントローラ4と有線通信を行うための端子である。右側端子21は、右コントローラ4が本体装置2に装着された場合に、右コントローラ4の端子(図5に示す端子64)と接触する位置に設けられる。右側端子21の具体的な位置は任意である。本実施形態においては、図3に示すように、右側端子21は、右レール部材19の底面に設けられる。また、本実施形態においては、右側端子21は、右レール部材19の底面における下側の端部付近に設けられる。   The main body device 2 also includes a right terminal 21. The right terminal 21 is a terminal for the main body device 2 to perform wired communication with the right controller 4. The right terminal 21 is provided at a position where it contacts the terminal (the terminal 64 shown in FIG. 5) of the right controller 4 when the right controller 4 is attached to the main body device 2. The specific position of the right terminal 21 is arbitrary. In the present embodiment, as shown in FIG. 3, the right terminal 21 is provided on the bottom surface of the right rail member 19. In the present embodiment, the right terminal 21 is provided near the lower end of the bottom surface of the right rail member 19.

図3に示すように、本体装置2は、第1スロット23を備える。第1スロット23は、ハウジング11の上側面に設けられる。第1スロット23は、第1の種類の記憶媒体を装着可能な形状を有する。第1の種類の記憶媒体は、例えば、情報処理システム1およびそれと同種の情報処理装置に専用の記憶媒体(例えば、専用メモリカード)である。第1の種類の記憶媒体は、例えば、本体装置2で利用されるデータ(例えば、アプリケーションのセーブデータ等)、および/または、本体装置2で実行されるプログラム(例えば、アプリケーションのプログラム等)を記憶するために用いられる。また、本体装置2は、電源ボタン28を備える。図3に示すように、電源ボタン28は、ハウジング11の上側面に設けられる。電源ボタン28は、本体装置2の電源のオン/オフを切り替えるためのボタンである。   As shown in FIG. 3, the main body device 2 includes a first slot 23. The first slot 23 is provided on the upper side surface of the housing 11. The first slot 23 has a shape into which a first type storage medium can be mounted. The first type storage medium is, for example, a storage medium (for example, a dedicated memory card) dedicated to the information processing system 1 and the same type of information processing apparatus as the information processing system 1. The first type storage medium stores, for example, data used by the main body device 2 (for example, save data of an application) and / or a program executed by the main body device 2 (for example, a program of an application). Used to remember. The main body device 2 also includes a power button 28. As shown in FIG. 3, the power button 28 is provided on the upper side surface of the housing 11. The power button 28 is a button for switching on / off the power of the main body device 2.

本体装置2は、音声入出力端子(具体的には、イヤホンジャック)25を備える。すなわち、本体装置2は、音声入出力端子25にマイクやイヤホンを装着することができる。図3に示すように、音声入出力端子25は、ハウジング11の上側面に設けられる。   The main body device 2 includes a voice input / output terminal (specifically, an earphone jack) 25. That is, in the main body device 2, a microphone and an earphone can be attached to the audio input / output terminal 25. As shown in FIG. 3, the voice input / output terminal 25 is provided on the upper side surface of the housing 11.

本体装置2は、音量ボタン26aおよび26bを備える。図3に示すように、音量ボタン26aおよび26bは、ハウジング11の上側面に設けられる。音量ボタン26aおよび26bは、本体装置2によって出力される音量を調整する指示を行うためのボタンである。すなわち、音量ボタン26aは、音量を下げる指示を行うためのボタンであり、音量ボタン26bは、音量を上げる指示を行うためのボタンである。   The main body device 2 includes volume buttons 26a and 26b. As shown in FIG. 3, the volume buttons 26 a and 26 b are provided on the upper side surface of the housing 11. The volume buttons 26a and 26b are buttons for instructing to adjust the volume output by the main body device 2. That is, the volume button 26a is a button for instructing to decrease the volume, and the volume button 26b is a button for instructing to increase the volume.

また、ハウジング11には、排気孔11cが形成される。図3に示すように、排気孔11cは、ハウジング11の上側面に形成される。排気孔11cは、ハウジング11の内部で発生した熱をハウジング11の外部へ排気する(換言すれば、放出する)ために形成される。すなわち、排気孔11cは、排熱孔であるとも言える。   Further, an exhaust hole 11c is formed in the housing 11. As shown in FIG. 3, the exhaust hole 11 c is formed on the upper side surface of the housing 11. The exhaust holes 11c are formed to exhaust (in other words, release) the heat generated inside the housing 11 to the outside of the housing 11. That is, it can be said that the exhaust hole 11c is a heat exhaust hole.

本体装置2は、下側端子27を備える。下側端子27は、本体装置2が、後述するクレードル5と通信を行うための端子である。図3に示すように、下側端子27は、ハウジング11の下側面に設けられる。本体装置2がクレードル5に装着された場合、下側端子27は、クレードル5の端子(図7に示す本体端子73)に接続される。本実施形態において、下側端子27は、USBコネクタ(より具体的には、メス側コネクタ)である。   The main body device 2 includes a lower terminal 27. The lower terminal 27 is a terminal for the main body device 2 to communicate with the cradle 5 described later. As shown in FIG. 3, the lower terminal 27 is provided on the lower side surface of the housing 11. When the main body device 2 is mounted on the cradle 5, the lower terminal 27 is connected to the terminal of the cradle 5 (main body terminal 73 shown in FIG. 7). In the present embodiment, the lower terminal 27 is a USB connector (more specifically, female connector).

また、本体装置2は第2スロット24を備える。本実施形態においては、第2スロット24は、ハウジング11の下側面に設けられる。ただし、他の実施形態においては、第2スロット24は、第1スロット23とは同じ面に設けられてもよい。第2スロット24は、第1の種類とは異なる第2の種類の記憶媒体を装着可能な形状を有する。第2の種類の記憶媒体は、例えば、汎用の記憶媒体であってもよい。例えば、第2の種類の記憶媒体は、SDカードであってもよい。第2の種類の記憶媒体は、例えば、第1の種類の記憶媒体と同様、本体装置2で利用されるデータ(例えば、アプリケーションのセーブデータ等)、および/または、本体装置2で実行されるプログラム(例えば、アプリケーションのプログラム等)を記憶するために用いられる。   The main body device 2 also includes a second slot 24. In the present embodiment, the second slot 24 is provided on the lower side surface of the housing 11. However, in other embodiments, the second slot 24 may be provided on the same surface as the first slot 23. The second slot 24 has a shape in which a second type storage medium different from the first type can be mounted. The second type storage medium may be, for example, a general-purpose storage medium. For example, the second type storage medium may be an SD card. The second type storage medium is, for example, similar to the first type storage medium, data used in the main body device 2 (for example, save data of an application or the like) and / or executed in the main body device 2. It is used to store a program (for example, an application program or the like).

また、ハウジング11には、吸気孔11dが形成される。図3に示すように、吸気孔11dは、ハウジング11の下側面に形成される。吸気孔11dは、ハウジング11の外部の空気をハウジング11の内部へ吸気する(換言すれば、導入する)ために形成される。本実施形態においては、排気孔11cが形成される面の反対側の面に吸気孔11dが形成されるので、ハウジング11内部の放熱を効率良く行うことができる。   An intake hole 11d is formed in the housing 11. As shown in FIG. 3, the intake hole 11 d is formed on the lower side surface of the housing 11. The intake hole 11d is formed to suck (in other words, introduce) the air outside the housing 11 into the housing 11. In the present embodiment, since the intake hole 11d is formed on the surface opposite to the surface on which the exhaust hole 11c is formed, it is possible to efficiently dissipate heat inside the housing 11.

以上に説明した、ハウジング11に設けられる各構成要素(具体的には、ボタン、スロット、端子等)の形状、数、および設置位置は、任意である。例えば、他の実施形態においては、電源ボタン28および各スロット23および24のうちのいくつかは、ハウジング11の他の側面あるいは背面に設けられてもよい。また、他の実施形態においては、本体装置2は、上記各構成要素のうちいくつかを備えていない構成であってもよい。   The shape, number, and installation position of each component (specifically, button, slot, terminal, etc.) provided in the housing 11 described above are arbitrary. For example, in other embodiments, the power button 28 and some of the slots 23 and 24 may be provided on another side or back of the housing 11. Further, in another embodiment, the main body device 2 may have a configuration that does not include some of the above components.

図4は、左コントローラ3の一例を示す六面図である。図4に示すように、左コントローラ3は、ハウジング31を備える。本実施形態において、ハウジング31は、略板状である。また、ハウジング31の主面(換言すれば、表側の面、すなわち、図1に示すz軸負方向側の面)は、大略的には矩形形状である。また、本実施形態においては、ハウジング31は、縦長の形状、すなわち、上下方向(すなわち、図1に示すy軸方向)に長い形状である。左コントローラ3は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング31は、縦長となる向きで把持される場合に片手、特に左手で把持可能な形状および大きさをしている。また、左コントローラ3は、横長となる向きで把持されることも可能である。左コントローラ3が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。なお、ハウジング31の形状は任意であり、他の実施形態においては、ハウジング31は略板状でなくてもよい。また、ハウジング31は、矩形形状でなくてもよく、例えば半円状の形状等であってもよい。また、ハウジング31は、縦長の形状でなくてもよい。   FIG. 4 is a six-sided view showing an example of the left controller 3. As shown in FIG. 4, the left controller 3 includes a housing 31. In the present embodiment, the housing 31 has a substantially plate shape. The main surface of the housing 31 (in other words, the surface on the front side, that is, the surface on the negative side of the z-axis shown in FIG. 1) has a substantially rectangular shape. Further, in the present embodiment, the housing 31 has a vertically long shape, that is, a shape that is long in the up-down direction (that is, the y-axis direction shown in FIG. 1). The left controller 3 can also be held in a vertically long orientation when detached from the main body device 2. The housing 31 has such a shape and size that it can be held by one hand, particularly by the left hand, when it is held in a vertically long orientation. The left controller 3 can also be held in a landscape orientation. When the left controller 3 is gripped in a landscape orientation, it may be gripped by both hands. The shape of the housing 31 is arbitrary, and in other embodiments, the housing 31 does not have to be substantially plate-shaped. The housing 31 does not have to have a rectangular shape, and may have a semicircular shape, for example. Further, the housing 31 does not have to have a vertically long shape.

ハウジング31の上下方向の長さは、本体装置2のハウジング11の上下方向の長さとほぼ同じである。また、ハウジング31の厚さ(すなわち、前後方向の長さ、換言すれば、図1に示すz軸方向の長さ)は、本体装置2のハウジング11の厚さとほぼ同じである。したがって、左コントローラ3が本体装置2に装着された場合(図1参照)には、ユーザは、本体装置2と左コントローラ3とを一体の装置のような感覚で把持することができる。   The vertical length of the housing 31 is substantially the same as the vertical length of the housing 11 of the main body device 2. Further, the thickness of the housing 31 (that is, the length in the front-rear direction, in other words, the length in the z-axis direction shown in FIG. 1) is substantially the same as the thickness of the housing 11 of the main body device 2. Therefore, when the left controller 3 is attached to the main body device 2 (see FIG. 1), the user can grip the main body device 2 and the left controller 3 as if they were an integrated device.

また、図4に示すように、ハウジング31の主面は、左側の角部分が、右側の角部分よりも丸みを帯びた形状になっている。すなわち、ハウジング31の上側面と左側面との接続部分、および、ハウジング31の下側面と左側面との接続部分は、その上側面と右側面との接続部分、および、その下側面と右側面との接続部分に比べて、丸くなっている(換言すれば、面取りにおけるRが大きい)。したがって、左コントローラ3が本体装置2に装着された場合(図1参照)には、一体型装置となった情報処理システム1の左側が丸みを帯びた形状となるので、ユーザにとって持ちやすい形状となる。   Further, as shown in FIG. 4, the main surface of the housing 31 has a shape in which the left corner is more rounded than the right corner. That is, the connecting portion between the upper side surface and the left side surface of the housing 31 and the connecting portion between the lower side surface and the left side surface of the housing 31 are the connecting portion between the upper side surface and the right side surface, and the lower side surface and the right side surface. It is rounded (in other words, R in chamfering is large) as compared with the connecting portion with. Therefore, when the left controller 3 is attached to the main body device 2 (see FIG. 1), the left side of the information processing system 1 which is an integrated device has a rounded shape, which is easy for the user to hold. Become.

左コントローラ3は、アナログスティック32を備える。図4に示すように、アナログスティック32が、ハウジング31の主面に設けられる。アナログスティック32は、方向を入力することが可能な方向入力部の一例である。アナログスティック32は、ハウジング31の主面に平行な全方向(すなわち、上下左右および斜め方向を含む、360°の方向)に傾倒可能なスティック部材を有する。ユーザは、スティック部材を傾倒することによって傾倒方向に応じた方向の入力(および、傾倒した角度に応じた大きさの入力)が可能である。なお、方向入力部は、十字キーまたはスライドスティック等であってもよい。また、本実施形態においては、スティック部材を(ハウジング31に垂直な方向に)押下する入力が可能である。すなわち、アナログスティック32は、スティック部材の傾倒方向および傾倒量に応じた方向および大きさの入力と、スティック部材に対する押下入力とを行うことが可能な入力部である。   The left controller 3 includes an analog stick 32. As shown in FIG. 4, the analog stick 32 is provided on the main surface of the housing 31. The analog stick 32 is an example of a direction input unit capable of inputting a direction. The analog stick 32 has a stick member that can be tilted in all directions parallel to the main surface of the housing 31 (that is, directions of 360 ° including up, down, left, right, and diagonal directions). By tilting the stick member, the user can input a direction corresponding to the tilt direction (and an input of a size corresponding to the tilt angle). The direction input unit may be a cross key, a slide stick, or the like. Further, in the present embodiment, it is possible to perform an input of pressing the stick member (in the direction perpendicular to the housing 31). That is, the analog stick 32 is an input unit capable of inputting a direction and size according to the tilt direction and amount of tilt of the stick member, and pressing input to the stick member.

左コントローラ3は、4つの操作ボタン33〜36(具体的には、右方向ボタン33、下方向ボタン34、上方向ボタン35、および、左方向ボタン36)を備える。図4に示すように、これら4つの操作ボタン33〜36は、ハウジング31の主面においてアナログスティック32の下側に設けられる。なお、本実施形態においては、左コントローラ3の主面に設けられる操作ボタンを4つとするが、操作ボタンの数は任意である。これらの操作ボタン33〜36は、本体装置2で実行される各種プログラム(例えば、OSプログラムやアプリケーションプログラム)に応じた指示を行うために用いられる。なお、本実施形態においては、各操作ボタン33〜36は方向入力を行うために用いられてもよいことから、各操作ボタン33〜36を、右方向ボタン33、下方向ボタン34、上方向ボタン35、および、左方向ボタン36と呼んでいる。ただし、各操作ボタン33〜36は、方向入力以外の指示を行うために用いられてもよい。   The left controller 3 includes four operation buttons 33 to 36 (specifically, the right direction button 33, the down direction button 34, the up direction button 35, and the left direction button 36). As shown in FIG. 4, these four operation buttons 33 to 36 are provided below the analog stick 32 on the main surface of the housing 31. In the present embodiment, four operation buttons are provided on the main surface of the left controller 3, but the number of operation buttons is arbitrary. These operation buttons 33 to 36 are used to give instructions according to various programs (for example, OS programs and application programs) executed by the main body device 2. In addition, in the present embodiment, since the operation buttons 33 to 36 may be used to perform the direction input, the operation buttons 33 to 36 are replaced by the right button 33, the down button 34, and the up button. 35 and the left direction button 36. However, the operation buttons 33 to 36 may be used to give an instruction other than the direction input.

また、左コントローラ3は−(マイナス)ボタン47を備える。図4に示すように、−ボタン47は、ハウジング31の主面に設けられ、より具体的には、主面における右上領域に設けられる。−ボタン47は、本体装置2で実行される各種プログラム(例えば、OSプログラムやアプリケーションプログラム)に応じた指示を行うために用いられる。−ボタン47は、例えば、ゲームアプリケーションにおいてセレクトボタン(例えば、選択項目の切り替えに用いられるボタン)として用いられる。   The left controller 3 also includes a- (minus) button 47. As shown in FIG. 4, the-button 47 is provided on the main surface of the housing 31, and more specifically, it is provided in the upper right area on the main surface. The-button 47 is used to give an instruction according to various programs (for example, an OS program and an application program) executed by the main body device 2. The-button 47 is used, for example, as a select button (for example, a button used for switching a selection item) in a game application.

左コントローラ3の主面に設けられる各操作部(具体的には、アナログスティック32および上記各ボタン33〜36、47)は、左コントローラ3が本体装置2に装着される場合、一体型装置となった情報処理システム1を把持するユーザの例えば左手の親指によって操作される。また、左コントローラ3が本体装置2から外された状態において両手で横向きに把持されて使用される場合、上記各操作部は、左コントローラ3を把持するユーザの例えば左右の手の親指で操作される。具体的には、この場合、アナログスティック32はユーザの左手の親指で操作され、各操作ボタン33〜36はユーザの右手の親指で操作される。   When the left controller 3 is attached to the main body device 2, each operation unit (specifically, the analog stick 32 and each of the buttons 33 to 36, 47) provided on the main surface of the left controller 3 is an integrated device. It is operated by, for example, the thumb of the left hand of the user who holds the information processing system 1. When the left controller 3 is used by being laterally gripped with both hands in a state where the left controller 3 is detached from the main body device 2, each of the operation parts is operated by, for example, the thumb of the user holding the left controller 3 with the left and right hands. It Specifically, in this case, the analog stick 32 is operated by the thumb of the user's left hand, and the operation buttons 33 to 36 are operated by the thumb of the user's right hand.

左コントローラ3は、第1Lボタン38を備える。また、左コントローラ3は、ZLボタン39を備える。これらの操作ボタン38および39は、上記操作ボタン33〜36と同様、本体装置2で実行される各種プログラムに応じた指示を行うために用いられる。図4に示すように、第1Lボタン38は、ハウジング31の側面のうちの左上部分に設けられる。また、ZLボタン39は、ハウジング31の側面から裏面にかけての左上部分(厳密には、ハウジング31を表側から見たときの左上部分)に設けられる。つまり、ZLボタン39は、第1Lボタン38の後側(図1に示すz軸正方向側)に設けられる。本実施形態においては、ハウジング31の左上部分が丸みを帯びた形状であるので、第1Lボタン38およびZLボタン39は、ハウジング31の当該左上部分の丸みに応じた丸みを帯びた形状を有する。左コントローラ3が本体装置2に装着される場合、第1Lボタン38およびZLボタン39は、一体型装置となった情報処理システム1における左上部分に配置されることになる。   The left controller 3 includes a first L button 38. The left controller 3 also includes a ZL button 39. These operation buttons 38 and 39, like the operation buttons 33 to 36, are used to give instructions according to various programs executed by the main body device 2. As shown in FIG. 4, the first L button 38 is provided on the upper left portion of the side surface of the housing 31. The ZL button 39 is provided in the upper left portion from the side surface to the back surface of the housing 31 (strictly speaking, the upper left portion when the housing 31 is viewed from the front side). That is, the ZL button 39 is provided on the rear side of the first L button 38 (the z-axis positive direction side shown in FIG. 1). In the present embodiment, since the upper left portion of the housing 31 has a rounded shape, the first L button 38 and the ZL button 39 have a rounded shape corresponding to the roundness of the upper left portion of the housing 31. When the left controller 3 is attached to the main body device 2, the first L button 38 and the ZL button 39 are arranged in the upper left portion of the information processing system 1 which is an integrated device.

左コントローラ3は、上述のスライダ40を備えている。図4に示すように、スライダ40は、ハウジング31の右側面において、上下方向に延びるように設けられる。スライダ40は、本体装置2の左レール部材15(より具体的には、左レール部材15の溝)と係合可能な形状を有している。したがって、左レール部材15に係合したスライダ40は、スライド方向(換言すれば左レール部材15が延びる方向)に垂直な向きに関しては固定されて外れないようになっている。   The left controller 3 includes the slider 40 described above. As shown in FIG. 4, the slider 40 is provided on the right side surface of the housing 31 so as to extend in the vertical direction. The slider 40 has a shape capable of engaging with the left rail member 15 of the main body device 2 (more specifically, the groove of the left rail member 15). Therefore, the slider 40 engaged with the left rail member 15 is fixed and does not come off in the direction perpendicular to the sliding direction (in other words, the direction in which the left rail member 15 extends).

また、左コントローラ3は、左コントローラ3が本体装置2と有線通信を行うための端子42を備える。端子42は、左コントローラ3が本体装置2に装着された場合に、本体装置2の左側端子17(図3)と接触する位置に設けられる。端子42の具体的な位置は任意である。本実施形態においては、図4に示すように、端子42は、スライダ40の装着面に設けられる。また、本実施形態においては、端子42は、スライダ40の装着面における下側の端部付近に設けられる。   The left controller 3 also includes a terminal 42 for the left controller 3 to perform wired communication with the main body device 2. The terminal 42 is provided at a position in contact with the left terminal 17 (FIG. 3) of the main body device 2 when the left controller 3 is attached to the main body device 2. The specific position of the terminal 42 is arbitrary. In the present embodiment, as shown in FIG. 4, the terminal 42 is provided on the mounting surface of the slider 40. Further, in the present embodiment, the terminal 42 is provided near the lower end of the mounting surface of the slider 40.

図5は、右コントローラ4の一例を示す六面図である。図5に示すように、右コントローラ4は、ハウジング51を備える。本実施形態において、ハウジング51は、略板状である。また、ハウジング51の主面(換言すれば、表側の面、すなわち、図1に示すz軸負方向側の面)は、大略的には矩形形状である。また、本実施形態においては、ハウジング51は、縦長の形状、すなわち、上下方向に長い形状である。右コントローラ4は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング51は、縦長となる向きで把持される場合に片手、特に左手で把持可能な形状および大きさをしている。また、右コントローラ4は、横長となる向きで把持されることも可能である。右コントローラ4が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。   FIG. 5 is a six-sided view showing an example of the right controller 4. As shown in FIG. 5, the right controller 4 includes a housing 51. In the present embodiment, the housing 51 has a substantially plate shape. The main surface of the housing 51 (in other words, the surface on the front side, that is, the surface on the negative side in the z-axis direction shown in FIG. 1) has a substantially rectangular shape. Further, in the present embodiment, the housing 51 has a vertically long shape, that is, a shape that is long in the vertical direction. The right controller 4 can also be held in a portrait orientation when it is detached from the main body device 2. The housing 51 has such a shape and size that it can be held by one hand, particularly by the left hand, when it is held in a vertically long orientation. The right controller 4 can also be held in a landscape orientation. When the right controller 4 is gripped in a landscape orientation, it may be gripped by both hands.

右コントローラ4のハウジング51は、左コントローラ3のハウジング31と同様、その上下方向の長さは、本体装置2のハウジング11の上下方向の長さとほぼ同じであり、その厚さは、本体装置2のハウジング11の厚さとほぼ同じである。したがって、右コントローラ4が本体装置2に装着された場合(図1参照)には、ユーザは、本体装置2と右コントローラ4とを一体の装置のような感覚で把持することができる。   Like the housing 31 of the left controller 3, the housing 51 of the right controller 4 has a vertical length that is substantially the same as the vertical length of the housing 11 of the main body device 2, and the thickness thereof. The thickness of the housing 11 is substantially the same as that of the housing 11. Therefore, when the right controller 4 is attached to the main body device 2 (see FIG. 1), the user can grip the main body device 2 and the right controller 4 as if they were an integrated device.

また、図5に示すように、ハウジング51の主面は、右側の角部分が、左側の角部分よりも丸みを帯びた形状になっている。すなわち、ハウジング51の上側面と右側面との接続部分、および、ハウジング51の下側面と右側面との接続部分は、その上側面と左側面との接続部分、および、その下側面と左側面との接続部分に比べて、丸くなっている(換言すれば、面取りにおけるRが大きい)。したがって、右コントローラ4が本体装置2に装着された場合(図1参照)には、一体型装置となった情報処理システム1の右側が丸みを帯びた形状となるので、ユーザにとって持ちやすい形状となる。   Further, as shown in FIG. 5, the main surface of the housing 51 has a shape in which the right corner portion is more rounded than the left corner portion. That is, the connecting portion between the upper side surface and the right side surface of the housing 51 and the connecting portion between the lower side surface and the right side surface of the housing 51 are the connecting portion between the upper side surface and the left side surface, and the lower side surface and the left side surface. It is rounded (in other words, R in chamfering is large) as compared with the connecting portion with. Therefore, when the right controller 4 is attached to the main body device 2 (see FIG. 1), the right side of the information processing system 1 which is an integrated device has a rounded shape, which is easy for the user to hold. Become.

右コントローラ4は、左コントローラ3と同様、方向入力部としてアナログスティック52を備える。本実施形態においては、アナログスティック52は、左コントローラ3のアナログスティック32と同じ構成である。また、右コントローラ4は、左コントローラ3と同様、4つの操作ボタン53〜56(具体的には、Aボタン53、Bボタン54、Xボタン55、および、Yボタン56)を備える。本実施形態においては、これら4つの操作ボタン53〜56は、左コントローラ3の4つの操作ボタン33〜36と同じ機構である。図5に示すように、これらアナログスティック52および各操作ボタン53〜56は、ハウジング51の主面に設けられる。なお、本実施形態においては、右コントローラ4の主面に設けられる操作ボタンを4つとするが、操作ボタンの数は任意である。   Like the left controller 3, the right controller 4 includes an analog stick 52 as a direction input unit. In this embodiment, the analog stick 52 has the same configuration as the analog stick 32 of the left controller 3. Further, the right controller 4 includes four operation buttons 53 to 56 (specifically, the A button 53, the B button 54, the X button 55, and the Y button 56) like the left controller 3. In the present embodiment, these four operation buttons 53 to 56 have the same mechanism as the four operation buttons 33 to 36 of the left controller 3. As shown in FIG. 5, the analog stick 52 and the operation buttons 53 to 56 are provided on the main surface of the housing 51. In this embodiment, four operation buttons are provided on the main surface of the right controller 4, but the number of operation buttons is arbitrary.

ここで、本実施形態においては、右コントローラ4における2種類の操作部(アナログスティックおよび操作ボタン)の位置関係は、左コントローラ3におけるこれら2種類の操作部の位置関係とは反対になっている。すなわち、右コントローラ4においては、アナログスティック52は各操作ボタン53〜56の上方に配置されるのに対して、左コントローラ3においては、アナログスティック32は各操作ボタン33〜36の下方に配置される。このような配置によって、左コントローラ3および右コントローラ4を本体装置2から外して使用する場合に似たような操作感覚で使用することができる。   Here, in the present embodiment, the positional relationship between the two types of operating parts (analog stick and operating button) in the right controller 4 is opposite to the positional relationship between these two types of operating parts in the left controller 3. .. That is, in the right controller 4, the analog stick 52 is arranged above each operation button 53 to 56, whereas in the left controller 3, the analog stick 32 is arranged below each operation button 33 to 36. It With such an arrangement, the left controller 3 and the right controller 4 can be used with an operation feeling similar to that when the left controller 3 and the right controller 4 are detached from the main body device 2 and used.

また、右コントローラ4は、+(プラス)ボタン57を備える。図5に示すように、+ボタン57は、ハウジング51の主面に設けられ、より具体的には、主面の左上領域に設けられる。+ボタン57は、他の操作ボタン53〜56と同様、本体装置2で実行される各種プログラム(例えば、OSプログラムやアプリケーションプログラム)に応じた指示を行うために用いられる。+ボタン57は、例えば、ゲームアプリケーションにおいてスタートボタン(例えば、ゲーム開始の指示に用いられるボタン)として用いられる。   The right controller 4 also includes a + (plus) button 57. As shown in FIG. 5, the + button 57 is provided on the main surface of the housing 51, and more specifically, is provided on the upper left area of the main surface. Like the other operation buttons 53 to 56, the + button 57 is used to give an instruction according to various programs (for example, an OS program or an application program) executed by the main body device 2. The + button 57 is used, for example, as a start button (for example, a button used for instructing a game start) in a game application.

右コントローラ4は、ホームボタン58を備える。図5に示すように、ホームボタン58は、ハウジング51の主面に設けられ、より具体的には、主面の左下領域に設けられる。ホームボタン58は、本体装置2のディスプレイ12に所定のメニュー画面を表示させるためのボタンである。メニュー画面は、例えば、本体装置2において実行可能な1以上のアプリケーションのうちからユーザが指定したアプリケーションを起動することが可能な画面である。メニュー画面は、例えば、本体装置2の起動時に表示されてもよい。本実施形態においては、本体装置2においてアプリケーションが実行されている状態(すなわち、当該アプリケーションの画像がディスプレイ12に表示されている状態)において、ホームボタン58が押下されると、所定の操作画面がディスプレイ12に表示されてもよい(このとき、操作画面に代えてメニュー画面が表示されてもよい)。なお、操作画面は、例えば、アプリケーションを終了してメニュー画面をディスプレイ12に表示させる指示、および、アプリケーションを再開する指示等を行うことが可能な画面である。   The right controller 4 includes a home button 58. As shown in FIG. 5, the home button 58 is provided on the main surface of the housing 51, and more specifically, is provided on the lower left region of the main surface. The home button 58 is a button for displaying a predetermined menu screen on the display 12 of the main body device 2. The menu screen is, for example, a screen on which an application designated by the user can be started from one or more applications that can be executed on the main body device 2. The menu screen may be displayed when the main body device 2 is started, for example. In the present embodiment, when the home button 58 is pressed while the application is being executed on the main body device 2 (that is, the image of the application is displayed on the display 12), a predetermined operation screen is displayed. It may be displayed on the display 12 (at this time, a menu screen may be displayed instead of the operation screen). The operation screen is, for example, a screen on which an instruction to terminate the application and display a menu screen on the display 12 and an instruction to restart the application can be performed.

右コントローラ4の主面に設けられる各操作部(具体的には、アナログスティック52および上記各ボタン53〜58)は、右コントローラ4が本体装置2に装着される場合、情報処理システム1を把持するユーザの例えば右手の親指によって操作される。また、右コントローラ4が本体装置2から外された状態において両手で横向きに把持されて使用される場合、上記各操作部は、右コントローラ4を把持するユーザの例えば左右の手の親指で操作される。具体的には、この場合、アナログスティック52はユーザの左手の親指で操作され、各操作ボタン53〜56はユーザの右手の親指で操作される。   Each operation unit (specifically, the analog stick 52 and each of the buttons 53 to 58) provided on the main surface of the right controller 4 holds the information processing system 1 when the right controller 4 is attached to the main body device 2. It is operated by, for example, the thumb of the user's right hand. Further, when the right controller 4 is used by being laterally gripped with both hands in a state where the right controller 4 is detached from the main body device 2, each of the operation parts is operated by, for example, the thumb of the user's right and left hands holding the right controller 4. It Specifically, in this case, the analog stick 52 is operated by the thumb of the user's left hand, and the operation buttons 53 to 56 are operated by the thumb of the user's right hand.

右コントローラ4は、第1Rボタン60を備える。また、右コントローラ4は、ZRボタン61を備える。図5に示すように、第1Rボタン60は、ハウジング51の側面のうちの右上部分に設けられる。また、ZRボタン61は、ハウジング51の側面から裏面にかけての右上部分(厳密には、ハウジング51を表側から見たときの右上部分)に設けられる。つまり、ZRボタン61は、第1Rボタン60の後側(図1に示すz軸正方向側)に設けられる。本実施形態においては、ハウジング51の右上部分が丸みを帯びた形状であるので、第1Rボタン60およびZRボタン61は、ハウジング51の当該右上部分の丸みに応じた丸みを帯びた形状を有する。右コントローラ4が本体装置2に装着される場合、第1Rボタン60およびZRボタン61は、情報処理システム1における右上部分に配置されることになる。   The right controller 4 includes a first R button 60. The right controller 4 also includes a ZR button 61. As shown in FIG. 5, the first R button 60 is provided on the upper right portion of the side surface of the housing 51. The ZR button 61 is provided in the upper right portion from the side surface to the back surface of the housing 51 (strictly speaking, the upper right portion when the housing 51 is viewed from the front side). That is, the ZR button 61 is provided on the rear side of the first R button 60 (the z-axis positive direction side shown in FIG. 1). In the present embodiment, since the upper right portion of the housing 51 has a rounded shape, the first R button 60 and the ZR button 61 have a rounded shape corresponding to the roundness of the upper right portion of the housing 51. When the right controller 4 is attached to the main body device 2, the first R button 60 and the ZR button 61 are arranged in the upper right portion of the information processing system 1.

右コントローラ4は、左コントローラ3と同様のスライダ機構を備えている。すなわち、右コントローラ4は、上述のスライダ62を備えている。図5に示すように、スライダ62は、ハウジング51の左側面において、上下方向に延びるように設けられる。スライダ62は、本体装置2の右レール部材19(より具体的には、右レール部材19の溝)と係合可能な形状を有している。したがって、右レール部材19に係合したスライダ62は、スライド方向(換言すれば右レール部材19が延びる方向)に垂直な向きに関しては固定されて外れないようになっている。   The right controller 4 has a slider mechanism similar to that of the left controller 3. That is, the right controller 4 includes the slider 62 described above. As shown in FIG. 5, the slider 62 is provided on the left side surface of the housing 51 so as to extend in the vertical direction. The slider 62 has a shape capable of engaging with the right rail member 19 (more specifically, the groove of the right rail member 19) of the main body device 2. Therefore, the slider 62 engaged with the right rail member 19 is fixed and does not come off in the direction perpendicular to the sliding direction (in other words, the direction in which the right rail member 19 extends).

また、右コントローラ4は、右コントローラ4が本体装置2と有線通信を行うための端子64を備える。端子64は、右コントローラ4が本体装置2に装着された場合に、本体装置2の右側端子21(図3)と接触する位置に設けられる。端子64の具体的な位置は任意である。本実施形態においては、図5に示すように、端子64は、スライダ62の装着面に設けられる。本実施形態においては、端子64は、スライダ62の装着面における下側の端部付近に設けられる。   The right controller 4 also includes a terminal 64 for the right controller 4 to perform wired communication with the main body device 2. The terminal 64 is provided at a position in contact with the right terminal 21 (FIG. 3) of the main body device 2 when the right controller 4 is attached to the main body device 2. The specific position of the terminal 64 is arbitrary. In the present embodiment, as shown in FIG. 5, the terminal 64 is provided on the mounting surface of the slider 62. In the present embodiment, the terminal 64 is provided near the lower end of the mounting surface of the slider 62.

なお、上記左コントローラ3および右コントローラ4において、ハウジング31または51に設けられる各構成要素(具体的には、スライダ、スティック、およびボタン等)の形状、数、および、設置位置は任意である。例えば、他の実施形態においては、左コントローラ3および右コントローラ4は、アナログスティックとは別の種類の方向入力部を備えていてもよい。また、スライダ40または62は、本体装置2に設けられるレール部材15または19の位置に応じた位置に配置されてよく、例えば、ハウジング31または51の主面または裏面に配置されてもよい。また、他の実施形態においては、左コントローラ3および右コントローラ4は、上記各構成要素のうちいくつかを備えていない構成であってもよい。   In the left controller 3 and the right controller 4, the shape, number, and installation position of each component (specifically, slider, stick, button, etc.) provided in the housing 31 or 51 are arbitrary. For example, in other embodiments, the left controller 3 and the right controller 4 may include a direction input unit different from the analog stick. Further, the slider 40 or 62 may be arranged at a position corresponding to the position of the rail member 15 or 19 provided in the main body device 2, for example, may be arranged on the main surface or the back surface of the housing 31 or 51. Further, in another embodiment, the left controller 3 and the right controller 4 may have a configuration that does not include some of the above components.

図6は、本実施形態における情報処理システムの他の例の全体構成を示す図である。図6に示すように、一例として、クレードル5は、左コントローラ3および右コントローラ4を本体装置2から取り外した状態で本体装置2のみを載置することが可能である。また、さらに他の例として、クレードル5は、左コントローラ3および右コントローラ4が本体装置2に装着された一体型装置を載置することも可能である。また、クレードル5は、ディスプレイ12とは別体の外部表示装置の一例である据置型モニタ6(例えば、据置型テレビ)と通信可能である(有線通信であってもよいし、無線通信であってもよい)。詳細は後述するが、上記一体型装置または本体装置2単体をクレードル5に載置した場合、情報処理システムは、本体装置2が取得または生成した画像を据置型モニタ6に表示することができる。また、本実施形態においては、クレードル5は、載置された上記一体型装置または本体装置2単体を充電する機能を有する。また、クレードル5は、ハブ装置(具体的には、USBハブ)の機能を有する。   FIG. 6 is a diagram showing the overall configuration of another example of the information processing system in the present embodiment. As shown in FIG. 6, as an example, the cradle 5 can mount only the main body device 2 with the left controller 3 and the right controller 4 removed from the main body device 2. As still another example, the cradle 5 can also mount an integrated device in which the left controller 3 and the right controller 4 are attached to the main body device 2. The cradle 5 can communicate with a stationary monitor 6 (for example, a stationary TV) that is an example of an external display device that is separate from the display 12 (may be wired communication or wireless communication. May be). Although details will be described later, when the integrated device or the main body device 2 alone is placed on the cradle 5, the information processing system can display the image acquired or generated by the main body device 2 on the stationary monitor 6. Further, in the present embodiment, the cradle 5 has a function of charging the mounted integrated device or the main body device 2 alone. In addition, the cradle 5 has a function of a hub device (specifically, a USB hub).

図7は、クレードル5の一例の外観構成を示す図である。クレードル5は、上記一体型装置または本体装置2のみを着脱可能に載置する(装着するとも言える)ことが可能なハウジングを有する。本実施形態においては、図7に示すように、ハウジングは、溝71aが形成される第1支持部71と、略平面状の第2支持部72とを有する。   FIG. 7 is a diagram showing an external configuration of an example of the cradle 5. The cradle 5 has a housing in which only the integrated device or the main body device 2 can be removably mounted (also referred to as mounting). In the present embodiment, as shown in FIG. 7, the housing has a first support portion 71 in which a groove 71a is formed and a substantially flat second support portion 72.

図7に示すように、第1支持部71に形成される溝71aは、上記一体型装置の下側部分の形状に応じた形状を有する。具体的には、溝71aは、上記一体型装置の下側部分を挿入可能な形状であり、より具体的には、上記本体装置2の下側部分と略一致する形状である。したがって、上記一体型装置の下側部分を溝71aに挿入することによって、上記一体型装置をクレードル5に載置することができる。また、第2支持部72は、その下側部分が溝71aに挿入された上記一体型装置の表面(すなわち、ディスプレイ12が設けられる面)を支持する。この第2支持部72によって、クレードル5は、上記一体型装置をより安定的に支持することができる。なお、図7に示すハウジングの形状は一例であり、他の実施形態においては、クレードル5のハウジングは、上記本体装置2を載置することが可能な任意の形状であってよい。   As shown in FIG. 7, the groove 71a formed in the first support portion 71 has a shape corresponding to the shape of the lower portion of the integrated device. Specifically, the groove 71a has a shape into which the lower part of the integrated device can be inserted, and more specifically, the groove 71a has a shape that substantially matches the lower part of the main body device 2. Therefore, the integrated device can be placed on the cradle 5 by inserting the lower portion of the integrated device into the groove 71a. Further, the second support portion 72 supports the lower surface of the surface of the integrated device (that is, the surface on which the display 12 is provided) inserted into the groove 71a. The second supporting portion 72 allows the cradle 5 to more stably support the integrated device. Note that the shape of the housing shown in FIG. 7 is an example, and in other embodiments, the housing of the cradle 5 may have any shape capable of mounting the main body device 2.

図7に示すように、また、クレードル5は、クレードル5が上記一体型装置と通信を行うための本体端子73を備える。図7に示すように、本体端子73は、第1支持部71に形成される溝71aの底面に設けられる。より具体的には、本体端子73は、上記一体型装置がクレードル5に装着される場合に、本体装置2の下側端子27が接触する位置に設けられる。本実施形態においては、本体端子73は、USBコネクタ(より具体的には、オス側コネクタ)である。なお、本実施形態においては、上記一体型装置を表向きにしても裏向きにしてもクレードル5に装着することができる。したがって、本体装置2の下側端子27およびクレードル5の本体端子73は、奥行方向(すなわち、図1に示すz軸方向)に関して対称な形状を有し、当該奥行方向に関して2種類の向きのうちどちらの向きで接続されても通信可能である。   As shown in FIG. 7, the cradle 5 also includes a body terminal 73 for the cradle 5 to communicate with the integrated device. As shown in FIG. 7, the main body terminal 73 is provided on the bottom surface of the groove 71 a formed in the first support portion 71. More specifically, the main body terminal 73 is provided at a position where the lower terminal 27 of the main body device 2 comes into contact when the integrated device is mounted on the cradle 5. In the present embodiment, the main body terminal 73 is a USB connector (more specifically, a male side connector). In addition, in the present embodiment, the integrated device can be mounted on the cradle 5 regardless of whether the integrated device is face up or face down. Therefore, the lower terminal 27 of the main body device 2 and the main body terminal 73 of the cradle 5 have a symmetrical shape with respect to the depth direction (that is, the z-axis direction shown in FIG. 1), and among the two types of orientations with respect to the depth direction. Communication is possible regardless of the connection direction.

図7では図示しないが、クレードル5は、ハウジングの背面に端子(本実施形態においては、複数の端子を有する。具体的には、クレードル5は、図10に示すモニタ用端子132、電源端子134、および拡張用端子137)を有する。これらの端子の詳細については後述する。   Although not shown in FIG. 7, the cradle 5 has terminals (in the present embodiment, a plurality of terminals on the rear surface of the housing. Specifically, the cradle 5 includes the monitor terminal 132 and the power supply terminal 134 shown in FIG. , And an expansion terminal 137). Details of these terminals will be described later.

以上に説明した、クレードル5に設けられる各構成要素(具体的には、ハウジング、端子、ボタン等)の形状、数、および、設置位置は任意である。例えば、他の実施形態においては、ハウジングは、左コントローラ3および右コントローラ4が本体装置2に装着された一体型装置や本体装置2単体を支持可能な他の形状を有していてもよい。また、ハウジングに設けられる端子のいくつかは、ハウジングの前側の面に設けられてもよい。また、他の実施形態においては、クレードル5は、上記各構成要素のうちいくつかを備えていない構成であってもよい。   The shape, the number, and the installation position of each component (specifically, the housing, the terminal, the button, etc.) provided in the cradle 5 described above are arbitrary. For example, in another embodiment, the housing may have another shape capable of supporting the integrated device in which the left controller 3 and the right controller 4 are attached to the main body device 2 or the main body device 2 alone. Also, some of the terminals provided on the housing may be provided on the front surface of the housing. Further, in another embodiment, the cradle 5 may be configured without some of the above-mentioned components.

図8は、本体装置2の内部構成の一例を示すブロック図である。本体装置2は、図3に示す構成の他、図8に示す各構成要素81〜98を備える。これらの構成要素81〜98のいくつかは、電子部品として電子回路基板上に実装されてハウジング11内に収納されてもよい。   FIG. 8 is a block diagram showing an example of the internal configuration of the main body device 2. The main body device 2 includes the constituent elements 81 to 98 shown in FIG. 8 in addition to the configuration shown in FIG. Some of these components 81 to 98 may be mounted as electronic components on an electronic circuit board and housed in the housing 11.

本体装置2は、CPU(Central Processing Unit)81を備える。CPU81は、本体装置2において実行される各種の情報処理を実行する情報処理部である。CPU81は、記憶部(具体的には、フラッシュメモリ84等の内部記憶媒体、あるいは、各スロット23および24に装着される外部記憶媒体等)に記憶される情報処理プログラム(例えば、ゲームプログラム)を実行することによって、各種の情報処理を実行する。   The main body device 2 includes a CPU (Central Processing Unit) 81. The CPU 81 is an information processing unit that executes various types of information processing executed in the main body device 2. The CPU 81 stores an information processing program (for example, a game program) stored in a storage unit (specifically, an internal storage medium such as the flash memory 84 or an external storage medium mounted in each of the slots 23 and 24). By executing, various information processing is executed.

本体装置2は、自身に内蔵される内部記憶媒体の一例として、フラッシュメモリ84およびDRAM(Dynamic Random Access Memory)85を備える。フラッシュメモリ84およびDRAM85は、CPU81に接続される。フラッシュメモリ84は、主に、本体装置2に保存される各種のデータ(プログラムであってもよい)を記憶するために用いられるメモリである。DRAM85は、情報処理において用いられる各種のデータを一時的に記憶するために用いられるメモリである。   The main body device 2 includes a flash memory 84 and a DRAM (Dynamic Random Access Memory) 85 as an example of an internal storage medium incorporated therein. The flash memory 84 and the DRAM 85 are connected to the CPU 81. The flash memory 84 is a memory mainly used for storing various data (may be a program) stored in the main body device 2. The DRAM 85 is a memory used to temporarily store various data used in information processing.

本体装置2は、第1スロットインターフェース(以下、「I/F」と略記する。)91を備える。また、本体装置2は、第2スロットI/F92を備える。第1スロットI/F91および第2スロットI/F92は、CPU81に接続される。第1スロットI/F91は、第1スロット23に接続され、第1スロット23に装着された第1の種類の記憶媒体(例えば、SDカード)に対するデータの読み出しおよび書き込みを、CPU81の指示に応じて行う。第2スロットI/F92は、第2スロット24に接続され、第2スロット24に装着された第2の種類の記憶媒体(例えば、専用メモリカード)に対するデータの読み出しおよび書き込みを、CPU81の指示に応じて行う。   The main body device 2 includes a first slot interface (hereinafter abbreviated as “I / F”) 91. The main body device 2 also includes a second slot I / F 92. The first slot I / F 91 and the second slot I / F 92 are connected to the CPU 81. The first slot I / F 91 is connected to the first slot 23, and reads and writes data to and from a first type storage medium (for example, an SD card) mounted in the first slot 23 according to an instruction from the CPU 81. Do it. The second slot I / F 92 is connected to the second slot 24, and instructs the CPU 81 to read and write data to and from a second type storage medium (for example, a dedicated memory card) mounted in the second slot 24. Do accordingly.

CPU81は、フラッシュメモリ84およびDRAM85、ならびに上記各記憶媒体との間でデータを適宜読み出したり書き込んだりして、上記の情報処理を実行する。   The CPU 81 executes the above information processing by appropriately reading and writing data with the flash memory 84, the DRAM 85, and the respective storage media.

本体装置2は、ネットワーク通信部82を備える。ネットワーク通信部82は、CPU81に接続される。ネットワーク通信部82は、ネットワークを介して外部の装置と通信(具体的には、無線通信)を行う。本実施形態においては、ネットワーク通信部82は、第1の通信態様としてWi−Fiの規格に準拠した方式により、無線LANに接続して外部装置と通信を行う。また、ネットワーク通信部82は、第2の通信態様として所定の通信方式(例えば、独自プロトコルによる通信や、赤外線通信)により、同種の他の本体装置2との間で無線通信を行う。なお、上記第2の通信態様による無線通信は、閉ざされたローカルネットワークエリア内に配置された他の本体装置2との間で無線通信可能であり、複数の本体装置2の間で直接通信することによってデータが送受信される、いわゆる「ローカル通信」を可能とする機能を実現する。   The main body device 2 includes a network communication unit 82. The network communication unit 82 is connected to the CPU 81. The network communication unit 82 communicates with an external device (specifically, wireless communication) via a network. In the present embodiment, the network communication unit 82 connects to a wireless LAN and communicates with an external device by a method compliant with the Wi-Fi standard as a first communication mode. Further, the network communication unit 82 performs wireless communication with another main body device 2 of the same type by a predetermined communication method (for example, communication by a unique protocol or infrared communication) as a second communication mode. In the wireless communication according to the second communication mode described above, wireless communication is possible with another main body apparatus 2 arranged in the closed local network area, and direct communication is performed between a plurality of main body apparatuses 2. By doing so, a function that enables so-called "local communication" in which data is transmitted and received is realized.

本体装置2は、コントローラ通信部83を備える。コントローラ通信部83は、CPU81に接続される。コントローラ通信部83は、左コントローラ3および/または右コントローラ4と無線通信を行う。本体装置2と左コントローラ3および右コントローラ4との通信方式は任意であるが、本実施形態においては、コントローラ通信部83は、左コントローラ3との間および右コントローラ4との間で、Bluetooth(登録商標)の規格に従った通信を行う。   The main body device 2 includes a controller communication unit 83. The controller communication unit 83 is connected to the CPU 81. The controller communication unit 83 wirelessly communicates with the left controller 3 and / or the right controller 4. The communication method between the main body device 2 and the left controller 3 and the right controller 4 is arbitrary, but in the present embodiment, the controller communication unit 83 communicates with the left controller 3 and the right controller 4 via Bluetooth ( Communication is performed according to the registered trademark) standard.

CPU81は、上述の左側端子17、右側端子21、および、下側端子27に接続される。CPU81は、左コントローラ3と有線通信を行う場合、左側端子17を介して左コントローラ3へデータを送信するとともに、左側端子17を介して左コントローラ3から操作データを受信する。また、CPU81は、右コントローラ4と有線通信を行う場合、右側端子21を介して右コントローラ4へデータを送信するとともに、右側端子21を介して右コントローラ4から操作データを受信する。また、CPU81は、クレードル5と通信を行う場合、下側端子27を介してクレードル5へデータを送信する。このように、本実施形態においては、本体装置2は、左コントローラ3および右コントローラ4との間で、それぞれ有線通信と無線通信との両方を行うことができる。また、左コントローラ3および右コントローラ4が本体装置2に装着された一体型装置または本体装置2単体がクレードル5に装着された場合、本体装置2は、クレードル5を介してデータ(例えば、画像データや音声データ)を据置型モニタ6に出力することができる。   The CPU 81 is connected to the left side terminal 17, the right side terminal 21, and the lower side terminal 27 described above. When performing wired communication with the left controller 3, the CPU 81 transmits data to the left controller 3 via the left terminal 17 and receives operation data from the left controller 3 via the left terminal 17. Further, when performing wired communication with the right controller 4, the CPU 81 transmits data to the right controller 4 via the right terminal 21 and receives operation data from the right controller 4 via the right terminal 21. Further, the CPU 81 transmits data to the cradle 5 via the lower terminal 27 when communicating with the cradle 5. Thus, in the present embodiment, the main body device 2 can perform both wired communication and wireless communication with the left controller 3 and the right controller 4, respectively. Further, when the integrated device in which the left controller 3 and the right controller 4 are attached to the main body device 2 or the main body device 2 alone is attached to the cradle 5, the main body device 2 transmits data (for example, image data) via the cradle 5. Voice data) can be output to the stationary monitor 6.

ここで、本体装置2は、複数の左コントローラ3と同時に(換言すれば、並行して)通信を行うことができる。また、本体装置2は、複数の右コントローラ4と同時に(換言すれば、並行して)通信を行うことができる。したがって、ユーザは、複数の左コントローラ3および複数の右コントローラ4を用いて本体装置2に対する入力を行うことができる。   Here, the main body device 2 can communicate with the plurality of left controllers 3 at the same time (in other words, in parallel). Further, the main body device 2 can communicate with the plurality of right controllers 4 at the same time (in other words, in parallel). Therefore, the user can perform input to the main body device 2 using the plurality of left controllers 3 and the plurality of right controllers 4.

本体装置2は、タッチパネル13の制御を行う回路であるタッチパネルコントローラ86を備える。タッチパネルコントローラ86は、タッチパネル13とCPU81との間に接続される。タッチパネルコントローラ86は、タッチパネル13からの信号に基づいて、例えばタッチ入力が行われた位置を示すデータを生成して、CPU81へ出力する。   The main body device 2 includes a touch panel controller 86 that is a circuit that controls the touch panel 13. The touch panel controller 86 is connected between the touch panel 13 and the CPU 81. The touch panel controller 86 generates, for example, data indicating a position where a touch input is made, based on the signal from the touch panel 13, and outputs the data to the CPU 81.

また、ディスプレイ12は、CPU81に接続される。CPU81は、(例えば、上記の情報処理の実行によって)生成した画像および/または外部から取得した画像をディスプレイ12に表示する。   Further, the display 12 is connected to the CPU 81. The CPU 81 displays on the display 12 the image generated (for example, by executing the above information processing) and / or the image acquired from the outside.

本体装置2は、コーデック回路87およびスピーカ(具体的には、左スピーカおよび右スピーカ)88を備える。コーデック回路87は、スピーカ88および音声入出力端子25に接続されるとともに、CPU81に接続される。コーデック回路87は、スピーカ88および音声入出力端子25に対する音声データの入出力を制御する回路である。すなわち、コーデック回路87は、CPU81から音声データを受け取った場合、当該音声データに対してD/A変換を行って得られる音声信号をスピーカ88または音声入出力端子25へ出力する。これによって、スピーカ88あるいは音声入出力端子25に接続された音声出力部(例えば、イヤホン)から音が出力される。また、コーデック回路87は、音声入出力端子25から音声信号を受け取った場合、音声信号に対してA/D変換を行い、所定の形式の音声データをCPU81へ出力する。また、音量ボタン26は、CPU81に接続される。CPU81は、音量ボタン26に対する入力に基づいて、スピーカ88または上記音声出力部から出力される音量を制御する。   The main body device 2 includes a codec circuit 87 and a speaker (specifically, a left speaker and a right speaker) 88. The codec circuit 87 is connected to the speaker 88 and the audio input / output terminal 25, and is also connected to the CPU 81. The codec circuit 87 is a circuit that controls the input / output of audio data with respect to the speaker 88 and the audio input / output terminal 25. That is, when the audio data is received from the CPU 81, the codec circuit 87 outputs an audio signal obtained by D / A converting the audio data to the speaker 88 or the audio input / output terminal 25. As a result, sound is output from the audio output unit (eg, earphone) connected to the speaker 88 or the audio input / output terminal 25. Further, when receiving the audio signal from the audio input / output terminal 25, the codec circuit 87 performs A / D conversion on the audio signal and outputs audio data in a predetermined format to the CPU 81. Further, the volume button 26 is connected to the CPU 81. The CPU 81 controls the volume output from the speaker 88 or the audio output unit based on the input to the volume button 26.

本体装置2は、電力制御部97およびバッテリ98を備える。電力制御部97は、バッテリ98およびCPU81に接続される。また、図示しないが、電力制御部97は、本体装置2の各部(具体的には、バッテリ98の電力の給電を受ける各部、左側端子17、および右側端子21)に接続される。電力制御部97は、CPU81からの指令に基づいて、バッテリ98から上記各部への電力供給を制御する。また、電力制御部97は、電源ボタン28に接続される。電力制御部97は、電源ボタン28に対する入力に基づいて、上記各部への電力供給を制御する。すなわち、電力制御部97は、電源ボタン28に対して電源をオフする操作が行われた場合、上記各部の全部または一部への電力供給を停止し、電源ボタン28に対して電源をオンする操作が行われた場合、電力制御部97は、上記各部の全部または一部への電力供給を開始する。また、電力制御部97は、電源ボタン28に対する入力を示す情報(具体的には、電源ボタン28が押下されているか否かを示す情報)をCPU81へ出力する。   The main body device 2 includes a power control unit 97 and a battery 98. The power control unit 97 is connected to the battery 98 and the CPU 81. Although not shown, the power control unit 97 is connected to each unit of the main body device 2 (specifically, each unit that receives power supply from the battery 98, the left terminal 17, and the right terminal 21). The power control unit 97 controls the power supply from the battery 98 to each of the above units based on a command from the CPU 81. The power control unit 97 is also connected to the power button 28. The power control unit 97 controls power supply to each of the above units based on the input to the power button 28. That is, when the power-off operation is performed on the power button 28, the power control unit 97 stops the power supply to all or part of the above-described units and turns on the power button 28. When the operation is performed, the power control unit 97 starts supplying power to all or some of the above units. The power control unit 97 also outputs information indicating an input to the power button 28 (specifically, information indicating whether or not the power button 28 is pressed) to the CPU 81.

また、バッテリ98は、下側端子27に接続される。外部の充電装置(例えば、クレードル5)が下側端子27に接続され、下側端子27を介して本体装置2に電力が供給される場合、供給された電力がバッテリ98に充電される。   Further, the battery 98 is connected to the lower terminal 27. When an external charging device (for example, the cradle 5) is connected to the lower terminal 27 and electric power is supplied to the main body device 2 via the lower terminal 27, the supplied electric power charges the battery 98.

また、本体装置2は、本体装置2内部の熱を放熱するための冷却ファン96を備える。冷却ファン96が動作することによって、ハウジング11の外部の空気が吸気孔11dから導入されるとともに、ハウジング11内部の空気が排気孔11cから放出されることで、ハウジング11内部の熱が放出される。冷却ファン96は、CPU81に接続され、冷却ファン96の動作はCPU81によって制御される。また、本体装置2は、本体装置2内の温度を検出する温度センサ95を備える。温度センサ95は、CPU81に接続され、温度センサ95の検出結果がCPU81へ出力される。CPU81は、温度センサ95の検出結果に基づいて、冷却ファン96の動作を制御する。   Further, the main body device 2 includes a cooling fan 96 for radiating heat inside the main body device 2. By operating the cooling fan 96, the air outside the housing 11 is introduced through the intake holes 11d, and the air inside the housing 11 is discharged through the exhaust holes 11c, so that the heat inside the housing 11 is discharged. .. The cooling fan 96 is connected to the CPU 81, and the operation of the cooling fan 96 is controlled by the CPU 81. Further, the main body device 2 includes a temperature sensor 95 that detects the temperature inside the main body device 2. The temperature sensor 95 is connected to the CPU 81, and the detection result of the temperature sensor 95 is output to the CPU 81. The CPU 81 controls the operation of the cooling fan 96 based on the detection result of the temperature sensor 95.

図9は、情報処理システム1の内部構成の一例を示すブロック図である。なお、情報処理システム1のうちの本体装置2に関する内部構成の詳細については、図8で示しているため図9では省略している。   FIG. 9 is a block diagram showing an example of the internal configuration of the information processing system 1. The details of the internal configuration of the main body device 2 of the information processing system 1 are shown in FIG. 8 and therefore omitted in FIG.

左コントローラ3は、本体装置2との間で通信を行う通信制御部101を備える。図9に示すように、通信制御部101は、端子42を含む各構成要素に接続される。本実施形態においては、通信制御部101は、端子42を介した有線通信と、端子42を介さない無線通信との両方で本体装置2と通信を行うことが可能である。通信制御部101は、左コントローラ3が本体装置2に対して行う通信方法を制御する。すなわち、左コントローラ3が本体装置2に装着されている場合、通信制御部101は、端子42を介して本体装置2と通信を行う。また、左コントローラ3が本体装置2から外されている場合、通信制御部101は、本体装置2(具体的には、コントローラ通信部83)との間で無線通信を行う。コントローラ通信部83と通信制御部101との間の無線通信は、例えばBluetooth(登録商標)の規格に従って行われる。   The left controller 3 includes a communication control unit 101 that communicates with the main body device 2. As shown in FIG. 9, the communication control unit 101 is connected to each component including the terminal 42. In the present embodiment, the communication control unit 101 can communicate with the main device 2 by both wired communication via the terminal 42 and wireless communication without the terminal 42. The communication control unit 101 controls a communication method performed by the left controller 3 with respect to the main body device 2. That is, when the left controller 3 is attached to the main body device 2, the communication control unit 101 communicates with the main body device 2 via the terminal 42. When the left controller 3 is removed from the main body device 2, the communication control unit 101 performs wireless communication with the main body device 2 (specifically, the controller communication unit 83). The wireless communication between the controller communication unit 83 and the communication control unit 101 is performed according to, for example, the Bluetooth (registered trademark) standard.

また、左コントローラ3は、例えばフラッシュメモリ等のメモリ102を備える。通信制御部101は、例えばマイコン(マイクロプロセッサとも言う)で構成され、メモリ102に記憶されるファームウェアを実行することによって各種の処理を実行する。   The left controller 3 also includes a memory 102 such as a flash memory. The communication control unit 101 is composed of, for example, a microcomputer (also called a microprocessor), and executes various processes by executing firmware stored in the memory 102.

左コントローラ3は、各ボタン103(具体的には、ボタン33〜39,43,および44)を備える。また、左コントローラ3は、アナログスティック(図9では「スティック」と記載する)32を備える。各ボタン103およびアナログスティック32は、自身に対して行われた操作に関する情報を、適宜のタイミングで繰り返し通信制御部101へ出力する。   The left controller 3 includes each button 103 (specifically, the buttons 33 to 39, 43, and 44). The left controller 3 also includes an analog stick (referred to as “stick” in FIG. 9) 32. Each of the buttons 103 and the analog stick 32 repeatedly outputs information regarding an operation performed on itself to the communication control unit 101 at appropriate timing.

左コントローラ3は、加速度センサ104を備える。本実施形態においては、加速度センサ104は、所定の3軸(例えば、図11に示すXYZ軸)方向に沿った直線加速度の大きさを検出する。なお、加速度センサ104は、1軸方向あるいは2軸方向の加速度を検出するものであってもよい。また、左コントローラ3は、角速度センサ105を備える。本実施形態においては、角速度センサ105は、所定の3軸(例えば、図11に示すXYZ軸)回りの角速度を検出する。なお、角速度センサ105は、1軸回りあるいは2軸回りの角速度を検出するものであってもよい。加速度センサ104および角速度センサ105は、それぞれ通信制御部101に接続される。そして、加速度センサ104および角速度センサ105の検出結果は、適宜のタイミングで繰り返し通信制御部101へ出力される。   The left controller 3 includes an acceleration sensor 104. In the present embodiment, the acceleration sensor 104 detects the magnitude of linear acceleration along the directions of predetermined three axes (for example, the XYZ axes shown in FIG. 11). The acceleration sensor 104 may detect acceleration in the uniaxial direction or the biaxial direction. The left controller 3 also includes an angular velocity sensor 105. In this embodiment, the angular velocity sensor 105 detects angular velocities around predetermined three axes (for example, the XYZ axes shown in FIG. 11). The angular velocity sensor 105 may detect the angular velocity around one axis or around two axes. The acceleration sensor 104 and the angular velocity sensor 105 are connected to the communication control unit 101, respectively. Then, the detection results of the acceleration sensor 104 and the angular velocity sensor 105 are repeatedly output to the communication control unit 101 at appropriate timing.

通信制御部101は、各入力部(具体的には、各ボタン103、アナログスティック32、各センサ104および105)から、入力に関する情報(具体的には、操作に関する情報、または、センサによる検出結果)を取得する。通信制御部101は、取得した情報(または取得した情報に所定の加工を行った情報)を含む操作データを本体装置2へ送信する。なお、操作データは、所定時間に1回の割合で繰り返し送信される。なお、入力に関する情報が本体装置2へ送信される間隔は、各入力部について同じであってもよいし、同じでなくてもよい。   The communication control unit 101 uses the input units (specifically, the buttons 103, the analog stick 32, and the sensors 104 and 105) to input information (specifically, operation information or sensor detection results). ) To get. The communication control unit 101 transmits operation data including the acquired information (or information obtained by performing a predetermined process on the acquired information) to the main body device 2. The operation data is repeatedly transmitted once every predetermined time. The intervals at which the input information is transmitted to main device 2 may or may not be the same for each input unit.

上記操作データが本体装置2へ送信されることによって、本体装置2は、左コントローラ3に対して行われた入力を得ることができる。すなわち、本体装置2は、各ボタン103およびアナログスティック32に対する操作を、操作データに基づいて判別することができる。また、本体装置2は、左コントローラ3の動きおよび/または姿勢に関する情報を、操作データ(具体的には、加速度センサ104および角速度センサ105の検出結果)に基づいて算出することができる。   By transmitting the operation data to the main body device 2, the main body device 2 can obtain the input made to the left controller 3. That is, the main body device 2 can determine the operation on each button 103 and the analog stick 32 based on the operation data. Further, the main body device 2 can calculate information regarding the movement and / or posture of the left controller 3 based on the operation data (specifically, the detection results of the acceleration sensor 104 and the angular velocity sensor 105).

左コントローラ3は、振動によってユーザに通知を行うための振動子107を備える。本実施形態においては、振動子107は、本体装置2からの指令によって制御される。すなわち、通信制御部101は、本体装置2からの上記指令を受け取ると、当該指令に従って振動子107を駆動させる。ここで、左コントローラ3は、増幅器106を備える。通信制御部101は、上記指令を受け取ると、指令に応じた制御信号を増幅器106へ出力する。増幅器106は、通信制御部101からの制御信号を増幅して、振動子107を駆動させるための駆動信号を生成して振動子107へ与える。これによって振動子107が動作する。   The left controller 3 includes a vibrator 107 for notifying the user by vibration. In the present embodiment, the vibrator 107 is controlled by a command from the main body device 2. That is, when the communication control unit 101 receives the command from the main body device 2, the communication control unit 101 drives the vibrator 107 according to the command. Here, the left controller 3 includes an amplifier 106. Upon receiving the command, the communication control unit 101 outputs a control signal according to the command to the amplifier 106. The amplifier 106 amplifies the control signal from the communication control unit 101, generates a drive signal for driving the vibrator 107, and supplies the drive signal to the vibrator 107. This causes the vibrator 107 to operate.

左コントローラ3は、電力供給部108を備える。本実施形態において、電力供給部108は、バッテリおよび電力制御回路を有する。図示しないが、電力制御回路は、バッテリに接続されるとともに、左コントローラ3の各部(具体的には、バッテリの電力の給電を受ける各部)に接続される。電力制御回路は、バッテリから上記各部への電力供給を制御する。また、バッテリは、端子42に接続される。本実施形態においては、左コントローラ3が本体装置2に装着される場合、所定の条件下で、バッテリは、端子42を介して本体装置2からの給電によって充電される。   The left controller 3 includes a power supply unit 108. In the present embodiment, the power supply unit 108 has a battery and a power control circuit. Although not shown, the power control circuit is connected to the battery as well as to each unit of the left controller 3 (specifically, each unit that receives power supply from the battery). The power control circuit controls the power supply from the battery to the above units. The battery is also connected to the terminal 42. In the present embodiment, when the left controller 3 is attached to the main body device 2, the battery is charged by power supply from the main body device 2 via the terminal 42 under a predetermined condition.

図9に示すように、右コントローラ4は、本体装置2との間で通信を行う通信制御部111を備える。また、右コントローラ4は、通信制御部111に接続されるメモリ112を備える。通信制御部111は、端子64を含む各構成要素に接続される。通信制御部111およびメモリ112は、左コントローラ3の通信制御部101およびメモリ102と同様の機能を有する。したがって、通信制御部111は、端子64を介した有線通信と、端子64を介さない無線通信(具体的には、Bluetooth(登録商標)の規格に従った通信)との両方で本体装置2と通信を行うことが可能であり、右コントローラ4が本体装置2に対して行う通信方法を制御する。   As shown in FIG. 9, the right controller 4 includes a communication control unit 111 that communicates with the main body device 2. The right controller 4 also includes a memory 112 connected to the communication control unit 111. The communication control unit 111 is connected to each component including the terminal 64. The communication control unit 111 and the memory 112 have the same functions as the communication control unit 101 and the memory 102 of the left controller 3. Therefore, the communication control unit 111 communicates with the main body device 2 by both wired communication via the terminal 64 and wireless communication without the terminal 64 (specifically, communication according to the Bluetooth (registered trademark) standard). It is possible to perform communication, and the right controller 4 controls a communication method with respect to the main body device 2.

右コントローラ4は、左コントローラ3の各入力部と同様の各入力部(具体的には、各ボタン113、アナログスティック52、加速度センサ114、および、角速度センサ115)を備える。これらの各入力部については、左コントローラ3の各入力部と同様の機能を有し、同様に動作する。   The right controller 4 includes the same input units as those of the left controller 3 (specifically, the buttons 113, the analog stick 52, the acceleration sensor 114, and the angular velocity sensor 115). Each of these input units has the same function as each input unit of the left controller 3 and operates in the same manner.

また、右コントローラ4は、振動子117および増幅器116を備える。振動子117および増幅器116は、左コントローラ3の振動子107および増幅器106と同様に動作する。すなわち、通信制御部111は、本体装置2からの指令に従って、増幅器116を用いて振動子117を動作させる。   The right controller 4 also includes a vibrator 117 and an amplifier 116. The oscillator 117 and the amplifier 116 operate similarly to the oscillator 107 and the amplifier 106 of the left controller 3. That is, the communication control unit 111 operates the vibrator 117 using the amplifier 116 according to a command from the main body device 2.

右コントローラ4は、電力供給部118を備える。電力供給部118は、左コントローラ3の電力供給部108と同様の機能を有し、同様に動作する。すなわち、電力供給部118は、バッテリから給電を受ける各部への電力供給を制御する。また、右コントローラ4が本体装置2に装着される場合、所定の条件下で、バッテリは、端子64を介して本体装置2からの給電によって充電される。   The right controller 4 includes a power supply unit 118. The power supply unit 118 has the same function as the power supply unit 108 of the left controller 3 and operates similarly. That is, the power supply unit 118 controls the power supply to each unit that receives power from the battery. When the right controller 4 is attached to the main body device 2, the battery is charged by the power supply from the main body device 2 via the terminal 64 under a predetermined condition.

右コントローラ4は、処理部121を備える。処理部121は、通信制御部111に接続されるとともに、NFC通信部122に接続される。処理部121は、本体装置2からの指令に応じて、NFC通信部122に対する管理処理を実行する。例えば、処理部121は、本体装置2からの指令に応じてNFC通信部122の動作を制御する。また、処理部121は、NFC通信部122の起動を制御したり、通信相手(例えば、NFCタグ)に対するNFC通信部122の動作(具体的には、読み出しおよび書き込み等)を制御したりする。また、処理部121は、通信制御部111を介して上記通信相手に送信されるべき情報を本体装置2から受信してNFC通信部122へ渡したり、上記通信相手から受信された情報をNFC通信部122から取得して通信制御部111を介して本体装置2へ送信したりする。また、処理部121は、本体装置2からの指令に応じて、赤外撮像部123に対する管理処理を実行する。例えば、処理部121は、赤外撮像部123に撮像動作を行わせたり、撮像結果に基づく情報(撮像画像の情報、あるいは、当該情報から算出される情報等)を取得して、通信制御部111を介して本体装置2へ送信したりする。   The right controller 4 includes a processing unit 121. The processing unit 121 is connected to the communication control unit 111 and the NFC communication unit 122. The processing unit 121 executes management processing for the NFC communication unit 122 in response to a command from the main body device 2. For example, the processing unit 121 controls the operation of the NFC communication unit 122 according to a command from the main body device 2. The processing unit 121 also controls the activation of the NFC communication unit 122 and controls the operation (specifically, reading and writing) of the NFC communication unit 122 with respect to the communication partner (for example, NFC tag). Further, the processing unit 121 receives information to be transmitted to the communication partner from the main body device 2 via the communication control unit 111 and passes the information to the NFC communication unit 122, or receives the information received from the communication partner in the NFC communication. It is acquired from the unit 122 and transmitted to the main body device 2 via the communication control unit 111. In addition, the processing unit 121 executes management processing for the infrared imaging unit 123 according to a command from the main body device 2. For example, the processing unit 121 causes the infrared imaging unit 123 to perform an imaging operation, acquires information based on the imaging result (information of a captured image, information calculated from the information, or the like), and then the communication control unit It is transmitted to the main body device 2 via 111.

図10は、クレードル5の内部構成の一例を示すブロック図である。なお、図10において、本体装置2に関する内部構成の詳細については、図8で示しているので省略している。   FIG. 10 is a block diagram showing an example of the internal configuration of the cradle 5. Note that, in FIG. 10, details of the internal configuration of the main body device 2 are omitted because they are shown in FIG. 8.

図10に示すように、クレードル5は、変換部131およびモニタ用端子132を備える。変換部131は、本体端子73およびモニタ用端子132と接続される。変換部131は、本体装置2から受信した画像(映像とも言える)および音声に関する信号の形式を、据置型モニタ6へ出力する形式へと変換する。ここで、本実施形態においては、本体装置2は、ディスプレイポート信号(すなわち、DisplayPortの規格に従った信号)として画像および音声の信号をクレードル5へ出力する。また、本実施形態においては、クレードル5と据置型モニタ6との間の通信は、HDMI(登録商標)の規格に基づく通信が用いられる。すなわち、モニタ用端子132は、HDMI端子であり、クレードル5と据置型モニタ6とがHDMIケーブルによって接続される。そして、変換部131は、本体装置2から本体端子73を介して受信されるディスプレイポート信号(具体的には、映像および音声を表す信号)を、HDMI信号へ変換する。変換されたHDMI信号は、モニタ用端子132を介して据置型モニタ6へ出力される。   As shown in FIG. 10, the cradle 5 includes a conversion unit 131 and a monitor terminal 132. The conversion unit 131 is connected to the main body terminal 73 and the monitor terminal 132. The conversion unit 131 converts the format of signals related to images (also referred to as video) and audio received from the main body device 2 into a format to be output to the stationary monitor 6. Here, in the present embodiment, the main body device 2 outputs an image and audio signal to the cradle 5 as a display port signal (that is, a signal according to the DisplayPort standard). Further, in the present embodiment, communication based on the HDMI (registered trademark) standard is used for communication between the cradle 5 and the stationary monitor 6. That is, the monitor terminal 132 is an HDMI terminal, and the cradle 5 and the stationary monitor 6 are connected by an HDMI cable. Then, the conversion unit 131 converts the display port signal (specifically, a signal representing video and audio) received from the main body device 2 via the main body terminal 73 into an HDMI signal. The converted HDMI signal is output to the stationary monitor 6 via the monitor terminal 132.

クレードル5は、電力制御部133および電源端子134を備える。電源端子134は、図示しない充電装置(例えば、ACアダプタ等)を接続するための端子である。本実施形態においては、電源端子134にACアダプタが接続されており、クレードル5には商用電源が供給されているものとする。電力制御部133は、クレードル5に対して本体装置2が装着された場合、本体端子73を介して電源端子134からの電力を本体装置2へ供給する。これによって、本体装置2のバッテリ98が充電される。   The cradle 5 includes a power control unit 133 and a power supply terminal 134. The power supply terminal 134 is a terminal for connecting a charging device (not shown) (for example, an AC adapter or the like). In the present embodiment, an AC adapter is connected to the power supply terminal 134 and commercial power is supplied to the cradle 5. When the main body device 2 is attached to the cradle 5, the power control unit 133 supplies the power from the power supply terminal 134 to the main body device 2 via the main body terminal 73. As a result, the battery 98 of the main body device 2 is charged.

また、クレードル5は、接続処理部136および拡張用端子137を備える。拡張用端子137は、他の装置を接続するための端子である。本実施形態においては、クレードル5は、拡張用端子137として、複数(より具体的には3つ)のUSB端子を備える。接続処理部136は、本体端子73および各拡張用端子137に接続される。接続処理部136は、USBハブとしての機能を有し、例えば、拡張用端子137に接続された装置と、本体端子73に接続された本体装置2との間の通信を管理する(すなわち、ある装置からの信号を他の装置へ適宜分配して送信する)。上記のように、本実施形態においては、情報処理システム1は、クレードル5を介して他の装置との通信を行うことが可能である。なお、接続処理部136は、通信速度を変換したり、拡張用端子137に接続された装置に対する電力供給を行ったりすることが可能であってもよい。   The cradle 5 also includes a connection processing unit 136 and an expansion terminal 137. The expansion terminal 137 is a terminal for connecting another device. In the present embodiment, the cradle 5 includes a plurality (more specifically, three) USB terminals as the expansion terminals 137. The connection processing unit 136 is connected to the main body terminal 73 and each expansion terminal 137. The connection processing unit 136 has a function as a USB hub, and manages communication between, for example, a device connected to the expansion terminal 137 and the main body device 2 connected to the main body terminal 73 (that is, there is The signal from the device is appropriately distributed and transmitted to other devices). As described above, in the present embodiment, the information processing system 1 can communicate with other devices via the cradle 5. The connection processing unit 136 may be capable of converting the communication speed and supplying power to the device connected to the expansion terminal 137.

以上に説明したように、本実施形態における情報処理システム1については左コントローラ3および右コントローラ4が本体装置2から着脱可能である。また、クレードル5に左コントローラ3および右コントローラ4が本体装置2に装着された一体型装置や本体装置2単体を装着することによって据置型モニタ6に画像(および音声)を出力可能である。以下、左コントローラ3および右コントローラ4を本体装置2から取り外した状態で、クレードル5に本体装置2単体を装着することによって据置型モニタ6に画像(および音声)を出力する利用態様における情報処理システムを用いて説明する。   As described above, in the information processing system 1 according to this embodiment, the left controller 3 and the right controller 4 can be attached to and detached from the main body device 2. Further, by mounting the integrated device in which the left controller 3 and the right controller 4 are mounted in the main body device 2 or the main body device 2 alone in the cradle 5, it is possible to output an image (and sound) to the stationary monitor 6. Hereinafter, the information processing system in a usage mode in which the left controller 3 and the right controller 4 are removed from the main body device 2 and the main body device 2 is attached to the cradle 5 to output an image (and a sound) to the stationary monitor 6. Will be explained.

上述のように、本実施形態においては、左コントローラ3および右コントローラ4を本体装置2から外した状態(「離脱状態」と呼ぶ)で情報処理システム1を利用することも可能である。離脱状態で情報処理システム1を利用して同じアプリケーション(例えば、ゲームアプリケーション)に対する操作を行う場合の態様としては、1人のユーザが左コントローラ3および右コントローラ4の両方を用いる態様が考えられる。なお、当該利用態様によって複数のユーザが同じアプリケーションを用いて操作する場合は、左コントローラ3および右コントローラ4の組を複数組用意して、それぞれのユーザが当該複数組のうちの1組を用いる態様が考えられる。   As described above, in the present embodiment, it is possible to use the information processing system 1 in a state where the left controller 3 and the right controller 4 are detached from the main body device 2 (referred to as a “disengaged state”). As a mode in which the information processing system 1 is used to operate the same application (for example, a game application) in a detached state, one user may use both the left controller 3 and the right controller 4. When a plurality of users operate using the same application according to the usage mode, a plurality of sets of the left controller 3 and the right controller 4 are prepared, and each user uses one of the plurality of sets. Embodiments are possible.

図11および図12は、離脱状態において、1人のユーザが左コントローラ3および右コントローラ4の組を把持して情報処理システム1を利用する様子の一例を示す図である。図11および図12に示すように、離脱状態において、ユーザは、左コントローラ3を左手で把持し、右コントローラ4を右手で把持して操作を行いながら、据置型モニタ6に表示された画像を見ることができる。   11 and 12 are diagrams showing an example of how one user holds the set of the left controller 3 and the right controller 4 and uses the information processing system 1 in the separated state. As shown in FIG. 11 and FIG. 12, in the detached state, the user holds the left controller 3 with the left hand and the right controller 4 with the right hand, and operates the image displayed on the stationary monitor 6 while operating. You can see.

例えば、本実施例では、ユーザは、縦長の略板状である左コントローラ3の長手方向の下方向(図1に示す下方向(y軸負方向))が鉛直方向になるとともに、本体装置2に装着された際に当該本体装置2と接する側面(スライダ40が設けられている側面)が前方に向き、かつ、左コントローラ3の主面(アナログスティック32等が設けられる面)が右に向くように左コントローラ3を左手で把持する。また、ユーザは、縦長の略板状である右コントローラ4の長手方向の下方向(図1に示す上下方向(y軸負方向))が鉛直方向になるとともに、本体装置2に装着された際に当該本体装置2と接する側面(スライダ62が設けられている側面)が前方に向き、かつ、右コントローラ4の主面(アナログスティック52等が設けられる面)が左に向くように右コントローラ4を右手で把持する。このように左手で左コントローラ3を把持し右手で右コントローラ4を把持した状態(以下、当該方向に把持された左コントローラ3および右コントローラ4の姿勢を基本姿勢と記載することがある)から、各コントローラを上下左右前後に動かしたり、各コントローラを回転させたり、各コントローラを振り動かしたりすることによって、各コントローラの動きや姿勢に応じてゲームプレイが行われる。   For example, in the present embodiment, the user determines that the vertical direction is the downward direction of the left controller 3 (a downward direction (y-axis negative direction) shown in FIG. 1) which is a vertically long, substantially plate-shaped controller 3, and the main body device 2 The side surface (the side surface on which the slider 40 is provided) in contact with the main body device 2 when mounted on the front side faces forward, and the main surface of the left controller 3 (the surface on which the analog stick 32 and the like are provided) faces right. Hold the left controller 3 with the left hand. Further, when the user attaches the main controller 2 to the main unit 2 while the lower direction of the right controller 4 having a vertically long and substantially plate-like shape is the vertical direction (the vertical direction (the y-axis negative direction) shown in FIG. 1) is the vertical direction. The right controller 4 so that the side surface (the side surface on which the slider 62 is provided) in contact with the main body device 2 faces forward and the main surface of the right controller 4 (the surface on which the analog stick 52 and the like are provided) faces left. Hold with your right hand. From the state in which the left controller 3 is gripped by the left hand and the right controller 4 is gripped by the right hand in this way (hereinafter, the attitudes of the left controller 3 and the right controller 4 gripped in the direction may be referred to as basic attitudes), By moving each controller up and down, left and right, front and back, rotating each controller, and swinging each controller, game play is performed according to the movement and posture of each controller.

なお、左コントローラ3に生じる加速度や角速度の方向をわかりやすくするために、上記把持状態における前方向(丸みを帯びた側面から本体装置2と接する側面に向かう方向であり、図1に示すx軸負方向)をX軸正方向とし、上記把持状態における右方向(背面から主面に向かう方向であり、図1に示すz軸負方向)をY軸正方向とし、上記把持状態における上方向(長手方向の上に向かう方向であり、図1に示すy軸正方向)をZ軸正方向とする。そして、左コントローラ3の加速度センサ104は、上記XYZ軸方向の加速度をそれぞれ検出可能であり、角速度センサ105は、上記XYZ軸方向周りの角速度をそれぞれ検出可能であるとする。また、右コントローラ4に生じる加速度や角速度の方向をわかりやすくするために、上記把持状態における前方向(丸みを帯びた側面から本体装置2と接する側面に向かう方向であり、図1に示すx軸正方向)をX軸正方向とし、上記把持状態における右方向(主面から背面に向かう方向であり、図1に示すz軸正方向)をY軸正方向とし、上記把持状態における上方向(長手方向の上に向かう方向であり、図1に示すy軸正方向)をZ軸正方向とする。そして、右コントローラ4の加速度センサ114は、上記XYZ軸方向の加速度をそれぞれ検出可能であり、角速度センサ115は、上記XYZ軸方向周りの角速度をそれぞれ検出可能であるとする。   In order to make it easier to understand the direction of the acceleration or the angular velocity generated in the left controller 3, the front direction (the direction from the rounded side surface to the side surface in contact with the main body device 2 in the gripping state, which is the x-axis shown in FIG. 1). The negative direction is the X-axis positive direction, the right direction in the gripped state (the direction from the back surface to the main surface, the z-axis negative direction shown in FIG. 1) is the Y-axis positive direction, and the upward direction in the gripped state ( It is a direction that goes upward in the longitudinal direction, and the y-axis positive direction shown in FIG. 1) is the Z-axis positive direction. The acceleration sensor 104 of the left controller 3 can detect the accelerations in the XYZ axis directions, and the angular velocity sensor 105 can detect the angular velocities around the XYZ axes. Further, in order to make it easy to understand the direction of the acceleration and the angular velocity generated in the right controller 4, the front direction (the direction from the rounded side surface to the side surface in contact with the main body device 2 in the gripping state, which is the x-axis shown in FIG. 1). The positive direction is the X-axis positive direction, the right direction in the gripped state (the direction from the main surface to the back surface, the z-axis positive direction shown in FIG. 1) is the Y-axis positive direction, and the upward direction in the gripped state ( It is a direction that goes upward in the longitudinal direction, and the y-axis positive direction shown in FIG. 1) is the Z-axis positive direction. The acceleration sensor 114 of the right controller 4 can detect the accelerations in the XYZ axis directions, and the angular velocity sensor 115 can detect the angular velocities around the XYZ axes.

次に、図13〜図15は、左コントローラ3および右コントローラ4を動かすことによってプレイするゲームにおいて表示されるゲーム画像例を示す図である。図13に示すように、本ゲーム例では、プレイヤオブジェクトPOと敵オブジェクトEOとが対戦するゲーム(例えば、ボクシングゲーム)の画像が据置型モニタ6に表示される。そして、左コントローラ3および右コントローラ4を操作するユーザは、左コントローラ3本体および/または右コントローラ4本体を振り動かしたり、左コントローラ3本体および/または右コントローラ4本体の姿勢を変化させたりすることによって、プレイヤオブジェクトPOを操作することができる。例えば、左コントローラ3を振り動かすことによってプレイヤオブジェクトPOの左グラブ(左拳)を模した第1オブジェクトG1の動作を制御することができ、右コントローラ4を振り動かすことによってプレイヤオブジェクトPOの右グラブ(右拳)を模した第2オブジェクトG2の動作を制御することができる。具体的には、ユーザが左コントローラ3を把持している左手を用いて左パンチを繰り出すように振る操作を行った場合、敵オブジェクトEOが配置されている場所に向かってプレイヤオブジェクトPOの左グラブを模した第1オブジェクトG1が移動する。また、ユーザが右コントローラ4を把持している右手を用いて右パンチを繰り出すように振る操作を行った場合、敵オブジェクトEOが配置されている場所に向かってプレイヤオブジェクトPOの右グラブを模した第2オブジェクトG2が移動する。   Next, FIGS. 13 to 15 are diagrams showing game image examples displayed in a game played by moving the left controller 3 and the right controller 4. As shown in FIG. 13, in the present game example, an image of a game in which the player object PO and the enemy object EO compete (for example, a boxing game) is displayed on the stationary monitor 6. Then, the user operating the left controller 3 and the right controller 4 swings the left controller 3 main body and / or the right controller 4 main body, or changes the posture of the left controller 3 main body and / or the right controller 4 main body. The player object PO can be operated by. For example, the motion of the first object G1 imitating the left grab (left fist) of the player object PO can be controlled by shaking the left controller 3, and the right grab of the player object PO can be controlled by shaking the right controller 4. It is possible to control the motion of the second object G2 imitating (right fist). Specifically, when the user uses the left hand holding the left controller 3 to perform an operation of swinging the left punch, the left grab of the player object PO is headed toward the place where the enemy object EO is arranged. The first object G1 that imitates is moved. In addition, when the user performs an operation of swinging the right punch using the right hand holding the right controller 4, the player object PO imitates the right grab toward the place where the enemy object EO is arranged. The second object G2 moves.

例えば、左コントローラ3および右コントローラ4の何れも動かしていない状態(図13に示す状態)から、右コントローラ4を前方(右コントローラ4のX軸正方向)に押し出すように振り動かした場合、図14に示すように右コントローラ4の動きに応じてプレイヤオブジェクトPOの第2オブジェクトG2が敵オブジェクトEOに向かって移動する。これによって、敵オブジェクトEOに対してプレイヤオブジェクトPOが右パンチを繰り出したようなゲーム画像が表示される。   For example, when the left controller 3 and the right controller 4 are both not moved (the state shown in FIG. 13), the right controller 4 is swung so as to be pushed forward (the X axis positive direction of the right controller 4). As shown in 14, the second object G2 of the player object PO moves toward the enemy object EO according to the movement of the right controller 4. As a result, a game image in which the player object PO makes a right punch with respect to the enemy object EO is displayed.

ここで、第1オブジェクトG1が移動開始する際の移動方向は、左コントローラ3を押し出すように振り動かした際の左コントローラ3の姿勢によって設定される。また、第2オブジェクトG2が移動開始する際の移動方向は、右コントローラ4を押し出すように動かした際の右コントローラ4の姿勢によって設定される。例えば、図14に示したように、右コントローラ4がX軸正方向に移動した場合、当該移動における右コントローラ4のロール方向の姿勢に応じて第2オブジェクトG2の移動方向が設定される。一例として、本実施例では、上記右コントローラ4が移動している期間において、実空間において重力加速度が作用している方向を基準とした右コントローラ4のY軸方向の傾きを算出し、当該Y軸方向の傾きに基づいて第2オブジェクトG2の移動方向を算出している。具体的には、右コントローラ4が上記基準姿勢に対して右方向にロール回転した姿勢であることを上記Y軸方向の傾きが示す場合、仮想空間の右方向に向かって第2オブジェクトG2が移動する。また、右コントローラ4が上記基準姿勢に対して左方向にロール回転した姿勢であることを上記Y軸方向の傾きが示す場合、仮想空間の左方向に向かって第2オブジェクトG2が移動する。そして、それぞれ右方向または左方向に移動方向がずれる角度については、上記Y軸方向の傾き角度に応じてそれぞれ算出される。   Here, the moving direction when the first object G1 starts moving is set by the posture of the left controller 3 when the left controller 3 is swung so as to be pushed out. The moving direction when the second object G2 starts moving is set by the posture of the right controller 4 when the right controller 4 is moved so as to be pushed out. For example, as shown in FIG. 14, when the right controller 4 moves in the X-axis positive direction, the moving direction of the second object G2 is set according to the posture of the right controller 4 in the roll direction during the movement. As an example, in the present embodiment, in the period in which the right controller 4 is moving, the inclination of the right controller 4 in the Y-axis direction is calculated with reference to the direction in which the gravitational acceleration is acting in the real space, and the Y The moving direction of the second object G2 is calculated based on the tilt in the axial direction. Specifically, when the inclination in the Y-axis direction indicates that the right controller 4 is in a posture in which the right controller 4 is rolled to the right with respect to the reference posture, the second object G2 moves toward the right in the virtual space. To do. In addition, when the inclination in the Y-axis direction indicates that the right controller 4 is in a posture in which the right controller 4 is rolled to the left with respect to the reference posture, the second object G2 moves toward the left in the virtual space. Then, the angles at which the moving directions are shifted to the right or left respectively are calculated in accordance with the tilt angles in the Y-axis direction.

また、本ゲーム例では、仮想空間においてプレイヤオブジェクトPOと敵オブジェクトEOとの距離が相対的に遠い場合であってもパンチを繰り出すことが可能であり、プレイヤオブジェクトPOの腕が伸びることによって、第1オブジェクトG1および第2オブジェクトG2が相対的に長い距離を移動することができる。そして、第1オブジェクトG1または第2オブジェクトG2は、他のオブジェクト(例えば、敵オブジェクトEO)と衝突するか所定の距離移動した後に移動を終了し、当該第1オブジェクトG1および第2オブジェクトG2がそれぞれ移動開始した移動開始位置(例えば、図13に示すプレイヤオブジェクトPOの手元)まで戻る。第1オブジェクトG1および第2オブジェクトG2が移動開始位置まで戻ることによって、敵オブジェクトEOに向かう次の移動が可能となる。言い換えると、次のパンチを出すことができるようになる。したがって、上記移動開始位置から第1オブジェクトG1または第2オブジェクトG2が移動を開始してから再び当該移動開始位置まで戻るまでの時間が一般的なボクシングゲームより相対的に長くなる。   Further, in the present game example, even if the distance between the player object PO and the enemy object EO is relatively large in the virtual space, it is possible to punch, and the arm of the player object PO extends, The first object G1 and the second object G2 can move a relatively long distance. Then, the first object G1 or the second object G2 collides with another object (for example, the enemy object EO) or moves for a predetermined distance and then ends the movement, and the first object G1 and the second object G2 respectively It returns to the movement start position where the movement has started (for example, the hand of the player object PO shown in FIG. 13). When the first object G1 and the second object G2 return to the movement start position, the next movement toward the enemy object EO becomes possible. In other words, you can get the next punch. Therefore, the time from when the first object G1 or the second object G2 starts moving from the movement start position to when the first object G1 or the second object G2 returns to the movement start position is relatively longer than in a general boxing game.

本ゲーム例では、このような移動時間を利用して、第1オブジェクトG1または第2オブジェクトG2が移動中(典型的には、敵オブジェクトEOの方向へ移動している期間)であっても、左コントローラ3または右コントローラ4の姿勢や動きに応じて移動する軌道を変化させることができる。例えば、上述した第1オブジェクトG1または第2オブジェクトG2の移動開始時の左コントローラ3または右コントローラ4の姿勢から左コントローラ3または右コントローラ4がロール方向に回転した場合やヨー方向に回転した場合、当該回転に応じて第1オブジェクトG1または第2オブジェクトG2の軌道を変化させる。   In this game example, even if the first object G1 or the second object G2 is moving (typically, in the direction of the enemy object EO) by using such moving time, The trajectory to be moved can be changed according to the posture and movement of the left controller 3 or the right controller 4. For example, when the left controller 3 or the right controller 4 rotates in the roll direction or the yaw direction from the posture of the left controller 3 or the right controller 4 at the time of starting the movement of the first object G1 or the second object G2 described above, The trajectory of the first object G1 or the second object G2 is changed according to the rotation.

一例として、本実施例では、第1オブジェクトG1または第2オブジェクトG2の移動開始後の左コントローラ3または右コントローラ4のX軸周りの回転速度(角速度)を上記ロール方向の回転として、当該X軸周りの回転速度に基づいて移動中の第1オブジェクトG1または第2オブジェクトG2の軌道を変化させる。具体的には、第1オブジェクトG1が移動中に左コントローラ3がX軸を中心として右方向にロール回転した回転速度が得られた場合、仮想空間の右方向に第1オブジェクトG1の軌道を変化させ、左コントローラ3がX軸を中心として左方向にロール回転した回転速度が得られた場合、仮想空間の左方向に第1オブジェクトG1の軌道を変化させる。また、第2オブジェクトG2が移動中に右コントローラ4がX軸を中心として右方向にロール回転した回転速度が得られた場合、仮想空間の右方向に第2オブジェクトG2の軌道を変化させ、右コントローラ4がX軸を中心として左方向にロール回転した回転速度が得られた場合、仮想空間の左方向に第2オブジェクトG2の軌道を変化させる。   As an example, in the present embodiment, the rotation speed (angular speed) of the left controller 3 or the right controller 4 around the X axis after the start of the movement of the first object G1 or the second object G2 is set as the rotation in the roll direction, and the X axis is rotated. The trajectory of the moving first object G1 or second object G2 is changed based on the rotational speed of the surroundings. Specifically, when the left controller 3 obtains a rotation speed that is rotated rightward about the X axis while the first object G1 is moving, the trajectory of the first object G1 is changed rightward in the virtual space. Then, when the left controller 3 obtains the rotational speed of the roll rotation to the left around the X axis, the trajectory of the first object G1 is changed to the left in the virtual space. Further, when the right controller 4 obtains the rotational speed of the right roll roll about the X axis while the second object G2 is moving, the trajectory of the second object G2 is changed to the right in the virtual space, and the right When the controller 4 obtains the rotational speed that is rotated leftward about the X axis, the trajectory of the second object G2 is changed leftward in the virtual space.

他の例として、本実施例では、第1オブジェクトG1または第2オブジェクトG2の移動開始後の実空間の重力方向を基準とする左コントローラ3または右コントローラ4の回転速度(角速度)を上記ヨー方向の回転として、当該重力方向周りの回転速度に基づいて移動中の第1オブジェクトG1または第2オブジェクトG2の軌道を変化させる。具体的には、第1オブジェクトG1が移動中に左コントローラ3が重力方向を中心として右方向にヨー回転した回転速度が得られた場合、仮想空間の右方向に第1オブジェクトG1の軌道を変化させ、左コントローラ3が重力方向を中心として左方向にヨー回転した回転速度が得られた場合、仮想空間の左方向に第1オブジェクトG1の軌道を変化させる。また、第2オブジェクトG2が移動中に右コントローラ4が重力方向を中心として右方向にヨー回転した回転速度が得られた場合、仮想空間の右方向に第2オブジェクトG2の軌道を変化させ、右コントローラ4が重力方向を中心として左方向にヨー回転した回転速度が得られた場合、仮想空間の左方向に第2オブジェクトG2の軌道を変化させる。   As another example, in the present embodiment, the rotation speed (angular speed) of the left controller 3 or the right controller 4 based on the gravity direction of the real space after the start of the movement of the first object G1 or the second object G2 is set to the yaw direction. As the rotation of, the trajectory of the moving first object G1 or second object G2 is changed based on the rotation speed around the gravity direction. Specifically, when the left controller 3 obtains the rotational speed of the yaw rotation to the right around the gravity direction while the first object G1 is moving, the trajectory of the first object G1 is changed to the right in the virtual space. Then, when the left controller 3 obtains the rotational speed of the yaw rotation to the left around the gravity direction, the trajectory of the first object G1 is changed to the left in the virtual space. In addition, when the right controller 4 obtains the rotational speed of the right yaw rotation about the gravity direction while the second object G2 is moving, the trajectory of the second object G2 is changed to the right in the virtual space, and the right is changed. When the controller 4 obtains the rotational speed of the yaw rotation to the left around the gravity direction, the trajectory of the second object G2 is changed to the left in the virtual space.

また、本ゲーム例では、左コントローラ3または右コントローラ4が振り動かされたか否かの判定を、左コントローラ3または右コントローラ4に生じた加速度の大きさを用いて行う。そして、第1オブジェクトG1が上記移動開始位置に配置されている状態(以下、第1移動開始可能状態と称する)において左コントローラ3が上記X軸正方向に振り動かされたと判定された場合、当該移動開始位置から敵オブジェクトEOに向かって第1オブジェクトG1が移動を開始する。また、第2オブジェクトG2が上記移動開始位置に配置されている状態(以下、第2移動開始可能状態と称する)において右コントローラ4が上記X軸正方向に振り動かされたと判定された場合、当該移動開始位置から敵オブジェクトEOに向かって第2オブジェクトG2が移動を開始する。しかしながら、本実施例では、上記第1移動開始可能状態でない場合であっても、左コントローラ3が上記X軸正方向に振り動かされたと判定されてから所定時間以内に上記第1移動開始可能状態になった場合は、当該左コントローラ3の振り操作に応じて上記移動開始位置から敵オブジェクトEOに向かって第1オブジェクトG1の移動を開始させることができる。また、上記第2移動開始可能状態でない場合であっても、右コントローラ4が上記X軸正方向に振り動かされたと判定されてから所定時間以内に上記第2移動開始可能状態になった場合は、当該右コントローラ4の振り操作に応じて上記移動開始位置から敵オブジェクトEOに向かって第2オブジェクトG2の移動を開始させることができる。このように、本実施例では、上記第1移動開始可能状態および/または上記第2移動開始可能状態でない場合であっても、左コントローラ3および/または右コントローラ4を振り動かすことによって第1オブジェクトG1および/または第2オブジェクトG2を移動開始させる指示を行うことができるため、操作指示可能な状態が断続的に生じるゲームであっても操作を容易にすることが可能となる。つまり、上述したように、上記ゲーム例では、移動開始位置から第1オブジェクトG1または第2オブジェクトG2が移動を開始してから再び当該移動開始位置まで戻るまでの時間が一般的なボクシングゲームより相対的に長くなるため、上記第1移動開始可能状態や上記第2移動開始可能状態になるのを待ちきれずに左コントローラ3または右コントローラ4を振り動かす操作が先行してしまうことが考えられるが、このような先行操作が行われた場合であっても当該先行操作を無効にせずに救済してゲーム操作に生かすことが可能となる。   Further, in this game example, it is determined whether or not the left controller 3 or the right controller 4 has been swung, using the magnitude of the acceleration generated in the left controller 3 or the right controller 4. When it is determined that the left controller 3 is swung in the X-axis positive direction in the state in which the first object G1 is arranged at the movement start position (hereinafter, referred to as the first movement startable state), The first object G1 starts moving from the movement start position toward the enemy object EO. Further, when it is determined that the right controller 4 is swung in the X-axis positive direction in the state in which the second object G2 is arranged at the movement start position (hereinafter, referred to as the second movement startable state), The second object G2 starts moving from the movement start position toward the enemy object EO. However, in the present embodiment, even when the first movement startable state is not set, the first movement startable state is set within a predetermined time after it is determined that the left controller 3 has been swung in the X-axis positive direction. When it becomes, the movement of the first object G1 can be started from the movement start position toward the enemy object EO in accordance with the swing operation of the left controller 3. Even if the second movement startable state is not reached, if the second movement startable state is reached within a predetermined time after it is determined that the right controller 4 has been swung in the X-axis positive direction. The movement of the second object G2 can be started from the movement start position toward the enemy object EO in response to the swing operation of the right controller 4. As described above, in the present embodiment, even when the first movement startable state and / or the second movement startable state is not set, the first object is moved by swinging the left controller 3 and / or the right controller 4. Since it is possible to give an instruction to start moving the G1 and / or the second object G2, it becomes possible to facilitate the operation even in a game in which an operation instructable state occurs intermittently. That is, as described above, in the above game example, the time from when the first object G1 or the second object G2 starts moving from the movement start position to when the first object G1 or the second object G2 returns to the movement start position is more relative to a general boxing game. However, the operation of swinging the left controller 3 or the right controller 4 may precede without waiting for the first movement startable state or the second movement startable state. Even when such a preceding operation is performed, it is possible to save the preceding operation without invalidating it and utilize it for the game operation.

また、本ゲーム例では、図15に示すように、第1オブジェクトG1および第2オブジェクトG2を上記移動開始位置から同時に移動開始させることによって、所定のアクションが行われる。例えば、第1オブジェクトG1および第2オブジェクトG2の一方が移動開始した時点から所定期間以内に他方が移動開始する場合、第1オブジェクトG1および第2オブジェクトG2が組となった「両手パンチアクション」が開始される。ここで、「両手パンチアクション」は、仮想空間を移動する第1オブジェクトG1および第2オブジェクトG2の間に衝突領域Aが形成された様子がゲーム画像で表現され、当該衝突領域Aが形成された状態で第1オブジェクトG1および第2オブジェクトG2が敵オブジェクトEOに向かって移動する。そして、敵オブジェクトEOには移動中の第1オブジェクトG1または第2オブジェクトG2や衝突領域Aが衝突した場合に、第1オブジェクトG1または第2オブジェクトG2が単独で衝突する場合より大きなダメージが敵オブジェクトEOに与えられる所定のアクションが行われる。一例として、「両手パンチアクション」では、敵オブジェクトEOと衝突した場合に当該敵オブジェクトEOを投げ飛ばすアクションが行われたり、当該敵オブジェクトEOを動けなくするようなアクションが行われたりしてもよい。なお、「両手パンチアクション」実行中であっても、上述した左コントローラ3および/または右コントローラ4の姿勢や動きに応じて第1オブジェクトG1および/または第2オブジェクトG2が移動する軌道を変化させることができる。したがって、第1オブジェクトG1および/または第2オブジェクトG2が移動する軌道を変化させることによって、衝突領域Aの範囲も変化させることができるため、敵オブジェクトEOに対してより戦略的な攻撃も可能となる。   Further, in the present game example, as shown in FIG. 15, a predetermined action is performed by simultaneously starting the movement of the first object G1 and the second object G2 from the movement start position. For example, when one of the first object G1 and the second object G2 starts moving within a predetermined period from the time when one of the first object G1 and the second object G2 starts moving, a “two-hand punch action” in which the first object G1 and the second object G2 form a pair is performed. Be started. Here, in the "two-handed punch action", a state in which the collision area A is formed between the first object G1 and the second object G2 moving in the virtual space is represented by a game image, and the collision area A is formed. In the state, the first object G1 and the second object G2 move toward the enemy object EO. Then, when the moving first object G1 or the second object G2 or the collision area A collides with the enemy object EO, the enemy object EO suffers more damage than when the first object G1 or the second object G2 collides alone. The predetermined action given to the EO is performed. As an example, in the “two-handed punch action”, an action of throwing away the enemy object EO when it collides with the enemy object EO or an action of immobilizing the enemy object EO may be performed. Even when the "two-hand punch action" is being executed, the trajectory of the first object G1 and / or the second object G2 is changed according to the posture and movement of the left controller 3 and / or the right controller 4 described above. be able to. Therefore, by changing the trajectory of the first object G1 and / or the second object G2, the range of the collision area A can also be changed, so that a more strategic attack on the enemy object EO is possible. Become.

また、本ゲーム例では、左コントローラ3および右コントローラ4の両方の動きや姿勢に応じて、仮想空間内でプレイヤオブジェクトPOを移動させることができる。例えば、左コントローラ3および右コントローラ4の両方が実空間のピッチ方向に回転した場合やロール方向に回転した場合、当該回転した傾きに応じてプレイヤオブジェクトPOを移動させる。具体的には、実空間の重力方向を基準とする左コントローラ3のX軸方向およびY軸方向と右コントローラ4のX軸方向およびY軸方向の傾きをそれぞれ算出する。そして、上記傾きに基づいて、左コントローラ3および右コントローラ4の両方が前方に傾く姿勢になっていると判定された場合、左コントローラ3および右コントローラ4の両方が当該前方へ傾いている角度(例えば、当該角度の平均値)に応じた移動量でプレイヤオブジェクトPOを仮想空間の前方へ移動させる。また、上記傾きに基づいて、左コントローラ3および右コントローラ4の両方が後方に傾く姿勢になっていると判定された場合、左コントローラ3および右コントローラ4の両方が当該後方へ傾いている角度(例えば、当該角度の平均値)に応じた移動量でプレイヤオブジェクトPOを仮想空間の後方へ移動させる。また、上記傾きに基づいて、左コントローラ3および右コントローラ4の両方が左に傾く姿勢になっていると判定された場合、左コントローラ3および右コントローラ4の両方が当該左へ傾いている角度(例えば、当該角度の平均値)に応じた移動量でプレイヤオブジェクトPOを仮想空間の左へ移動させる。また、上記傾きに基づいて、左コントローラ3および右コントローラ4の両方が右に傾く姿勢になっていると判定された場合、左コントローラ3および右コントローラ4の両方が当該右へ傾いている角度(例えば、当該角度の平均値)に応じた移動量でプレイヤオブジェクトPOを仮想空間の右へ移動させる。   Further, in this game example, the player object PO can be moved in the virtual space according to the movements and postures of both the left controller 3 and the right controller 4. For example, when both the left controller 3 and the right controller 4 rotate in the pitch direction of the real space or in the roll direction, the player object PO is moved according to the rotated inclination. Specifically, the inclinations of the left controller 3 in the X-axis direction and the Y-axis direction and the right controller 4 in the X-axis direction and the Y-axis direction are calculated with reference to the gravity direction in the real space. Then, when it is determined that both the left controller 3 and the right controller 4 are in the posture of leaning forward based on the tilt, the angle at which both the left controller 3 and the right controller 4 lean forward ( For example, the player object PO is moved forward in the virtual space by a movement amount according to the average value of the angles. Further, when it is determined that both the left controller 3 and the right controller 4 are in the posture of leaning rearward based on the tilt, the angle at which both the left controller 3 and the right controller 4 lean backward ( For example, the player object PO is moved backward in the virtual space by a movement amount according to the average value of the angles. Further, when it is determined that both the left controller 3 and the right controller 4 are in the posture of inclining to the left based on the inclination, the angle at which both the left controller 3 and the right controller 4 are inclined to the left ( For example, the player object PO is moved to the left in the virtual space by a movement amount according to the average value of the angles. Further, when it is determined that both the left controller 3 and the right controller 4 are in the posture of leaning to the right based on the tilt, the angle at which both the left controller 3 and the right controller 4 are leaning to the right ( For example, the player object PO is moved to the right in the virtual space by a movement amount according to the average value of the angles.

なお、図13〜図15では、据置型モニタ6を用いて1人プレイ(例えば、敵オブジェクトEOがCPU81によって自動制御される)するゲーム例を用いたが、複数のユーザによってプレイしてもよい。例えば、2人のユーザによってゲームプレイされる場合、ユーザがそれぞれ左コントローラ3および右コントローラ4の組を把持して、別のプレイヤオブジェクトを操作する。そして、据置型モニタ6の表示領域を2つに分割して、それぞれの分割表示領域に各ユーザ用の画像(ユーザが操作するプレイヤオブジェクトから他のユーザが操作するプレイヤオブジェクトを見た画像)を表示する。このような操作環境において、ユーザがそれぞれ相手プレイヤオブジェクトにパンチを繰り出すような操作を行うことによって、それぞれのユーザが相手プレイヤオブジェクトと対戦するゲームが可能となる。   13 to 15, a game example in which one person is played (for example, the enemy object EO is automatically controlled by the CPU 81) using the stationary monitor 6, is used, but may be played by a plurality of users. . For example, when the game is played by two users, each user holds a pair of the left controller 3 and the right controller 4 and operates another player object. Then, the display area of the stationary monitor 6 is divided into two, and an image for each user (an image of a player object operated by a user looking at a player object operated by another user) is displayed in each divided display area. indicate. In such an operating environment, each user performs an operation such as punching out to the opponent player object, whereby a game in which each user plays against the opponent player object becomes possible.

なお、複数のユーザによってゲームプレイされる場合、他の装置(例えば、他の情報処理システム1)との間で通信することによって、当該ゲームプレイに必要なゲームデータを送受信してもよい。例えば、他の装置との間で通信する場合、上述したネットワーク通信部82を介して、インターネット(広域ネットワーク)に接続された他の装置との間でデータを送受信してもよいし、閉ざされたローカルネットワークエリア内に配置された他の装置との間で直接通信する、いわゆる「ローカル通信」を用いてデータを送受信してもよい。   When the game is played by a plurality of users, the game data necessary for the game play may be transmitted and received by communicating with another device (for example, another information processing system 1). For example, when communicating with another device, data may be transmitted / received to / from another device connected to the Internet (wide area network) via the network communication unit 82 described above, or may be closed. Data may be transmitted and received using so-called “local communication”, which is a direct communication with another device arranged in the local network area.

次に、図16〜図23を参照して、本実施形態において情報処理システム1で実行される具体的な処理の一例について説明する。図16は、本実施形態において本体装置2のDRAM85に設定されるデータ領域の一例を示す図である。なお、DRAM85には、図16に示すデータの他、他の処理で用いられるデータも記憶されるが、詳細な説明を省略する。   Next, an example of specific processing executed by the information processing system 1 in the present embodiment will be described with reference to FIGS. FIG. 16 is a diagram showing an example of a data area set in the DRAM 85 of the main body device 2 in this embodiment. The DRAM 85 stores not only the data shown in FIG. 16 but also data used in other processing, but detailed description thereof will be omitted.

DRAM85のプログラム記憶領域には、情報処理システム1で実行される各種プログラムPaが記憶される。本実施形態においては、各種プログラムPaは、上述した左コントローラ3および右コントローラ4との間で無線通信するための通信プログラムや、左コントローラ3および/または右コントローラ4から取得したデータに基づいた情報処理(例えば、ゲーム処理)を行うためのアプリケーションプログラム、クレードル5に対する本体装置2の着脱に応じて画像を表示する表示装置を切り替えるプログラム等が記憶される。なお、各種プログラムPaは、フラッシュメモリ84に予め記憶されていてもよいし、情報処理システム1に着脱可能な記憶媒体(例えば、第1スロット23に装着された第1の種類の記憶媒体、第2スロット24に装着された第2の種類の記憶媒体)から取得されてDRAM85に記憶されてもよいし、インターネット等のネットワークを介して他の装置から取得されてDRAM85に記憶されてもよい。CPU81は、DRAM85に記憶された各種プログラムPaを実行する。   Various programs Pa executed by the information processing system 1 are stored in the program storage area of the DRAM 85. In the present embodiment, the various programs Pa are information based on a communication program for wirelessly communicating with the left controller 3 and the right controller 4 described above, and data obtained from the left controller 3 and / or the right controller 4. An application program for performing processing (for example, game processing), a program for switching a display device for displaying an image in accordance with attachment / detachment of the main body device 2 to / from the cradle 5, and the like are stored. The various programs Pa may be stored in the flash memory 84 in advance, or may be a storage medium that is removable from the information processing system 1 (for example, a first type storage medium installed in the first slot 23, It may be acquired from the second type storage medium (installed in the two-slot 24) and stored in the DRAM 85, or acquired from another device via a network such as the Internet and stored in the DRAM 85. The CPU 81 executes various programs Pa stored in the DRAM 85.

また、DRAM85のデータ記憶領域には、情報処理システム1において実行される通信処理や情報処理等の処理において用いられる各種のデータが記憶される。本実施形態においては、DRAM85には、操作データDa、姿勢データDb、角速度データDc、加速度データDd、閾値データDe、カーブ値データDf、回転速度データDg、振りフラグデータDh、移動フラグデータDi、アクションフラグデータDj、戻りフラグデータDk、移動開始可能フラグデータDl、プレイヤオブジェクト位置データDm、衝突領域データDn、敵オブジェクト位置データDo、および画像データDp等が記憶される。   Further, in the data storage area of the DRAM 85, various data used in communication processing and information processing executed in the information processing system 1 are stored. In the present embodiment, the DRAM 85 has operation data Da, posture data Db, angular velocity data Dc, acceleration data Dd, threshold data De, curve value data Df, rotation velocity data Dg, swing flag data Dh, movement flag data Di, Action flag data Dj, return flag data Dk, movement startable flag data Dl, player object position data Dm, collision area data Dn, enemy object position data Do, image data Dp, etc. are stored.

操作データDaは、左コントローラ3および右コントローラ4からそれぞれ適宜取得した操作データである。上述したように、左コントローラ3および右コントローラ4からそれぞれ送信される操作データには、各入力部(具体的には、各ボタン、アナログスティック、各センサ)からの入力に関する情報(具体的には、操作に関する情報、または、センサによる検出結果)が含まれている。本実施形態では、無線通信によって左コントローラ3および右コントローラ4からそれぞれ所定周期で操作データが送信されており、当該受信した操作データを用いて操作データDaが適宜更新される。なお、操作データDaの更新周期は、後述する情報処理システム1で実行される処理の周期である1フレーム毎に更新されてもよいし、上記無線通信によって操作データが送信される周期毎に更新されてもよい。   The operation data Da is operation data appropriately acquired from the left controller 3 and the right controller 4. As described above, the operation data transmitted from each of the left controller 3 and the right controller 4 includes information (specifically, information about inputs from each input unit (specifically, each button, analog stick, and each sensor)). , Information about the operation, or the detection result of the sensor). In the present embodiment, the operation data is transmitted from the left controller 3 and the right controller 4 by wireless communication at predetermined intervals, and the operation data Da is appropriately updated using the received operation data. The update cycle of the operation data Da may be updated for each frame, which is a cycle of processing executed by the information processing system 1 described later, or may be updated for each cycle of operation data transmitted by the wireless communication. May be done.

姿勢データDbは、実空間における重力加速度の方向を基準とした左コントローラ3および右コントローラ4それぞれの姿勢を示すデータである。例えば、姿勢データDbは、左コントローラ3および右コントローラ4それぞれに作用している重力加速度の方向を示すデータや、当該重力加速度方向に対するXYZ軸方向を示すデータ等を含んでいる。   The attitude data Db is data indicating the attitudes of the left controller 3 and the right controller 4 with the direction of the gravitational acceleration in the real space as a reference. For example, the posture data Db includes data indicating the direction of gravity acceleration acting on each of the left controller 3 and the right controller 4, data indicating the XYZ axis directions with respect to the gravity acceleration direction, and the like.

角速度データDcは、左コントローラ3および右コントローラ4それぞれに生じている角速度を示すデータである。例えば、角速度データDcは、左コントローラ3および右コントローラ4それぞれに生じているXYZ軸周りの角速度を示すデータ等を含んでいる。   The angular velocity data Dc is data indicating the angular velocity generated in each of the left controller 3 and the right controller 4. For example, the angular velocity data Dc includes data indicating the angular velocities around the XYZ axes generated in the left controller 3 and the right controller 4, respectively.

加速度データDdは、左コントローラ3および右コントローラ4それぞれに生じている加速度を示すデータである。例えば、加速度データDdは、左コントローラ3および右コントローラ4それぞれに生じている重力加速度を除いて、XYZ軸方向に生じている加速度を示すデータ等を含んでいる。   The acceleration data Dd is data indicating the acceleration occurring in each of the left controller 3 and the right controller 4. For example, the acceleration data Dd includes data indicating the acceleration occurring in the XYZ axis directions, etc., excluding the gravitational acceleration occurring in each of the left controller 3 and the right controller 4.

閾値データDeは、左コントローラ3および右コントローラ4に対してそれぞれ行われた振り動作を判定するための閾値を示すデータである。カーブ値データDfは、第1オブジェクトG1および第2オブジェクトG2それぞれの移動方向や軌道を算出するためのカーブ値Cを示すデータである。回転速度データDgは、第1オブジェクトG1または第2オブジェクトG2が移動中における左コントローラ3および右コントローラ4の動き(回転速度V)を示すデータである。   The threshold value data De is data indicating a threshold value for determining a swinging motion performed on each of the left controller 3 and the right controller 4. The curve value data Df is data indicating the curve value C for calculating the moving directions and trajectories of the first object G1 and the second object G2. The rotation speed data Dg is data indicating the movement (rotation speed V) of the left controller 3 and the right controller 4 while the first object G1 or the second object G2 is moving.

振りフラグデータDhは、左コントローラ3および右コントローラ4それぞれが振り動かされたと判定された際にオンに設定される振りフラグを示すデータである。移動フラグデータDiは、第1オブジェクトG1および第2オブジェクトG2それぞれが仮想空間内を移動中である場合にオンに設定される移動フラグを示すデータである。アクションフラグデータDjは、第1オブジェクトG1および第2オブジェクトG2が組となったアクションが行われている場合にオンに設定されるアクションフラグを示すデータである。戻りフラグデータDkは、第1オブジェクトG1および第2オブジェクトG2それぞれが移動開始位置に戻る仮想空間内の復路を移動している場合にオンに設定される戻りフラグを示すデータである。移動開始可能フラグデータDlは、第1オブジェクトG1が第1移動開始可能状態となった場合および第2オブジェクトG2が第2移動開始可能状態となった場合にそれぞれオンに設定される移動開始可能フラグを示すデータである。   The swing flag data Dh is data indicating a swing flag that is set to ON when it is determined that the left controller 3 and the right controller 4 have been swung. The movement flag data Di is data indicating a movement flag that is set to ON when each of the first object G1 and the second object G2 is moving in the virtual space. The action flag data Dj is data indicating an action flag that is set to ON when the action in which the first object G1 and the second object G2 are paired is performed. The return flag data Dk is data indicating a return flag that is set to ON when each of the first object G1 and the second object G2 is moving on the return path in the virtual space returning to the movement start position. The movement startable flag data Dl is set to ON when the first object G1 is in the first movement startable state and when the second object G2 is in the second movement startable state. Is data indicating.

プレイヤオブジェクト位置データDmは、第1オブジェクトG1、第2オブジェクトG2、およびプレイヤオブジェクトPOの仮想空間における位置および方向(移動方向)をそれぞれ示すデータである。衝突領域データDnは、衝突領域Aの仮想空間における位置、形状、および範囲を示すデータである。敵オブジェクト位置データDoは、敵オブジェクトEOの仮想空間における位置および方向を示すデータや当該敵オブジェクトEOから放たれるオブジェクト(例えば、左グラブ(左拳)および右グラブ(右拳)を模したオブジェクト)の仮想空間における位置および方向を示すデータである。   The player object position data Dm is data indicating the position and direction (moving direction) of the first object G1, the second object G2, and the player object PO in the virtual space, respectively. The collision area data Dn is data indicating the position, shape, and range of the collision area A in the virtual space. The enemy object position data Do is data indicating the position and direction of the enemy object EO in the virtual space, and objects emitted from the enemy object EO (for example, an object imitating a left grab (left fist) and a right grab (right fist)). ) Is data indicating the position and direction in the virtual space.

画像データDpは、ゲームの際に本体装置2のディスプレイ12や据置型モニタ6の表示画面に画像(例えば、仮想オブジェクトの画像、フィールド画像、背景画像)を表示するためのデータである。   The image data Dp is data for displaying an image (for example, an image of a virtual object, a field image, a background image) on the display screen of the main body device 2 or the display screen of the stationary monitor 6 during a game.

次に、本実施形態における情報処理(ゲーム処理)の詳細な一例を説明する。図17は、情報処理システム1で実行されるゲーム処理の一例を示すフローチャートである。図18〜図19は、図17におけるステップS144およびステップS145において行われるコントローラ振り認識処理の詳細の一例を示すサブルーチンである。図20〜図22は、図17におけるステップS146およびステップS147において行われるオブジェクト軌道変化処理の詳細の一例を示すサブルーチンである。図23は、図17におけるステップS148において行われるプレイヤオブジェクト移動処理の詳細の一例を示すサブルーチンである。本実施形態においては、図17〜図23に示す一連の処理は、CPU81が各種プログラムPaに含まれる通信プログラムや所定のアプリケーションプログラム(ゲームプログラム)を実行することによって行われる。また、図17〜図23に示すゲーム処理が開始されるタイミングは任意である。   Next, a detailed example of information processing (game processing) in the present embodiment will be described. FIG. 17 is a flowchart showing an example of game processing executed by the information processing system 1. 18 to 19 are subroutines showing an example of details of the controller swing recognition processing performed in step S144 and step S145 in FIG. 20 to 22 are subroutines showing an example of details of the object trajectory change processing performed in step S146 and step S147 in FIG. FIG. 23 is a subroutine showing an example of details of the player object moving process performed in step S148 in FIG. In the present embodiment, the series of processes shown in FIGS. 17 to 23 is performed by the CPU 81 executing a communication program included in the various programs Pa or a predetermined application program (game program). The timing at which the game process shown in FIGS. 17 to 23 is started is arbitrary.

なお、図17〜図23に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えて(または代えて)別の処理が実行されてもよい。また、本実施形態では、上記フローチャートの各ステップの処理をCPU81が実行するものとして説明するが、上記フローチャートにおける一部のステップの処理を、CPU81以外のプロセッサや専用回路が実行するようにしてもよい。また、本体装置2において実行される処理の一部は、本体装置2と通信可能な他の情報処理装置(例えば、本体装置2とネットワークを介して通信可能なサーバ)によって実行されてもよい。すなわち、図17〜図23に示す各処理は、本体装置2を含む複数の情報処理装置が協働することによって実行されてもよい。   It should be noted that the processing of each step in the flowcharts shown in FIGS. 17 to 23 is merely an example, and the processing order of each step may be changed or the processing of each step may be changed as long as the same result is obtained. In addition (or instead) another process may be performed. Further, in the present embodiment, the processing of each step of the flowchart is described as being executed by the CPU 81, but the processing of some steps in the flowchart may be executed by a processor other than the CPU 81 or a dedicated circuit. Good. In addition, a part of the processing executed by the main body device 2 may be executed by another information processing device that can communicate with the main body device 2 (for example, a server that can communicate with the main body device 2 via a network). That is, each processing illustrated in FIGS. 17 to 23 may be executed by cooperation of a plurality of information processing devices including the main body device 2.

図17において、CPU81は、ゲーム処理における初期設定を行い(ステップS141)、次のステップに処理を進める。例えば、上記初期設定では、CPU81は、以下に説明する処理を行うためのパラメータを初期化する。また、上記初期設定では、CPU81は、ゲームプレイを行うためのゲームフィールドを設定し、当該ゲームフィールド上のプレイヤオブジェクトPOや敵オブジェクトEOの初期位置を設定してプレイヤオブジェクト位置データDmおよび敵オブジェクト位置データDoを更新する。また、CPU81は、第1オブジェクトG1および第2オブジェクトG2の移動方向をデフォルト値(例えば、正面方向)に初期設定してプレイヤオブジェクト位置データDmを更新する。また、CPU81は、移動開始可能フラグデータDlが示す移動開始可能フラグをオンに初期設定する。   In FIG. 17, the CPU 81 performs initial setting in the game processing (step S141) and advances the processing to the next step. For example, in the above initial setting, the CPU 81 initializes the parameters for performing the processing described below. Further, in the above initial setting, the CPU 81 sets a game field for performing game play, sets initial positions of the player object PO and the enemy object EO on the game field, and sets the player object position data Dm and the enemy object position. The data Do is updated. Further, the CPU 81 initializes the moving directions of the first object G1 and the second object G2 to default values (for example, the front direction) and updates the player object position data Dm. Further, the CPU 81 initializes the movement start possibility flag indicated by the movement start possibility flag data Dl to ON.

次に、CPU81は、左コントローラ3および右コントローラ4から操作データを取得して操作データDaを更新し(ステップS142)、次のステップに処理を進める。   Next, the CPU 81 acquires operation data from the left controller 3 and the right controller 4, updates the operation data Da (step S142), and advances the processing to the next step.

次に、CPU81は、左コントローラ3および右コントローラ4それぞれの姿勢、角速度、加速度を算出し(ステップS143)、次のステップに処理を進める。例えば、CPU81は、左コントローラ3および右コントローラ4それぞれに生じている加速度を示すデータを操作データDaから取得し、左コントローラ3および右コントローラ4それぞれに作用している重力加速度の方向を算出して、当該方向を示すデータを用いて姿勢データDbを更新する。重力加速度を抽出する方法については任意の方法を用いればよく、例えば左コントローラ3および右コントローラ4それぞれに平均的に生じている加速度成分を算出して当該加速度成分を重力加速度として抽出してもよい。そして、CPU81は、左コントローラ3に対して算出された重力加速度の方向を基準とした左コントローラ3のXYZ軸方向を左コントローラ3の姿勢として算出し、当該姿勢を示すデータを用いて姿勢データDbを更新する。また、CPU81は、右コントローラ4に対して算出された重力加速度の方向を基準とした右コントローラ4のXYZ軸方向を右コントローラ4の姿勢として算出し、当該姿勢を示すデータを用いて姿勢データDbを更新する。また、CPU81は、左コントローラ3および右コントローラ4それぞれに生じている角速度を示すデータを操作データDaから取得し、左コントローラ3および右コントローラ4それぞれのXYZ軸周りの角速度を算出して、当該角速度を示すデータを用いて角速度データDcを更新する。さらに、CPU81は、左コントローラ3および右コントローラ4それぞれに生じている加速度を示すデータを操作データDaから取得し、左コントローラ3および右コントローラ4それぞれに生じているXYZ軸方向の加速度から上記重力加速度成分を除去して、当該除去後の加速度を示すデータを用いて加速度データDdを更新する。   Next, the CPU 81 calculates the posture, angular velocity, and acceleration of each of the left controller 3 and the right controller 4 (step S143), and advances the processing to the next step. For example, the CPU 81 acquires from the operation data Da the data indicating the accelerations occurring in the left controller 3 and the right controller 4, respectively, and calculates the direction of the gravitational acceleration acting on the left controller 3 and the right controller 4. The posture data Db is updated using the data indicating the direction. Any method may be used as the method of extracting the gravitational acceleration, and for example, the acceleration components that are generated on average in the left controller 3 and the right controller 4 may be calculated and the acceleration components may be extracted as the gravitational acceleration. .. Then, the CPU 81 calculates the XYZ axis directions of the left controller 3 based on the direction of the gravitational acceleration calculated for the left controller 3 as the attitude of the left controller 3, and uses the data indicating the attitude to calculate the attitude data Db. To update. Further, the CPU 81 calculates the XYZ axis directions of the right controller 4 based on the direction of the gravitational acceleration calculated for the right controller 4 as the attitude of the right controller 4, and uses the data indicating the attitude to calculate the attitude data Db. To update. Further, the CPU 81 acquires data indicating the angular velocities generated in the left controller 3 and the right controller 4 from the operation data Da, calculates the angular velocities around the XYZ axes of the left controller 3 and the right controller 4, and then calculates the angular velocities. The angular velocity data Dc is updated using the data indicating Further, the CPU 81 acquires data indicating the acceleration generated in each of the left controller 3 and the right controller 4 from the operation data Da, and based on the acceleration in the XYZ axis directions generated in each of the left controller 3 and the right controller 4, the gravity acceleration described above. The component is removed, and the acceleration data Dd is updated using the data indicating the acceleration after the removal.

なお、左コントローラ3や右コントローラ4の姿勢については、重力加速度を基準としたXYZ軸方向が算出された以降は、XYZ各軸周りの角速度のみに応じて更新してもよい。しかしながら、左コントローラ3や右コントローラ4の姿勢と重力加速度の方向との関係が誤差の累積によってずれていくことを防止するために、所定周期毎に重力加速度の方向に対するXYZ軸方向を算出して左コントローラ3や右コントローラ4の姿勢を修正してもよい。   Note that the postures of the left controller 3 and the right controller 4 may be updated according to only the angular velocities around the XYZ axes after the XYZ axis directions based on the gravitational acceleration are calculated. However, in order to prevent the relationship between the attitudes of the left controller 3 and the right controller 4 and the direction of the gravitational acceleration from shifting due to the accumulation of errors, the XYZ axis directions with respect to the direction of the gravitational acceleration are calculated at predetermined intervals. The postures of the left controller 3 and the right controller 4 may be corrected.

次に、CPU81は、左コントローラ振り認識処理を行い(ステップS144)、次のステップに処理を進める。以下、図18〜図19を参照して、上記ステップS144において行う左コントローラ振り認識処理について説明する。   Next, the CPU 81 performs left controller swing recognition processing (step S144), and advances the processing to the next step. The left controller swing recognition process performed in step S144 will be described below with reference to FIGS. 18 to 19.

図18において、CPU81は、左コントローラ3の処理に対して設定されている振りフラグをオフに設定して振りフラグデータDhを更新し、次のステップに処理を進める。   In FIG. 18, the CPU 81 updates the swing flag data Dh by setting the swing flag set for the processing of the left controller 3 to OFF, and advances the processing to the next step.

次に、CPU81は、左コントローラ3に対する振り判定を除外するか否かを判定する(ステップS162)。例えば、CPU81は、左コントローラ3が振り戻されている状態である場合、振り判定を除外する。そして、CPU81は、左コントローラ3の振り判定を除外する場合、ステップS163に処理を進める。一方、CPU81は、左コントローラ3が振り判定を行う場合、ステップS164に処理を進める。   Next, the CPU 81 determines whether to exclude the swing determination for the left controller 3 (step S162). For example, the CPU 81 excludes the swing determination when the left controller 3 is in the swing-back state. Then, when the swing determination of the left controller 3 is excluded, the CPU 81 advances the process to step S163. On the other hand, when the left controller 3 makes a swing determination, the CPU 81 advances the process to step S164.

左コントローラ3が振り戻されている状態であると判定する方法の第1の例として、CPU81は、姿勢データDbを参照して左コントローラ3のY軸周りの角速度を取得し、左コントローラ3が手前側への回転(例えば、Z軸正方向が手前側に向く回転)をしている場合、上記ステップS162において肯定判定する。左コントローラ3が振り戻されている状態であると判定する方法の第2の例として、CPU81は、姿勢データDbを参照して左コントローラ3の姿勢を取得し、当該左コントローラ3が重力加速度の方向に対して後傾している姿勢(例えば、左コントローラ3のX軸正方向が実空間に対して水平方向より上を向いている姿勢)でとなっている場合、CPU81は、上記ステップS162において肯定判定する。左コントローラ3が振り戻されている状態であると判定する方法の第3の例として、CPU81は、加速度データDdを参照して左コントローラ3に生じている加速度を取得し、当該左コントローラ3がプレイヤへの方向に移動している(例えば、左コントローラ3に生じている加速度に左コントローラ3のX軸負方向成分が含まれている)場合、CPU81は、上記ステップS162において肯定判定する。   As a first example of the method for determining that the left controller 3 is in the state of being swung back, the CPU 81 acquires the angular velocity around the Y axis of the left controller 3 by referring to the posture data Db, and the left controller 3 When the rotation is made to the front side (for example, the Z-axis positive direction is turned to the front side), the affirmative determination is made in step S162. As a second example of the method for determining that the left controller 3 is in the state of being swung back, the CPU 81 acquires the posture of the left controller 3 by referring to the posture data Db, and the left controller 3 detects the gravity acceleration. In the case where the CPU 81 is tilted backward with respect to the direction (for example, the X-axis positive direction of the left controller 3 is above the horizontal direction in the real space), the CPU 81 causes the step S162 to be performed. In the affirmative judgment. As a third example of the method for determining that the left controller 3 is in the state of being swung back, the CPU 81 refers to the acceleration data Dd to acquire the acceleration occurring in the left controller 3, and the left controller 3 concerned When moving toward the player (for example, the acceleration occurring in the left controller 3 includes the X-axis negative direction component of the left controller 3), the CPU 81 makes an affirmative decision in step S162.

ステップS163において、CPU81は、現時点において左コントローラ3に生じている加速度の大きさが左コントローラ3の振り判定をするための閾値より大きい場合、現時点において左コントローラ3に生じている加速度の大きさを当該閾値として設定して閾値データDeを更新し、ステップS164に処理を進める。ここで、後述により明らかとなるが、本実施例では、左コントローラ3に生じている加速度のうち、Y軸方向成分を除いた加速度(以下、XZ加速度と記載する)の大きさが閾値を越えた場合に、左コントローラ3が振り動かされたと判定している。上記ステップS163では、現時点において左コントローラ3に生じている加速度の大きさ(すなわち、現時点において左コントローラ3に生じている加速度からY軸方向成分の加速度を除いた大きさ)が上記閾値より大きい場合に、当該加速度の大きさを上記振り判定で用いる閾値として設定することによって、上記振り判定において否定判定されることになる。つまり、上記ステップS163は、左コントローラ3が振り戻されている状態となっている場合に実行される処理であり、左コントローラ3がパンチを繰り出す動作の前後で振り戻されているような場合に左コントローラ3がパンチを繰り出すように振られていると誤判定することを防止することができる。   In step S163, when the magnitude of acceleration currently occurring in the left controller 3 is larger than the threshold value for making a swing determination of the left controller 3, the CPU 81 determines the magnitude of acceleration currently occurring in the left controller 3. It is set as the threshold and the threshold data De is updated, and the process proceeds to step S164. Here, as will be described later, in the present embodiment, the magnitude of the acceleration (hereinafter, referred to as XZ acceleration) excluding the Y-axis direction component of the acceleration occurring in the left controller 3 exceeds the threshold value. When it is determined that the left controller 3 has been shaken. In step S163, if the magnitude of the acceleration currently occurring in the left controller 3 (that is, the magnitude obtained by subtracting the acceleration in the Y-axis direction component from the acceleration currently occurring in the left controller 3) is larger than the threshold value. Further, by setting the magnitude of the acceleration as a threshold value used in the swing determination, a negative determination is made in the swing determination. That is, the step S163 is a process executed when the left controller 3 is in the state of being swung back, and when the left controller 3 is swung before and after the punch feeding operation. It is possible to prevent the left controller 3 from erroneously determining that the left controller 3 is swung so as to feed the punch.

ステップS164において、CPU81は、左コントローラ3に生じているXZ加速度の大きさが上記閾値より大きいか否かを判定する。そして、CPU81は、左コントローラ3に生じているXZ加速度の大きさが上記閾値より大きい場合、ステップS165に処理を進める。一方、CPU81は、左コントローラ3に生じているXZ加速度の大きさが上記閾値以下である場合、ステップS168に処理を進める。ここで、本実施例では、左コントローラ3がパンチを繰り出すように、すなわち左コントローラ3がX軸正方向へ移動するように振り動かされたか否かを判定するために、左コントローラ3に生じている加速度のうち、Y軸方向成分を除いたXZ加速度の大きさと所定値(上記ステップS163や後述するステップS167またはステップS168において設定される閾値)とが比較される。したがって、上記ステップS164においては、CPU81は、加速度データDdを参照して左コントローラ3のX軸方向およびZ軸方向それぞれに生じている加速度を取得し、当該加速度を用いて左コントローラ3に生じているXZ加速度の大きさを算出する。そして、左コントローラ3が振り戻されている状態ではない場合、XZ加速度の大きさが所定値または当該所定値に近づいた閾値を越えていれば、左コントローラ3がパンチを繰り出すように振られたと判定する。   In step S164, the CPU 81 determines whether or not the magnitude of the XZ acceleration occurring in the left controller 3 is larger than the above threshold value. Then, when the magnitude of the XZ acceleration occurring in the left controller 3 is larger than the threshold value, the CPU 81 advances the process to step S165. On the other hand, if the magnitude of the XZ acceleration occurring in the left controller 3 is equal to or less than the threshold value, the CPU 81 advances the process to step S168. Here, in the present embodiment, in order to determine whether or not the left controller 3 has been swung so as to feed the punch, that is, the left controller 3 is moved so as to move in the positive direction of the X-axis, the left controller 3 is generated. Among the accelerations, the magnitude of the XZ acceleration excluding the Y-axis direction component is compared with a predetermined value (a threshold value set in the above step S163 or step S167 or step S168 described later). Therefore, in step S164, the CPU 81 refers to the acceleration data Dd to obtain the accelerations generated in the X-axis direction and the Z-axis direction of the left controller 3, and uses the accelerations to generate the accelerations in the left controller 3. The magnitude of the XZ acceleration present is calculated. Then, when the left controller 3 is not in the state of being swung back, if the magnitude of the XZ acceleration exceeds the predetermined value or the threshold value approaching the predetermined value, the left controller 3 is swung so as to extend the punch. judge.

ステップS165において、CPU81は、一時変数Bが0であるか否かを判定する。そして、CPU81は、一時変数Bが0である場合、ステップS166に処理を進める。一方、CPU81は、一時変数Bが0でない場合、ステップS167に処理を進める。   In step S165, the CPU 81 determines whether or not the temporary variable B is 0. Then, when the temporary variable B is 0, the CPU 81 advances the process to step S166. On the other hand, if the temporary variable B is not 0, the CPU 81 advances the process to step S167.

ステップS166において、CPU81は、左コントローラ3の処理に対して設定されている振りフラグをオンに設定して振りフラグデータDhを更新し、一時変数Bとして所定フレーム数を設定して、ステップS167に処理を進める。このように、左コントローラ3の処理に対して設定されている振りフラグは、左コントローラ3がパンチを繰り出すように振られたと判定され、かつ一時変数Bが0である場合にオンに設定される。   In step S166, the CPU 81 sets the swing flag set for the processing of the left controller 3 to ON, updates the swing flag data Dh, sets a predetermined number of frames as the temporary variable B, and proceeds to step S167. Proceed with processing. As described above, the swing flag set for the processing of the left controller 3 is set to ON when it is determined that the left controller 3 is swung to extend the punch and the temporary variable B is 0. .

ここで、上記ステップS166において、一時変数Bとして設定する所定フレーム数は、左コントローラ3がパンチを繰り出すように振られたと判定された直後に次の振り判定を除外する期間(振りフラグをオンに設定できない期間)を一時的に設定するものであり、本実施例では一例として12フレームに設定する。例えば、左コントローラ3が振り動かされていると判定された後であっても、左コントローラ3に生じている加速度の上昇が継続することがあり得る。このような場合、上記ステップS164における振り判定では肯定判定が連続することになるが、このような肯定判定を全て左コントローラ3がパンチを繰り出すように振られたと見なすと意図しているパンチの判定ができなくなる。したがって、本実施例では、左コントローラ3がパンチを繰り出すように振られたと判定された後の所定期間(例えば、12フレーム)は、当該判定されることを除外している。なお、他の例として、左コントローラ3がパンチを繰り出すように振られたと判定されて振りフラグがオンに設定されてから、左コントローラ3に生じている加速度の上昇(具体的には、XZ加速度の上昇)が継続している期間を、振りフラグが再度オンに設定できない期間として設定してもよい。   Here, in step S166, the predetermined number of frames to be set as the temporary variable B is the period during which the next swing determination is excluded immediately after it is determined that the left controller 3 is swung so as to perform punching (the swing flag is turned on. The period (which cannot be set) is temporarily set, and in this embodiment, it is set to 12 frames as an example. For example, the acceleration of the left controller 3 may continue to increase even after it is determined that the left controller 3 is being swung. In such a case, the positive determination is continuous in the swing determination in step S164, but the determination of the punch intended to regard all such positive determination as being swung so that the left controller 3 delivers the punch is performed. Can not be. Therefore, in the present embodiment, the determination is excluded for a predetermined period (for example, 12 frames) after it is determined that the left controller 3 has been shaken so as to perform punching. As another example, since it is determined that the left controller 3 has been swung to extend the punch and the swing flag is set to ON, an increase in the acceleration occurring in the left controller 3 (specifically, the XZ acceleration). May be set as a period during which the swing flag cannot be set to ON again.

ステップS167において、CPU81は、左コントローラ3の振り判定をするための閾値として、現時点において左コントローラ3に生じている加速度の大きさを設定して閾値データDeを更新し、ステップS169に処理を進める。   In step S167, the CPU 81 sets the magnitude of acceleration currently occurring in the left controller 3 as a threshold value for determining the swing of the left controller 3, updates the threshold data De, and advances the processing to step S169. .

一方、上記ステップS164において左コントローラ3に生じているXZ加速度の大きさが上記閾値以下であると判定された場合、CPU81は、左コントローラ3の振り判定をするための閾値を予め定められた所定値に近づけて閾値データDeを更新し、ステップS169に処理を進める。一例として、CPU81は、閾値データDeが示す閾値を所定量だけ上記所定値に近づけて新たな閾値を設定し、当該閾値を用いて閾値データDeを更新する。他の例として、CPU81は、閾値データDeが示す閾値を所定割合だけ上記所定値に近づけて新たな閾値を設定し、当該閾値を用いて閾値データDeを更新する。このように左コントローラ3の振り判定をするための閾値を予め定められた所定値に近づけることによって、上記ステップS163やステップS167が実行されることによって上記閾値が上昇したとしても、所定時間経過後には意図している所定値を用いてコントローラの振り判定を行うことができる。   On the other hand, when it is determined in step S164 that the magnitude of the XZ acceleration occurring in the left controller 3 is less than or equal to the threshold value, the CPU 81 sets a threshold value for determining the swing of the left controller 3 to a predetermined value. The threshold value De is updated to be closer to the value, and the process proceeds to step S169. As an example, the CPU 81 sets a new threshold value by bringing the threshold value indicated by the threshold value data De close to the predetermined value by a predetermined amount, and updates the threshold value data De using the threshold value. As another example, the CPU 81 sets a new threshold value by bringing the threshold value indicated by the threshold value data De close to the predetermined value by a predetermined rate, and updates the threshold value data De using the threshold value. By thus approaching the threshold value for the swing determination of the left controller 3 to a predetermined value set in advance, even if the threshold value rises due to execution of steps S163 and S167, after a predetermined time has elapsed Can perform the swing determination of the controller using an intended predetermined value.

ステップS169において、CPU81は、一時変数Bが0より大きいか否かを判定する。そして、CPU81は、一時変数Bが0より大きい場合、ステップS170に処理を進める。一方、CPU81は、一時変数Bが0である場合、ステップS171(図19参照)に処理を進める。   In step S169, the CPU 81 determines whether the temporary variable B is larger than 0. Then, if the temporary variable B is larger than 0, the CPU 81 advances the process to step S170. On the other hand, when the temporary variable B is 0, the CPU 81 advances the process to step S171 (see FIG. 19).

ステップS170において、CPU81は、一時変数Bから1減算して新たな一時変数Bを設定し、ステップS171(図19参照)に処理を進める。   In step S170, the CPU 81 subtracts 1 from the temporary variable B to set a new temporary variable B, and advances the process to step S171 (see FIG. 19).

図19に進み、ステップS171において、CPU81は、振りフラグデータDhを参照して左コントローラ3の処理に対して設定されている振りフラグがオンに設定されているか否かを判定する。そして、CPU81は、左コントローラ3の処理に対して設定されている振りフラグがオンに設定されている場合、ステップS172に処理を進める。一方、CPU81は、左コントローラ3の処理に対して設定されている振りフラグがオフに設定されている場合、ステップS173に処理を進める。   Proceeding to FIG. 19, in step S171, the CPU 81 refers to the swing flag data Dh and determines whether or not the swing flag set for the processing of the left controller 3 is set to ON. Then, when the swing flag set for the processing of the left controller 3 is set to ON, the CPU 81 advances the processing to step S172. On the other hand, when the swing flag set for the process of the left controller 3 is set to OFF, the CPU 81 advances the process to step S173.

ステップS172において、CPU81は、左コントローラ3がパンチを繰り出すように振られたと判定された後の処理フレーム数をカウントするための一時変数Sとして所定フレーム数を設定し、ステップS175に処理を進める。ここで、一時変数Sとして設定する所定フレーム数は、左コントローラ3がパンチを繰り出すように振られたと判定されてから所定時間以内に第1移動開始可能状態になった場合に第1オブジェクトG1の移動を開始するための処理を行うための当該所定時間に相当するパラメータであり、本実施例では一例として15フレームに設定する。したがって、上記第1移動開始可能状態でない場合であっても、左コントローラ3がパンチを繰り出すように振られたと判定されてから15フレーム以内に上記第1移動開始可能状態になった場合は、第1オブジェクトG1の移動を開始するための処理が行われることになる。   In step S172, the CPU 81 sets a predetermined number of frames as a temporary variable S for counting the number of processing frames after it is determined that the left controller 3 has been shaken to move the punch, and the process proceeds to step S175. Here, the predetermined number of frames set as the temporary variable S is the first object G1 when the first controller G1 is in the first movement startable state within a predetermined time after it is determined that the left controller 3 has been swung to move the punch. It is a parameter corresponding to the predetermined time for performing the process for starting the movement, and is set to 15 frames as an example in the present embodiment. Therefore, even if it is not in the first movement startable state, if the first movement startable state is reached within 15 frames after it is determined that the left controller 3 has been swung to extend the punch, Processing for starting the movement of the one object G1 is performed.

一方、上記ステップS171において、振りフラグがオフに設定されていると判定された場合、CPU81は、一時変数Sが0より大きいか否かを判定する。そして、CPU81は、一時変数Sが0より大きい場合、ステップS174に処理を進める。一方、CPU81は、一時変数Sが0である場合、ステップS175に処理を進める。   On the other hand, when it is determined in step S171 that the swing flag is set to OFF, the CPU 81 determines whether or not the temporary variable S is greater than 0. Then, if the temporary variable S is larger than 0, the CPU 81 advances the process to step S174. On the other hand, when the temporary variable S is 0, the CPU 81 advances the process to step S175.

ステップS174において、CPU81は、一時変数Sから1減算して新たな一時変数Sを設定し、ステップS175に処理を進める。   In step S174, the CPU 81 subtracts 1 from the temporary variable S to set a new temporary variable S, and advances the processing to step S175.

ステップS175において、CPU81は、一時変数Sが0より大きいか否かを判定する。そして、CPU81は、一時変数Sが0より大きい場合、ステップS176に処理を進める。一方、CPU81は、一時変数Sが0である場合、当該サブルーチンによる処理を終了する。   In step S175, the CPU 81 determines whether or not the temporary variable S is larger than 0. Then, if the temporary variable S is greater than 0, the CPU 81 advances the process to step S176. On the other hand, when the temporary variable S is 0, the CPU 81 ends the process of this subroutine.

ステップS176において、CPU81は、移動開始可能フラグデータDlを参照して第1オブジェクトG1の処理に対して設定されている移動開始可能フラグがオンに設定されているか否かを判定する。そして、CPU81は、第1オブジェクトG1の処理に対して設定されている移動開始可能フラグがオンに設定されている場合、ステップS177に処理を進める。一方、CPU81は、第1オブジェクトG1の処理に対して設定されている移動開始可能フラグがオフに設定されている場合、当該サブルーチンを用いた処理を終了する。   In step S176, the CPU 81 refers to the movement start possibility flag data Dl and determines whether the movement start possibility flag set for the process of the first object G1 is set to ON. Then, the CPU 81 advances the process to step S177 when the movement startable flag set for the process of the first object G1 is set to ON. On the other hand, when the movement start enable flag set for the process of the first object G1 is set to OFF, the CPU 81 ends the process using the subroutine.

ステップS177において、CPU81は、第1オブジェクトG1の処理に対して設定されている移動フラグをオンに設定して移動フラグデータDiを更新し、次のステップに処理を進める。このように、左コントローラ3がパンチを繰り出すように振られたと判定されたときだけではなく、当該判定後であっても所定フレーム数(例えば、15フレーム)が経過する前に、移動開始可能フラグがオン(すなわち、第1移動開始可能状態)になれば、第1オブジェクトG1の処理に対して設定されている移動フラグがオンに設定される。   In step S177, the CPU 81 sets the movement flag set for the processing of the first object G1 to ON to update the movement flag data Di, and advances the processing to the next step. Thus, not only when it is determined that the left controller 3 is swung to extend the punch, but also after the determination, before the predetermined number of frames (for example, 15 frames) has elapsed, the movement start possible flag is set. Is turned on (that is, the first movement startable state), the movement flag set for the process of the first object G1 is set to on.

次に、CPU81は、第1オブジェクトG1の処理に対して設定されている移動開始可能フラグをオフに設定して移動開始可能フラグデータDlを更新し、一時変数Sを0に設定して(ステップS178)、次のステップに処理を進める。このように、第1オブジェクトG1が仮想空間内を移動することを示す移動フラグがオンに設定された場合、第1移動開始可能状態ではなくなるため第1オブジェクトG1の移動開始可能フラグがオフに設定されるとともに、上記所定フレーム数も0に設定される。なお、プレイヤオブジェクトPOが敵オブジェクトEOに対して攻撃できない状態(例えば、プレイヤオブジェクトPOがダメージを受けて一時的にダウンしている状態)である場合、移動開始可能フラグを適宜オフに設定して移動開始可能フラグデータDlを設定してもよい。この場合、プレイヤオブジェクトPOが上記攻撃できない状態から回復した場合に、移動開始可能フラグがオンに設定される。   Next, the CPU 81 sets the movement start possibility flag set for the processing of the first object G1 to off, updates the movement start possibility flag data D1, and sets the temporary variable S to 0 (step (S178), the process proceeds to the next step. As described above, when the movement flag indicating that the first object G1 moves in the virtual space is set to ON, the movement start enable flag of the first object G1 is set to OFF because the first movement start enable state is lost. At the same time, the predetermined number of frames is also set to zero. If the player object PO is in a state in which it cannot attack the enemy object EO (for example, the player object PO is damaged and is temporarily down), the movement startable flag is appropriately set to OFF. The movement startable flag data Dl may be set. In this case, when the player object PO recovers from the state where it cannot attack, the movement startable flag is set to ON.

次に、CPU81は、現時点が第2オブジェクトG2を移動開始してから所定フレーム数(例えば、4フレーム数)以内か否かを判定する(ステップS179)。例えば、CPU81は、後述するステップS145において左コントローラ振り認識処理と同様の処理を右コントローラ4に対しても行っており、現時点が当該ステップS145において右コントローラ4の処理に対して設定されている移動フラグがオンされてから所定フレーム数以内であれば、上記ステップS179において肯定判定する。そして、CPU81は、現時点が第2オブジェクトG2を移動開始してから所定フレーム数以内である場合、ステップS180に処理を進める。一方、CPU81は、現時点が第2オブジェクトG2を移動開始してから所定フレーム数以内でない場合、当該サブルーチンを用いた処理を終了する。   Next, the CPU 81 determines whether or not the current time point is within a predetermined number of frames (for example, four frames) after the movement of the second object G2 is started (step S179). For example, the CPU 81 performs the same process as the left controller swing recognition process on the right controller 4 in step S145 described later, and the movement currently set for the process of the right controller 4 in step S145. If it is within the predetermined number of frames after the flag is turned on, an affirmative decision is made in step S179. Then, if the current time point is within the predetermined number of frames after the movement of the second object G2 is started, the CPU 81 advances the process to step S180. On the other hand, when the current time point is not within the predetermined number of frames after the movement of the second object G2 is started, the CPU 81 ends the process using the subroutine.

ステップS180において、CPU81は、アクションフラグをオンに設定してアクションフラグデータDjを更新し、当該サブルーチンを用いた処理を終了する。このように、第1オブジェクトG1および第2オブジェクトG2の一方のオブジェクトが移動開始してから所定フレーム数以内に、他方のオブジェクトが移動開始した場合、アクションフラグがオンに設定される。   In step S180, the CPU 81 sets the action flag to ON, updates the action flag data Dj, and ends the process using the subroutine. In this way, when one of the first object G1 and the second object G2 starts moving, and the other object starts moving within a predetermined number of frames, the action flag is set to ON.

図17に戻り、上記ステップS144における左コントローラ振り認識処理の後、CPU81は、右コントローラ振り認識処理を行い(ステップS145)、次のステップに処理を進める。なお、図18および図19を用いて説明したコントローラ振り認識処理は、上記ステップS145の右コントローラ振り認識処理においても用いられるサブルーチンである。すなわち、上記左コントローラ振り認識処理において処理対象としていた左コントローラ3および第1オブジェクトG1を右コントローラ4および第2オブジェクトG2にすることによって、同じサブルーチンを用いることによって同様の処理が可能となる。したがって、上記ステップS145の右コントローラ振り認識処理の詳細な説明については省略する。   Returning to FIG. 17, after the left controller swing recognition processing in step S144, the CPU 81 performs the right controller swing recognition processing (step S145) and advances the processing to the next step. The controller swing recognition processing described with reference to FIGS. 18 and 19 is a subroutine used also in the right controller swing recognition processing in step S145. That is, the same processing can be performed by using the same subroutine by changing the left controller 3 and the first object G1 which are the processing targets in the left controller swing recognition processing to the right controller 4 and the second object G2. Therefore, a detailed description of the right controller swing recognition processing in step S145 is omitted.

次に、CPU81は、第1オブジェクト軌道変化処理を行い(ステップS146)、次のステップに処理を進める。以下、図20〜図22を参照して、上記ステップS146において行う第1オブジェクト軌道変化処理について説明する。   Next, the CPU 81 performs a first object trajectory change process (step S146), and advances the process to the next step. Hereinafter, the first object trajectory change process performed in step S146 will be described with reference to FIGS.

図20において、CPU81は、移動フラグデータDiを参照して第1オブジェクトG1の処理に対して設定されている移動フラグがオンに設定されているか否かを判定する(ステップS191)。そして、CPU81は、第1オブジェクトG1の処理に対して設定されている移動フラグがオンに設定されている場合、ステップS192に処理を進める。一方、CPU81は、第1オブジェクトG1の処理に対して設定されている移動フラグがオフに設定されている場合、当該サブルーチンを用いた処理を終了する。   In FIG. 20, the CPU 81 refers to the movement flag data Di and determines whether or not the movement flag set for the process of the first object G1 is set to ON (step S191). Then, when the movement flag set for the process of the first object G1 is set to ON, the CPU 81 advances the process to step S192. On the other hand, when the movement flag set for the process of the first object G1 is set to OFF, the CPU 81 ends the process using the subroutine.

ステップS192において、CPU81は、一時変数Sが所定数以上か否かを判定する。そして、CPU81は、一時変数Sが所定数以上である場合、ステップS193に処理を進める。一方、CPU81は、一時変数Sが所定数未満である場合、ステップS211(図21参照)に処理を進める。ここで、上記ステップS192では、左コントローラ3がパンチを繰り出すように振られたと判定されてから当該パンチ操作が終わるまでの期間であるか否かを判定しており、パンチ操作中であると判定される場合とパンチ操作が終わったと判定される場合とによって異なる軌道設定を行っている。したがって、上記ステップS192で用いる所定数は、上記期間を判別可能なフレーム数に設定すればよく、例えば所定数=7に設定される。   In step S192, the CPU 81 determines whether or not the temporary variable S is a predetermined number or more. Then, when the temporary variable S is equal to or larger than the predetermined number, the CPU 81 advances the process to step S193. On the other hand, when the temporary variable S is less than the predetermined number, the CPU 81 advances the process to step S211 (see FIG. 21). Here, in step S192, it is determined whether or not it is a period from when it is determined that the left controller 3 has been shaken so as to feed the punch to when the punch operation is completed, and it is determined that the punch operation is being performed. Different trajectory settings are made depending on whether the punch operation is completed or the punch operation is determined to be completed. Therefore, the predetermined number used in step S192 may be set to the number of frames in which the period can be discriminated. For example, the predetermined number = 7.

ステップS193において、CPU81は、重力加速度の方向に対する左コントローラ3のY軸方向の傾きを算出し、次のステップに処理を進める。例えば、CPU81は、姿勢データDbを参照して左コントローラ3の姿勢を取得し、重力加速度の方向に対する当該左コントローラ3のY軸方向の傾きを算出する。   In step S193, the CPU 81 calculates the inclination of the left controller 3 in the Y-axis direction with respect to the direction of gravitational acceleration, and advances the processing to the next step. For example, the CPU 81 acquires the attitude of the left controller 3 with reference to the attitude data Db, and calculates the tilt of the left controller 3 in the Y-axis direction with respect to the direction of gravitational acceleration.

次に、CPU81は、左コントローラ3のY軸方向の傾き角度に応じて、第1オブジェクトG1のカーブ値Cを算出してカーブ値データDfを更新し(ステップS194)、ステップS195に処理を進める。ここで、第1オブジェクトG1のカーブ値Cは、第1オブジェクトG1の軌道を左右に変化させるための係数であり、例えば−1≦C≦1となるように設定される。そして、上記ステップS194では、左コントローラ3のY軸方向がX軸正方向に向かって右に傾いている場合にカーブ値Cを正の値に設定し、当該Y軸方向が水平方向に対して右に40°傾いている場合にC=1に設定され、当該Y軸方向が水平方向に対して右に40°以上傾いたとしてもCが上限値である1に設定される。また、左コントローラ3のY軸方向がX軸正方向に向かって左に傾いている場合にカーブ値Cを負の値に設定し、当該Y軸方向が水平方向に対して左に40°傾いている場合にC=−1に設定され、当該Y軸方向が水平方向に対して左に40°以上傾いたとしてもCが下限値である−1に設定される。   Next, the CPU 81 calculates the curve value C of the first object G1 and updates the curve value data Df according to the tilt angle of the left controller 3 in the Y-axis direction (step S194), and advances the process to step S195. . Here, the curve value C of the first object G1 is a coefficient for changing the trajectory of the first object G1 to the left and right, and is set to be, for example, −1 ≦ C ≦ 1. Then, in step S194, the curve value C is set to a positive value when the Y-axis direction of the left controller 3 is tilted rightward toward the X-axis positive direction, and the Y-axis direction is set to the horizontal direction. When tilted to the right by 40 °, C = 1 is set, and even when the Y-axis direction is tilted to the right by 40 ° or more with respect to the horizontal direction, C is set to 1 which is the upper limit value. Further, when the Y-axis direction of the left controller 3 is tilted leftward in the X-axis positive direction, the curve value C is set to a negative value, and the Y-axis direction is tilted 40 ° to the left with respect to the horizontal direction. Is set to C = −1, and C is set to the lower limit value of −1 even if the Y-axis direction inclines to the left by 40 ° or more with respect to the horizontal direction.

一方、図21に示すように、一時変数Sが所定数未満である場合、CPU81は、重力加速度方向周りの左コントローラ3の回転速度Vを算出し(ステップS211)、次のステップに処理を進める。例えば、CPU81は、姿勢データDbを参照して左コントローラ3に作用している重力加速度の方向を取得する。また、CPU81は、角速度データDcを参照して左コントローラ3に生じているXYZ軸周りの角速度を取得する。そして、CPU81は、XYZ各軸周り角速度および重力加速度の方向を用いて重力加速度方向周りの左コントローラ3の角速度を算出し、当該角速度に応じた左コントローラ3の回転速度Vを算出して回転速度データDgを更新する。   On the other hand, as shown in FIG. 21, when the temporary variable S is less than the predetermined number, the CPU 81 calculates the rotation speed V of the left controller 3 around the gravitational acceleration direction (step S211) and advances the processing to the next step. . For example, the CPU 81 acquires the direction of the gravitational acceleration acting on the left controller 3 with reference to the posture data Db. Further, the CPU 81 refers to the angular velocity data Dc to acquire the angular velocity around the XYZ axes generated in the left controller 3. Then, the CPU 81 calculates the angular velocity of the left controller 3 around the gravitational acceleration direction by using the angular velocity around each of the XYZ axes and the direction of the gravitational acceleration, and calculates the rotational speed V of the left controller 3 corresponding to the angular velocity to calculate the rotational speed. The data Dg is updated.

次に、CPU81は、左コントローラ3に生じている角速度から上記回転速度Vに相当する角速度を除いた成分の大きさより、回転速度Vの大きさの方が大きいか否かを判定する(ステップS212)。そして、CPU81は、回転速度Vの大きさの方が大きい場合、ステップS213に処理を進める。一方、CPU81は、回転速度Vの大きさの方が小さいまたは同じである場合、ステップS216に処理を進める。ここで、上記ステップS212の処理は、左コントローラ3に生じている角速度がどの方向周りを主体として生じているのか判定するためのものであり、実空間における左コントローラ3の動きが重力加速度周りに回転するヨー方向の動きが主体なのか、他の方向周りに回転する動きが主体なのかを判定している。   Next, the CPU 81 determines whether or not the magnitude of the rotation speed V is larger than the magnitude of the component obtained by subtracting the angular velocity corresponding to the rotation speed V from the angular velocity generated in the left controller 3 (step S212). ). Then, when the magnitude of the rotation speed V is higher, the CPU 81 advances the process to step S213. On the other hand, when the magnitude of the rotation speed V is smaller or the same, the CPU 81 advances the process to step S216. Here, the processing of step S212 is for determining in which direction the angular velocity occurring in the left controller 3 mainly occurs, and the movement of the left controller 3 in the real space is around the gravitational acceleration. It is determined whether the main movement is the rotation in the yaw direction or the rotation around the other direction.

ステップS213において、CPU81は、重力加速度方向周りの左コントローラ3の角速度に基づいて、左コントローラ3が重力加速度の方向を中心に左ヨー方向に回転しているか否かを判定する。そして、CPU81は、左コントローラ3が重力加速度の方向を中心に左ヨー方向に回転している場合、左コントローラ3の回転速度Vを1.15倍して回転速度データDgを更新し(ステップS215)、ステップS217に処理を進める。一方、CPU81は、左コントローラ3が重力加速度の方向を中心に左ヨー方向に回転していない場合、そのままステップS217に処理を進める。一般的に、人間の手首が曲がる方向を考えた場合、ユーザが左手で把持する左コントローラ3を右ヨー方向に回転させる操作と比べて左ヨー方向に回転させる操作がやりにくくなる。上記ステップS213およびステップS215の処理は、このような操作の難易を考慮したものであり、やりにくい方向にコントローラを動かす操作であっても、他の操作と同様にオブジェクトを制御することができる。   In step S213, the CPU 81 determines whether or not the left controller 3 is rotating in the left yaw direction around the direction of gravity acceleration based on the angular velocity of the left controller 3 around the direction of gravity acceleration. Then, when the left controller 3 is rotating in the left yaw direction around the direction of gravity acceleration, the CPU 81 multiplies the rotation speed V of the left controller 3 by 1.15 to update the rotation speed data Dg (step S215). ), The process proceeds to step S217. On the other hand, when the left controller 3 is not rotating in the left yaw direction around the direction of gravitational acceleration, the CPU 81 advances the process directly to step S217. In general, when considering the direction in which a human wrist bends, the operation of rotating the left controller 3 held by the left hand in the left yaw direction is more difficult than the operation of rotating the left controller 3 in the right yaw direction. The processes of steps S213 and S215 take into consideration such difficulty of operation, and even if the operation is to move the controller in a difficult direction, the object can be controlled in the same manner as other operations.

なお、当該サブルーチンを第2オブジェクトG2の軌道変化処理を行うために用いる場合、上記ステップS213では右コントローラ4が重力加速度の方向を中心に右ヨー方向に回転しているか否かを判定する。そして、右コントローラ4が重力加速度の方向を中心に右ヨー方向に回転している場合、右コントローラ4の回転速度Vを1.15倍して回転速度データDgを更新することになる。   When the subroutine is used to perform the trajectory change process of the second object G2, it is determined in step S213 whether the right controller 4 is rotating in the right yaw direction around the direction of gravity acceleration. Then, when the right controller 4 is rotating in the right yaw direction around the direction of gravity acceleration, the rotation speed V of the right controller 4 is multiplied by 1.15 to update the rotation speed data Dg.

一方、回転速度Vに相当する角速度の方が小さいまたは同じである場合、CPU81は、左コントローラ3のX軸方向周りの角速度に応じて回転速度Vを算出し(ステップS216)、ステップS217に処理を進める。例えば、CPU81は、角速度データDcを参照して左コントローラ3のX軸方向周りの角速度を取得し、当該角速度に応じた左コントローラ3の回転速度Vを算出して回転速度データDgを更新する。   On the other hand, when the angular velocity corresponding to the rotational velocity V is smaller or the same, the CPU 81 calculates the rotational velocity V according to the angular velocity of the left controller 3 around the X-axis direction (step S216), and the process proceeds to step S217. Proceed. For example, the CPU 81 refers to the angular velocity data Dc to obtain the angular velocity of the left controller 3 around the X-axis direction, calculates the rotational velocity V of the left controller 3 according to the angular velocity, and updates the rotational velocity data Dg.

ステップS217において、CPU81は、第1オブジェクトG1のカーブ値Cに左コントローラ3の回転速度Vを加算して新たなカーブ値Cを算出して、次のステップに処理を進める。例えば、CPU81は、カーブ値データDfおよび回転速度データDgを参照して第1オブジェクトG1のカーブ値Cおよび左コントローラ3の回転速度Vを取得し、カーブ値Cに回転速度Vを加算することによって得られる第1オブジェクトG1の新たなカーブ値Cを用いて、カーブ値データDfを更新する。   In step S217, the CPU 81 adds the rotation speed V of the left controller 3 to the curve value C of the first object G1 to calculate a new curve value C, and advances the processing to the next step. For example, the CPU 81 acquires the curve value C of the first object G1 and the rotation speed V of the left controller 3 by referring to the curve value data Df and the rotation speed data Dg, and adds the rotation speed V to the curve value C. The curve value data Df is updated using the obtained new curve value C of the first object G1.

次に、CPU81は、第1オブジェクトG1のカーブ値Cが所定の上限値Cmax(例えば、Cmax=1)を超えているか否かを判定する(ステップS218)。そして、CPU81は、第1オブジェクトG1のカーブ値Cが上限値Cmaxを超えている場合、第1オブジェクトG1のカーブ値Cとして上限値Cmaxを設定してカーブ値データDfを更新し(ステップS219)、ステップS220に処理を進める。一方、CPU81は、第1オブジェクトG1のカーブ値Cが上限値Cmaxを超えていない場合、そのままステップS220に処理を進める。   Next, the CPU 81 determines whether the curve value C of the first object G1 exceeds a predetermined upper limit value Cmax (for example, Cmax = 1) (step S218). Then, when the curve value C of the first object G1 exceeds the upper limit value Cmax, the CPU 81 sets the upper limit value Cmax as the curve value C of the first object G1 and updates the curve value data Df (step S219). , And advances the processing to step S220. On the other hand, when the curve value C of the first object G1 does not exceed the upper limit value Cmax, the CPU 81 advances the process directly to step S220.

ステップS220において、CPU81は、第1オブジェクトG1のカーブ値Cが所定の下限値Cmin(例えば、Cmin=−1)より小さいか否かを判定する。そして、CPU81は、第1オブジェクトG1のカーブ値Cが下限値Cminより小さい場合、第1オブジェクトG1のカーブ値Cとして下限値Cminを設定してカーブ値データDfを更新し(ステップS221)、ステップS195(図20参照)に処理を進める。一方、CPU81は、第1オブジェクトG1のカーブ値Cが下限値Cmin以上である場合、そのままステップS195に処理を進める。   In step S220, the CPU 81 determines whether the curve value C of the first object G1 is smaller than a predetermined lower limit value Cmin (for example, Cmin = -1). Then, when the curve value C of the first object G1 is smaller than the lower limit value Cmin, the CPU 81 sets the lower limit value Cmin as the curve value C of the first object G1 and updates the curve value data Df (step S221). The process proceeds to S195 (see FIG. 20). On the other hand, when the curve value C of the first object G1 is equal to or more than the lower limit value Cmin, the CPU 81 advances the process directly to step S195.

図20に戻り、ステップS195において、CPU81は、第1オブジェクトG1のカーブ値Cを用いて第1オブジェクトG1の移動方向を算出し、次のステップに処理を進める。例えば、CPU81は、カーブ値データDfを参照して第1オブジェクトG1のカーブ値Cを取得し、プレイヤオブジェクト位置データDmを参照して第1オブジェクトG1の移動方向を取得する。そして、CPU81は、取得した第1オブジェクトG1のカーブ値Cが正の値の場合、取得した第1オブジェクトG1の移動方向をカーブ値の大きさに応じて右に変更し、当該変更後の第1オブジェクトG1の移動方向を用いてプレイヤオブジェクト位置データDmを更新する。また、CPU81は、取得した第1オブジェクトG1のカーブ値Cが負の値の場合、取得した第1オブジェクトG1の移動方向をカーブ値の大きさに応じて左に変更し、当該変更後の第1オブジェクトG1の移動方向を用いてプレイヤオブジェクト位置データDmを更新する。   Returning to FIG. 20, in step S195, the CPU 81 calculates the moving direction of the first object G1 using the curve value C of the first object G1, and advances the processing to the next step. For example, the CPU 81 refers to the curve value data Df to obtain the curve value C of the first object G1, and refers to the player object position data Dm to obtain the moving direction of the first object G1. Then, when the acquired curve value C of the first object G1 is a positive value, the CPU 81 changes the moving direction of the acquired first object G1 to the right according to the magnitude of the curve value, and after the change, The player object position data Dm is updated using the moving direction of the one object G1. In addition, when the acquired curve value C of the first object G1 is a negative value, the CPU 81 changes the moving direction of the acquired first object G1 to the left according to the magnitude of the curve value, and after the change, The player object position data Dm is updated using the moving direction of the one object G1.

なお、第1オブジェクトG1が移動開始位置に戻る仮想空間内の復路を移動している場合、第1オブジェクトG1のカーブ値Cによって移動方向を変更することなく、現在の第1オブジェクトG1の位置から移動開始位置に戻る方向に移動方向を固定して設定してもよい。第1オブジェクトG1が復路を移動しているか否かについては、後述する戻りフラグがオンに設定されているか否かによって判別することができる。   In addition, when the first object G1 is moving on the return path in the virtual space that returns to the movement start position, the moving direction is changed from the current position of the first object G1 without changing the moving direction by the curve value C of the first object G1. The movement direction may be fixed and set in the direction of returning to the movement start position. Whether or not the first object G1 is moving on the return path can be determined by whether or not a return flag, which will be described later, is set to ON.

次に、CPU81は、第1オブジェクトG1の移動方向に基づいて、第1オブジェクトG1を移動させ(ステップS196)、次のステップに処理を進める。例えば、CPU81は、プレイヤオブジェクト位置データDmを参照して第1オブジェクトG1の位置および移動方向を取得し、当該第1オブジェクトG1の位置から当該移動方向に基づいて第1オブジェクトG1を移動させ、当該移動後の第1オブジェクトG1の位置を用いてプレイヤオブジェクト位置データDmを更新する。   Next, the CPU 81 moves the first object G1 based on the moving direction of the first object G1 (step S196), and advances the processing to the next step. For example, the CPU 81 acquires the position and the moving direction of the first object G1 by referring to the player object position data Dm, moves the first object G1 from the position of the first object G1 based on the moving direction, and The player object position data Dm is updated using the position of the first object G1 after the movement.

次に、CPU81は、アクションフラグデータDjを参照して、アクションフラグがオンに設定されているか否かを判定する(ステップS197)。そして、CPU81は、アクションフラグがオンに設定されている場合、ステップS198に処理を進める。一方、CPU81は、アクションフラグがオフに設定されている場合、ステップS231(図22参照)に処理を進める。   Next, the CPU 81 refers to the action flag data Dj and determines whether or not the action flag is set to ON (step S197). Then, when the action flag is set to ON, the CPU 81 advances the process to step S198. On the other hand, when the action flag is set to OFF, the CPU 81 advances the process to step S231 (see FIG. 22).

ステップS198において、CPU81は、第1オブジェクトG1と第2オブジェクトG2との間に衝突領域Aを設定し、ステップS231(図22参照)に処理を進める。例えば、CPU81は、プレイヤオブジェクト位置データDmを参照して第1オブジェクトG1の位置および第2オブジェクトG2の位置を取得し、当該位置に基づいて衝突領域Aの仮想空間における位置、形状、および範囲を設定して、衝突領域データDnを更新する。このようにアクションフラグがオンに設定された状態で第1オブジェクトG1(および第2オブジェクトG2)の移動方向および移動後の位置が設定される場合は、当該第1オブジェクトG1と第2オブジェクトG2との間に衝突領域Aを設定される。   In step S198, the CPU 81 sets the collision area A between the first object G1 and the second object G2, and advances the processing to step S231 (see FIG. 22). For example, the CPU 81 acquires the position of the first object G1 and the position of the second object G2 by referring to the player object position data Dm, and based on the position, determines the position, shape, and range of the collision area A in the virtual space. Set and update the collision area data Dn. In this way, when the movement direction and the position after movement of the first object G1 (and the second object G2) are set with the action flag set to ON, the first object G1 and the second object G2 are The collision area A is set during the period.

図22に進み、CPU81は、衝突判定処理を行い(ステップS231)、次のステップに処理を進める。例えば、CPU81は、プレイヤオブジェクト位置データDm、衝突領域データDn、および敵オブジェクト位置データDoを参照して、第1オブジェクトG1および衝突領域Aと、仮想空間における他のオブジェクト(例えば、敵オブジェクトEO)とにおける、仮想空間における衝突を判定する。   22, the CPU 81 performs a collision determination process (step S231) and advances the process to the next step. For example, the CPU 81 refers to the player object position data Dm, the collision area data Dn, and the enemy object position data Do to refer to the first object G1 and the collision area A and other objects in the virtual space (for example, the enemy object EO). And determine a collision in the virtual space.

次に、CPU81は、第1オブジェクトG1および衝突領域Aの少なくとも1つと他のオブジェクトとが、仮想空間において衝突したか否かを判定する(ステップS232)。そして、CPU81は、第1オブジェクトG1および衝突領域Aの少なくとも1つと他のオブジェクトとが衝突した場合、ステップS233に処理を進める。一方、CPU81は、第1オブジェクトG1および衝突領域Aの何れも他のオブジェクトと衝突していない場合、ステップS235に処理を進める。   Next, the CPU 81 determines whether or not at least one of the first object G1 and the collision area A has collided with another object in the virtual space (step S232). Then, when at least one of the first object G1 and the collision area A collides with another object, the CPU 81 advances the process to step S233. On the other hand, if neither the first object G1 nor the collision area A has collided with another object, the CPU 81 advances the process to step S235.

ステップS233において、CPU81は、他のオブジェクトに対する衝突アクション処理を行い、次のステップに処理を進める。例えば、CPU81は、第1オブジェクトG1と敵オブジェクトEOとが衝突した場合、当該衝突に応じたダメージを敵オブジェクトEOに与えるとともに、当該ダメージに応じた所定のアクションを設定する。また、CPU81は、衝突領域Aと敵オブジェクトEOとが衝突した場合、当該衝突に応じたダメージを敵オブジェクトEOに与えるとともに、第1オブジェクトG1および第2オブジェクトG2が組となった「両手パンチアクション」を設定する。   In step S233, the CPU 81 performs a collision action process for another object, and advances the process to the next step. For example, when the first object G1 and the enemy object EO collide with each other, the CPU 81 gives damage to the enemy object EO according to the collision and sets a predetermined action according to the damage. Further, when the collision area A collides with the enemy object EO, the CPU 81 damages the enemy object EO in accordance with the collision, and the first object G1 and the second object G2 form a “two-handed punch action”. Is set.

なお、本実施例では、第1オブジェクトG1が敵オブジェクトEOに向かって移動している期間だけでなく、第1オブジェクトG1がプレイヤオブジェクトPOに向かって戻る期間においても、当該第1オブジェクトG1が他のオブジェクトと衝突した場合に衝突アクション処理が行われる。しかしながら、第1オブジェクトG1が敵オブジェクトEOに向かって移動している期間に限って他のオブジェクトに対する衝突アクション処理を行う場合は、第1オブジェクトG1がプレイヤオブジェクトPOに向かって戻る期間(戻りフラグがオンとなった状態)においては、上記ステップS232において第1オブジェクトG1と他のオブジェクトとが衝突していないと常に判定して当該衝突アクション処理を行わなくてもかまわない。   In addition, in the present embodiment, the first object G1 is not the only one in which the first object G1 is moving toward the enemy object EO, and also during the period in which the first object G1 returns toward the player object PO. Collision action processing is performed when the object collides with. However, when the collision action process for another object is performed only during the period when the first object G1 is moving toward the enemy object EO, the period when the first object G1 returns to the player object PO (the return flag is In the ON state), it is not always necessary to perform the collision action process by always determining in step S232 that the first object G1 does not collide with another object.

次に、CPU81は、アクションフラグをオフに設定してアクションフラグデータDjを更新するとともに、衝突領域データDnを衝突領域なし(例えば、Null)に設定して、ステップS235に処理を進める。このように、第1オブジェクトG1、第2オブジェクトG2、または衝突領域Aのいずれかが他のオブジェクトと衝突するアクションが設定された場合、アクションフラグがオフに設定されるとともに、衝突領域に関する設定データが消去される。   Next, the CPU 81 sets the action flag to OFF and updates the action flag data Dj, sets the collision area data Dn to no collision area (for example, Null), and advances the process to step S235. As described above, when an action in which any of the first object G1, the second object G2, or the collision area A collides with another object is set, the action flag is set to OFF and the setting data regarding the collision area is set. Is erased.

ステップS235において、CPU81は、戻りフラグデータDkを参照して第1オブジェクトG1の処理に対して設定されている戻りフラグがオンに設定されているか否かを判定する。そして、CPU81は、第1オブジェクトG1の処理に対して設定されている戻りフラグがオフに設定されている場合、ステップS236に処理を進める。一方、CPU81は、第1オブジェクトG1の処理に対して設定されている戻りフラグがオンに設定されている場合、ステップS239に処理を進める。   In step S235, the CPU 81 refers to the return flag data Dk and determines whether or not the return flag set for the process of the first object G1 is set to ON. Then, when the return flag set for the process of the first object G1 is set to OFF, the CPU 81 advances the process to step S236. On the other hand, when the return flag set for the process of the first object G1 is set to ON, the CPU 81 advances the process to step S239.

ステップS236において、CPU81は、第1オブジェクトG1が移動開始位置に戻る仮想空間内の復路を移動する動作を行うか否かを判定する。例えば、CPU81は、第1オブジェクトG1が移動開始位置から所定距離離れた位置に到達した場合、第1オブジェクトG1が敵オブジェクトEOの位置を通過した後に所定時間経過した場合、第1オブジェクトG1または衝突領域Aが他のオブジェクトに衝突した後に所定時間経過した場合等の条件を満たす場合、第1オブジェクトG1が復路を移動する動作を行うと判定する。そして、CPU81は、第1オブジェクトG1が復路を移動する動作を行う場合、ステップS237に処理を進める。一方、CPU81は、第1オブジェクトG1が復路を移動する動作を行なわない場合、当該サブルーチンによる処理を終了する。   In step S236, the CPU 81 determines whether or not to perform an operation of moving the first object G1 on the return path in the virtual space returning to the movement start position. For example, when the first object G1 reaches a position away from the movement start position by a predetermined distance, when the first object G1 passes a position of the enemy object EO and a predetermined time elapses, the CPU 81 causes the first object G1 or the collision. When the condition such as a case where a predetermined time has elapsed after the area A collides with another object is satisfied, it is determined that the first object G1 performs an operation of moving on the return path. Then, the CPU 81 advances the process to step S237 when the first object G1 performs the operation of moving on the return path. On the other hand, if the first object G1 does not move on the return path, the CPU 81 ends the process of the subroutine.

ステップS237において、CPU81は、第1オブジェクトG1の処理に対して設定されている戻りフラグをオンに設定して戻りフラグデータDkを更新し、次のステップに処理を進める。このように、第1オブジェクトG1が復路を移動する動作が設定された場合、第1オブジェクトG1の処理に対して設定されている戻りフラグがオンに設定される。   In step S237, the CPU 81 sets the return flag set for the processing of the first object G1 to ON, updates the return flag data Dk, and advances the processing to the next step. In this way, when the operation of moving the first object G1 on the return path is set, the return flag set for the process of the first object G1 is set to ON.

次に、CPU81は、第1オブジェクトG1の移動方向として、移動開始位置に向かう方向を設定して(ステップS238)、当該サブルーチンによる処理を終了する。例えば、CPU81は、プレイヤオブジェクト位置データDmを参照して第1オブジェクトG1の現在位置から移動開始位置へ向かう方向を第1オブジェクトG1の移動方向として算出し、当該移動方向を用いてプレイヤオブジェクト位置データDmを更新する。なお、上記ステップS238において設定する第1オブジェクトG1の移動方向は、第1オブジェクトG1が連結されているオブジェクト(例えば、プレイヤオブジェクトPOの伸びた腕オブジェクト)に沿った方向に設定してもよいし、第1オブジェクトG1が移動開始位置から移動した際の軌道を逆に戻るように設定してもよい。   Next, the CPU 81 sets the direction toward the movement start position as the movement direction of the first object G1 (step S238), and ends the processing by the subroutine. For example, the CPU 81 refers to the player object position data Dm, calculates the direction from the current position of the first object G1 to the movement start position as the movement direction of the first object G1, and uses the movement direction to calculate the player object position data. Update Dm. The moving direction of the first object G1 set in step S238 may be set along the object to which the first object G1 is connected (for example, the extended arm object of the player object PO). , The trajectory when the first object G1 moves from the movement start position may be set to be reversed.

一方、戻りフラグがオンに設定されている場合、CPU81は、第1オブジェクトG1が移動開始位置まで戻ったか否かを判定する(ステップS239)。例えば、CPU81は、プレイヤオブジェクト位置データDmを参照して、第1オブジェクトG1の位置が移動開始位置に設定されている場合、上記ステップS239において肯定判定する。そして、CPU81は、第1オブジェクトG1が移動開始位置まで戻った場合、ステップS240に処理を進める。一方、CPU81は、第1オブジェクトG1が移動開始位置まで戻っていない場合、当該サブルーチンによる処理を終了する。   On the other hand, when the return flag is set to ON, the CPU 81 determines whether the first object G1 has returned to the movement start position (step S239). For example, the CPU 81 refers to the player object position data Dm, and when the position of the first object G1 is set as the movement start position, makes a positive determination in step S239. Then, when the first object G1 returns to the movement start position, the CPU 81 advances the process to step S240. On the other hand, when the first object G1 has not returned to the movement start position, the CPU 81 ends the processing of this subroutine.

ステップS240において、CPU81は、第1オブジェクトG1の処理に対して設定されている移動開始可能フラグをオンに設定して移動開始可能フラグデータDlを更新し、次のステップに処理を進める。このように、第1オブジェクトG1が仮想空間内を再度移動可能な状態となった場合、第1移動開始可能状態となるため第1オブジェクトG1の移動開始可能フラグがオンに設定される。なお、上記ステップS240では、第1オブジェクトG1が移動開始位置まで戻った場合に即時に第1オブジェクトG1の移動開始可能フラグをオンに設定して第1移動開始可能状態としているが、他のタイミングで第1移動開始可能状態を開始してもよい。例えば、第1オブジェクトG1が移動開始位置まで戻ってから所定時間(例えば、8フレーム数)経過したタイミングで第1移動開始可能状態が開始されてもよい。   In step S240, the CPU 81 sets the movement start possibility flag set for the processing of the first object G1 to ON to update the movement start possibility flag data Dl, and advances the processing to the next step. As described above, when the first object G1 is in the state in which it can move again in the virtual space, the first movement startable state is set, and thus the movement startable flag of the first object G1 is set to ON. In step S240, when the first object G1 returns to the movement start position, the movement start enable flag of the first object G1 is immediately set to ON to set the first movement start possible state, but at another timing. The first movement startable state may be started at. For example, the first movement startable state may be started at a timing when a predetermined time (for example, 8 frames) has elapsed after the first object G1 returned to the movement start position.

次に、CPU81は、第1オブジェクトG1の処理に対して設定されている移動フラグおよび戻りフラグをオフに設定し、アクションフラグをオフに設定し、衝突領域や第1オブジェクトG1の移動方向に関するデータをデフォルト値に設定して(ステップS241)、当該サブルーチンによる処理を終了する。例えば、CPU81は、第1オブジェクトG1の処理に対して設定されている移動フラグおよび戻りフラグをそれぞれオフに設定して、移動フラグデータDiおよび戻りフラグデータDkをそれぞれ更新する。また、CPU81は、アクションフラグをオフに設定して、アクションフラグデータDjを更新する。また、CPU81は、衝突領域に関する設定データを衝突領域なし(例えば、Null)に設定して、衝突領域データDnを更新する。また、CPU81は、第1オブジェクトG1の移動方向をデフォルト値(例えば、正面方向)に設定して、プレイヤオブジェクト位置データDmを更新する。   Next, the CPU 81 sets the movement flag and the return flag, which are set for the processing of the first object G1, to OFF, sets the action flag to OFF, and sets the collision area and the data regarding the moving direction of the first object G1. Is set to the default value (step S241), and the processing by the subroutine is completed. For example, the CPU 81 sets the movement flag and the return flag set for the processing of the first object G1 to off, respectively, and updates the movement flag data Di and the return flag data Dk, respectively. Further, the CPU 81 sets the action flag to off and updates the action flag data Dj. Further, the CPU 81 sets the setting data regarding the collision area to no collision area (for example, Null), and updates the collision area data Dn. Further, the CPU 81 sets the moving direction of the first object G1 to a default value (for example, the front direction) and updates the player object position data Dm.

図17に戻り、上記ステップS146における第1オブジェクト軌道変化処理の後、CPU81は、第2オブジェクト軌道変化処理を行い(ステップS147)、次のステップに処理を進める。なお、図20〜図22を用いて説明したオブジェクト軌道変化処理は、上記ステップS147の第2オブジェクト軌道変化処理においても用いられるサブルーチンである。すなわち、上記第1オブジェクト軌道変化処理において処理対象としていた左コントローラ3および第1オブジェクトG1を右コントローラ4および第2オブジェクトG2にすることによって、同じサブルーチンを用いることによって同様の処理が可能となる。したがって、上記ステップS147の第2オブジェクト軌道変化処理の詳細な説明については省略する。   Returning to FIG. 17, after the first object trajectory change processing in step S146, the CPU 81 performs the second object trajectory change processing (step S147), and advances the processing to the next step. Note that the object trajectory change processing described with reference to FIGS. 20 to 22 is a subroutine used also in the second object trajectory change processing in step S147. That is, the same processing can be performed by using the same subroutine by changing the left controller 3 and the first object G1 that were the processing targets in the first object trajectory change processing to the right controller 4 and the second object G2. Therefore, the detailed description of the second object trajectory change processing in step S147 is omitted.

次に、CPU81は、プレイヤオブジェクト移動処理を行い(ステップS148)、次のステップに処理を進める。以下、図23を参照して、上記ステップS148において行うプレイヤオブジェクト移動処理について説明する。   Next, the CPU 81 performs player object movement processing (step S148) and advances the processing to the next step. Hereinafter, with reference to FIG. 23, the player object moving process performed in step S148 will be described.

図23において、CPU81は、左コントローラ3および右コントローラ4の実空間におけるピッチ方向に対する傾きが同じ方向であるか否かを判定する(ステップS251)。例えば、CPU81は、姿勢データDbを参照して左コントローラ3のX軸正方向と右コントローラ4のX軸正方向とが実空間の水平方向に対してともに仰角方向にある、またはともに俯角方向にある場合、上記ステップS251において肯定判定する。そして、CPU81は、左コントローラ3および右コントローラ4の実空間におけるピッチ方向に対する傾きが同じ方向である場合、ステップS252に処理を進める。一方、CPU81は、左コントローラ3および右コントローラ4の実空間におけるピッチ方向に対する傾きが同じ方向にない場合、ステップS253に処理を進める。   In FIG. 23, the CPU 81 determines whether or not the left controller 3 and the right controller 4 have the same inclination with respect to the pitch direction in the real space (step S251). For example, the CPU 81 refers to the posture data Db, and the X-axis positive direction of the left controller 3 and the X-axis positive direction of the right controller 4 are both in the elevation direction with respect to the horizontal direction of the real space, or both in the depression direction. If there is, a positive determination is made in step S251. Then, when the inclinations of the left controller 3 and the right controller 4 with respect to the pitch direction in the real space are the same, the CPU 81 advances the process to step S252. On the other hand, if the inclinations of the left controller 3 and the right controller 4 with respect to the pitch direction in the real space are not in the same direction, the CPU 81 advances the process to step S253.

ステップS252において、CPU81は、左コントローラ3および右コントローラ4の実空間におけるピッチ方向に対する傾き角度の平均値Pを算出し、ステップS254に処理を進める。例えば、CPU81は、姿勢データDbを参照して、左コントローラ3のX軸正方向と実空間の水平方向との差角と右コントローラ4のX軸正方向と実空間の水平方向との差角とを算出し、当該差角の平均値Pを算出する。例えば、上記差角は、X軸正方向が俯角方向である場合に正の値となり、X軸正方向が仰角方向である場合に負の値となるように算出する。   In step S252, the CPU 81 calculates the average value P of the tilt angles of the left controller 3 and the right controller 4 in the real space with respect to the pitch direction, and advances the processing to step S254. For example, the CPU 81 refers to the posture data Db and refers to the difference angle between the X-axis positive direction of the left controller 3 and the horizontal direction of the real space, and the difference angle between the X-axis positive direction of the right controller 4 and the horizontal direction of the real space. Is calculated, and the average value P of the difference angles is calculated. For example, the difference angle is calculated to have a positive value when the X-axis positive direction is the depression direction and a negative value when the X-axis positive direction is the elevation angle direction.

一方、上記ステップ251において左コントローラ3および右コントローラ4の実空間におけるピッチ方向に対する傾きが同じ方向にないと判定された場合、CPU81は、平均値Pを0に設定し(ステップS253)、ステップS254に処理を進める。   On the other hand, when it is determined in step 251 that the inclinations of the left controller 3 and the right controller 4 with respect to the pitch direction in the real space are not in the same direction, the CPU 81 sets the average value P to 0 (step S253), and step S254. Proceed to.

ステップS254において、CPU81は、左コントローラ3および右コントローラ4の実空間におけるロール方向に対する傾きが同じ方向であるか否かを判定する。例えば、CPU81は、姿勢データDbを参照して左コントローラ3のY軸正方向と右コントローラ4のY軸正方向とが実空間の水平方向に対してともに仰角方向にある、またはともに俯角方向にある場合、上記ステップS254において肯定判定する。そして、CPU81は、左コントローラ3および右コントローラ4の実空間におけるロール方向に対する傾きが同じ方向である場合、ステップS255に処理を進める。一方、CPU81は、左コントローラ3および右コントローラ4の実空間におけるロール方向に対する傾きが同じ方向にない場合、ステップS256に処理を進める。   In step S254, the CPU 81 determines whether the left controller 3 and the right controller 4 have the same inclination with respect to the roll direction in the real space. For example, the CPU 81 refers to the posture data Db, and the Y-axis positive direction of the left controller 3 and the Y-axis positive direction of the right controller 4 are both in the elevation direction with respect to the horizontal direction of the real space, or both are in the depression direction. If there is, a positive determination is made in step S254. Then, when the inclinations of the left controller 3 and the right controller 4 with respect to the roll direction in the real space are the same, the CPU 81 advances the process to step S255. On the other hand, when the inclinations of the left controller 3 and the right controller 4 with respect to the roll direction in the real space are not in the same direction, the CPU 81 advances the process to step S256.

ステップS255において、CPU81は、左コントローラ3および右コントローラ4の実空間におけるロール方向に対する傾き角度の平均値Rを算出し、ステップS257に処理を進める。例えば、CPU81は、姿勢データDbを参照して、左コントローラ3のY軸正方向と実空間の水平方向との差角と右コントローラ4のY軸正方向と実空間の水平方向との差角とを算出し、当該差角の平均値Rを算出する。例えば、上記差角は、Y軸正方向が俯角方向である場合に正の値となり、Y軸正方向が仰角方向である場合に負の値となるように算出する。   In step S255, the CPU 81 calculates the average value R of the tilt angles of the left controller 3 and the right controller 4 in the real space with respect to the roll direction, and advances the processing to step S257. For example, the CPU 81 refers to the posture data Db and refers to the difference angle between the Y-axis positive direction of the left controller 3 and the horizontal direction of the real space, and the difference angle between the Y-axis positive direction of the right controller 4 and the horizontal direction of the real space. Is calculated, and the average value R of the difference angles is calculated. For example, the difference angle is calculated to have a positive value when the Y-axis positive direction is the depression direction and a negative value when the Y-axis positive direction is the elevation direction.

一方、上記ステップ254において左コントローラ3および右コントローラ4の実空間におけるロール方向に対する傾きが同じ方向にないと判定された場合、CPU81は、平均値Rを0に設定し(ステップS256)、ステップS257に処理を進める。   On the other hand, if it is determined in step 254 that the inclinations of the left controller 3 and the right controller 4 with respect to the roll direction in the real space are not the same, the CPU 81 sets the average value R to 0 (step S256), and step S257. Proceed to.

ステップS257において、CPU81は、平均値Pに応じた前後移動量と平均値Rに応じた左右移動量とを合成して移動量Mを算出し、次のステップに処理を進める。例えば、CPU81は、平均値Pが正の値である場合に仮想空間における前方へ移動し、平均値Pが負の値である場合に仮想空間における後方へ移動する前後移動量を、当該平均値Pの値に応じて算出する。また、CPU81は、平均値Rが正の値である場合に仮想空間における右へ移動し、平均値Rが負の値である場合に仮想空間における左へ移動する左右移動量を、当該平均値Rの値に応じて算出する。そして、上記前後移動量および上記左右移動量を合成することによって、仮想空間に対する移動量Mを算出する。   In step S257, the CPU 81 combines the front-back movement amount according to the average value P and the left-right movement amount according to the average value R to calculate the movement amount M, and advances the processing to the next step. For example, the CPU 81 moves the forward / backward movement amount that moves forward in the virtual space when the average value P is a positive value and moves backward in the virtual space when the average value P is a negative value, to the average value. It is calculated according to the value of P. In addition, the CPU 81 calculates the horizontal movement amount that moves to the right in the virtual space when the average value R is a positive value and moves to the left in the virtual space when the average value R is a negative value. It is calculated according to the value of R. Then, the movement amount M with respect to the virtual space is calculated by combining the forward and backward movement amounts and the left and right movement amounts.

次に、CPU81は、移動フラグの設定状況に応じて移動量Mをスケーリングし(ステップS258)、次のステップに処理を進める。例えば、CPU81は、移動フラグデータDiを参照して第1オブジェクトG1および第2オブジェクトG2の処理に対してそれぞれ設定されている移動フラグが両方オフに設定されている場合、移動量Mはそのままの値とする。また、CPU81は第1オブジェクトG1および第2オブジェクトG2の処理に対してそれぞれ設定されている移動フラグの一方のみオンに設定されている場合、移動量Mを所定倍率によって縮小(例えば、0.9倍して縮小)する。また、CPU81は第1オブジェクトG1および第2オブジェクトG2の処理に対してそれぞれ設定されている移動フラグの両方がオンに設定されている場合、移動量Mを0に設定する。   Next, the CPU 81 scales the movement amount M according to the setting state of the movement flag (step S258), and advances the processing to the next step. For example, the CPU 81 refers to the movement flag data Di, and when both movement flags set for the processing of the first object G1 and the second object G2 are both set to OFF, the movement amount M remains unchanged. The value. When only one of the movement flags set for the processing of the first object G1 and the second object G2 is turned on, the CPU 81 reduces the movement amount M by a predetermined magnification (for example, 0.9). Double and reduce). Further, the CPU 81 sets the movement amount M to 0 when both the movement flags set for the processing of the first object G1 and the second object G2 are both set to ON.

次に、CPU81は、上記ステップS258においてスケーリングされた移動量Mに応じて、プレイヤオブジェクトPOを仮想空間において移動させ(ステップS259)、当該サブルーチンによる処理を終了する。例えば、CPU81は、プレイヤオブジェクト位置データDmが示す仮想空間におけるプレイヤオブジェクトPOの位置を移動量Mに応じて移動させ、移動後のプレイヤオブジェクトPOの位置を用いてプレイヤオブジェクト位置データDmを更新する。   Next, the CPU 81 moves the player object PO in the virtual space according to the amount of movement M scaled in step S258 (step S259), and ends the process of the subroutine. For example, the CPU 81 moves the position of the player object PO in the virtual space indicated by the player object position data Dm according to the moving amount M, and updates the player object position data Dm using the position of the player object PO after the movement.

図17に戻り、上記ステップS148におけるプレイヤオブジェクト移動処理の後、CPU81は、表示制御処理を行い(ステップS149)、次のステップに処理を進める。例えば、CPU81は、プレイヤオブジェクト位置データDm、および敵オブジェクト位置データDoを用いて、ゲームフィールド上にプレイヤオブジェクトPO、第1オブジェクトG1、第2オブジェクトG2、敵オブジェクトEOを配置する。また、CPU81は、アクションフラグデータDjが示すアクションフラグがオンに設定されており、衝突領域データDnに衝突領域Aに関する設定データが設定されている場合は、第1オブジェクトG1および第2オブジェクトG2の間に衝突領域Aに対応するオブジェクトを配置する。さらに、CPU81は、上記ステップS233において衝突アクションが設定されている場合は、当該設定内容に応じて各仮想オブジェクトを動作させる。そして、CPU81は、所定の位置(例えば、プレイヤオブジェクトPOの背後)に配置された仮想カメラからゲームフィールドを見た仮想空間画像を生成し、当該仮想空間画像を表示装置(例えば、据置型モニタ6)の表示画面に表示する処理を行う。   Returning to FIG. 17, after the player object moving process in step S148, the CPU 81 performs the display control process (step S149) and advances the process to the next step. For example, the CPU 81 uses the player object position data Dm and the enemy object position data Do to arrange the player object PO, the first object G1, the second object G2, and the enemy object EO on the game field. Further, when the action flag indicated by the action flag data Dj is set to ON and the setting data regarding the collision area A is set in the collision area data Dn, the CPU 81 sets the first object G1 and the second object G2 to An object corresponding to the collision area A is arranged in between. Furthermore, when the collision action is set in step S233, the CPU 81 operates each virtual object according to the setting content. Then, the CPU 81 generates a virtual space image of the game field viewed from a virtual camera arranged at a predetermined position (for example, behind the player object PO), and displays the virtual space image on a display device (for example, the stationary monitor 6). ) Is displayed on the display screen.

次に、CPU81は、ゲームを終了するか否かを判定する(ステップS150)。上記ステップS150においてゲームを終了する条件としては、例えば、上記ゲームの結果が確定したことや、ユーザがゲームを終了する操作を行ったこと等がある。CPU81は、ゲームを終了しない場合に上記ステップS142に戻って処理を繰り返し、ゲームを終了する場合に当該フローチャートによる処理を終了する。以降、ステップS142〜ステップS150の一連の処理は、ステップS150でゲームを終了すると判定されるまで繰り返し実行される。   Next, the CPU 81 determines whether or not to end the game (step S150). The conditions for ending the game in step S150 are, for example, that the result of the game is confirmed, that the user has performed an operation to end the game, and the like. When the game is not ended, the CPU 81 returns to step S142 to repeat the process, and when the game is ended, the process according to the flowchart is ended. After that, a series of processes of steps S142 to S150 is repeatedly executed until it is determined in step S150 that the game is to be ended.

このように、本実施例においては、第1オブジェクトG1が移動開始可能となる第1移動開始可能状態や第2オブジェクトG2が移動開始可能となる第2移動開始可能状態が断続的に到来し、第1移動開始可能状態となった場合に左コントローラ3を振ることによって第1オブジェクトG1の動作制御が可能となり、第2移動開始可能状態となった場合に右コントローラ4を振ることによって第2オブジェクトG2の動作制御が可能となる。しかしながら、本実施例では、第1移動開始可能状態でない場合であっても、左コントローラ3が振り動かされてから所定期間以内に第1移動開始可能状態になれば当該左コントローラ3の振り判定結果に基づいて第1オブジェクトG1の動作制御が可能となる。また、第2移動開始可能状態でない場合であっても、右コントローラ4が振り動かされてから所定期間以内に第2移動開始可能状態になれば当該右コントローラ4の振り判定結果に基づいて第2オブジェクトG2の動作制御が可能となる。したがって、上述したように第1移動開始可能状態および/または第2移動開始可能状態が断続的に到来するゲームであっても、操作を容易にすることが可能となる。   As described above, in the present embodiment, the first movement startable state in which the first object G1 can start moving and the second movement startable state in which the second object G2 can start moving arrive intermittently, When the first movement startable state is achieved, the left controller 3 is shaken to control the operation of the first object G1, and when the second movement startable state is obtained, the right controller 4 is shaken to cause the second object. It becomes possible to control the operation of G2. However, in the present embodiment, even if the first movement startable state is not reached, if the first movement startable state is reached within a predetermined period after the left controller 3 is swung, the swing determination result of the left controller 3 is determined. The motion control of the first object G1 becomes possible based on the above. Even if the second movement startable state is not reached, if the second movement startable state is reached within a predetermined period after the right controller 4 is swung, the second movement is determined based on the swing determination result of the right controller 4. The motion control of the object G2 becomes possible. Therefore, as described above, even in a game in which the first movement startable state and / or the second movement startable state arrives intermittently, the operation can be facilitated.

なお、上述したゲーム例では、第1オブジェクトG1および第2オブジェクトG2は、それぞれ移動中であっても左コントローラ3や右コントローラ4を用いた操作によって軌道が変化するため、結果的に第1移動開始可能状態が終了してから次の第1移動開始可能状態となるまでの時間や第2移動開始可能状態が終了してから次の第2移動開始可能状態となるまでの時間が長いものであることが前提となっている。このように、次の移動が開始可能となるまでの時間が長くなるゲームにおいては、先行して移動開始する操作(振り操作)を受け付けるゲーム仕様が効果的となるが、他の仕様によって次の移動が開始可能となるまでの時間が長くなるゲームであってもよいことは言うまでない。例えば、上述したゲーム例では、プレイヤオブジェクトPOの腕が伸びることによって移動中の動きを制御可能にしているが、プレイヤオブジェクトの他の五体(例えば、脚)が伸びるゲームやプレイヤオブジェクトが所持している物体(鞭オブジェクト、蛇腹オブジェクト等)が伸びるゲームに本発明を適用してもよい。また、プレイヤオブジェクトが遠隔操作可能なオブジェクト(例えば、ラジコン、ロボット、ロケットパンチ等)を移動中に操作し、再びプレイヤオブジェクトの手元に帰った場合に次の移動が可能となるゲームに本発明を適用してもよい。   In the game example described above, the trajectories of the first object G1 and the second object G2 are changed by the operation using the left controller 3 and the right controller 4 even when they are moving, respectively. The time from the end of the startable state to the next first movement startable state or the time from the end of the second movement startable state to the next second movement startable state is long. Is assumed. In this way, in a game in which the time until the next movement can be started becomes long, a game specification that accepts an operation (swing operation) to start the movement in advance is effective, but other specifications may It goes without saying that the game may take a long time before the movement can be started. For example, in the game example described above, the movement of the player object PO can be controlled while the arm of the player object PO is stretched. The present invention may be applied to a game in which an existing object (whistle object, bellows object, etc.) extends. Further, the present invention is applied to a game in which a player object operates a remotely controllable object (for example, a radio-controlled object, a robot, a rocket punch, etc.) while moving, and when the player object returns to the player object, the player can move next. You may apply.

また、移動中にさらなる軌道変化が制御できないゲームであっても、本発明を適用することができる。一例として、敵を射撃したり砲撃したりするゲームにおいて、次の弾を充填するための時間が長いために次の射撃や砲撃が可能となるまでの時間が長くなるゲームであってもよい。この場合、射撃や砲撃が可能となる所定時間前に射撃操作や砲撃操作が先行した場合に当該射撃操作や砲撃操作によって次の弾が発射されることになる。他の例として、一旦放ったオブジェクト(鳥、ブーメラン、ボーリングの球等)が戻ってくるゲームに本発明を適用してもよい。   Further, the present invention can be applied even to a game in which a further trajectory change cannot be controlled while moving. As an example, in a game of shooting or bombarding an enemy, it may be a game in which the time until the next shooting or bombardment becomes possible is long because the time for filling the next bullet is long. In this case, if the shooting operation or the shooting operation precedes a predetermined time before the shooting or the shooting is possible, the next bullet is fired by the shooting operation or the shooting operation. As another example, the present invention may be applied to a game in which once released objects (birds, boomerangs, bowling balls, etc.) return.

また、上述した「両手パンチアクション」は、第1オブジェクトG1および第2オブジェクトG2が組となって所定のアクションを行う例として記載したが、単に第1オブジェクトG1および第2オブジェクトG2が組となって移動するものであってもよい。この場合、ゲーム画像として表現される第1オブジェクトG1および第2オブジェクトG2の移動形態は、単に第1オブジェクトG1および第2オブジェクトG2が組となって移動するものとなるが、第1オブジェクトG1および第2オブジェクトG2の少なくとも一方が敵オブジェクトEOと衝突した場合に、単独で衝突する場合と比べて与えるダメージが大きくてもよい。   Further, the above-mentioned “two-handed punch action” is described as an example in which the first object G1 and the second object G2 are combined to perform a predetermined action, but the first object G1 and the second object G2 are simply combined. It may be one that moves. In this case, the movement mode of the first object G1 and the second object G2 represented as a game image is such that the first object G1 and the second object G2 simply move as a group, but the first object G1 and the second object G2 move together. When at least one of the second objects G2 collides with the enemy object EO, the damage to be given may be larger than that when the second object G2 collides with itself.

また、上述したゲーム例では、左コントローラ3や右コントローラ4を用いた操作に応じて、第1オブジェクトG1および第2オブジェクトG2における仮想空間の左右方向の位置が制御可能な例を用いたが、第1オブジェクトG1および第2オブジェクトG2における仮想空間の上下方向の位置および/または前後方向の位置が制御可能に構成されてもよい。この場合、左コントローラ3および/または右コントローラ4の実空間における上下方向の動作および/またはピッチ方向の姿勢に応じて、第1オブジェクトG1および/または第2オブジェクトG2における仮想空間の上下方向の位置が制御可能に構成されてもよい。また、左コントローラ3および/または右コントローラ4の実空間における前後方向の動作および/またはピッチ方向の姿勢に応じて、第1オブジェクトG1および/または第2オブジェクトG2における仮想空間の前後方向の位置が制御可能に構成されてもよい。また、左コントローラ3や右コントローラ4を用いた操作に応じて、第1オブジェクトG1および第2オブジェクトG2における仮想空間における姿勢が制御可能に構成されてもよい。この場合、左コントローラ3および/または右コントローラ4の実空間におけるロール方向の姿勢に応じて、第1オブジェクトG1および/または第2オブジェクトG2における仮想空間のロール方向に対する姿勢が制御可能に構成されてもよい。また、左コントローラ3および/または右コントローラ4の実空間におけるピッチ方向の姿勢に応じて、第1オブジェクトG1および/または第2オブジェクトG2における仮想空間のピッチ方向に対する姿勢が制御可能に構成されてもよい。また、左コントローラ3および/または右コントローラ4の実空間におけるヨー方向の姿勢に応じて、第1オブジェクトG1および/または第2オブジェクトG2における仮想空間のヨー方向に対する姿勢が制御可能に構成されてもよい。   Further, in the above-mentioned game example, an example in which the left and right positions of the virtual space in the first object G1 and the second object G2 can be controlled according to the operation using the left controller 3 and the right controller 4 is used. The position of the first object G1 and the second object G2 in the vertical direction and / or the position in the front-back direction of the virtual space may be controllable. In this case, the vertical position of the first object G1 and / or the second object G2 in the virtual space in accordance with the vertical motion and / or the pitch attitude of the left controller 3 and / or the right controller 4 in the real space. May be configured to be controllable. In addition, the position of the first object G1 and / or the second object G2 in the front-rear direction of the virtual space is determined according to the movement of the left controller 3 and / or the right controller 4 in the front-rear direction in the real space and / or the attitude in the pitch direction. It may be configured to be controllable. In addition, the postures of the first object G1 and the second object G2 in the virtual space may be configured to be controllable according to an operation using the left controller 3 or the right controller 4. In this case, depending on the posture of the left controller 3 and / or the right controller 4 in the roll direction in the real space, the posture of the first object G1 and / or the second object G2 in the roll direction of the virtual space can be controlled. Good. Further, depending on the posture of the left controller 3 and / or the right controller 4 in the pitch direction in the real space, the posture of the first object G1 and / or the second object G2 in the pitch direction of the virtual space can be controlled. Good. Further, depending on the posture of the left controller 3 and / or the right controller 4 in the yaw direction in the real space, the posture of the first object G1 and / or the second object G2 in the yaw direction of the virtual space may be controllable. Good.

また、上述した実施例において、左コントローラ3や右コントローラ4の動きや姿勢を検出する方法については、単なる一例であって、他の方法や他のデータを用いて左コントローラ3や右コントローラ4の動きや姿勢を検出してもよい。また、上述した実施例では、左コントローラ3や右コントローラ4を用いた操作に応じたゲーム画像を据置型モニタ6に表示しているが、本体装置2のディスプレイ12に表示してもよい。また、第1オブジェクトG1および/または第2オブジェクトG2の動作を制御するためのコントローラは、左コントローラ3および右コントローラ4のセットだけでなく、他のコントローラが組み合わせられたり、他のコントローラ同士が組み合わせられたりしてもよい。   Further, in the above-described embodiment, the method of detecting the movement and the posture of the left controller 3 and the right controller 4 is merely an example, and other methods and other data may be used to detect the left controller 3 and the right controller 4. You may detect a movement and a posture. Further, in the above-described embodiment, the game image corresponding to the operation using the left controller 3 or the right controller 4 is displayed on the stationary monitor 6, but it may be displayed on the display 12 of the main body device 2. Further, the controller for controlling the operation of the first object G1 and / or the second object G2 is not limited to the set of the left controller 3 and the right controller 4, but other controllers may be combined, or other controllers may be combined with each other. You may be killed.

また、他の実施形態においては、本体装置2は、据置型モニタ6と直接通信可能であってもよい。例えば、本体装置2と据置型モニタ6とが直接有線通信または直接無線通信を行うことが可能であってもよい。この場合、本体装置2は、本体装置2と据置型モニタ6とが直接通信可能か否かに基づいて画像の表示先を決定してもよい。   Further, in another embodiment, the main body device 2 may be capable of directly communicating with the stationary monitor 6. For example, the main body device 2 and the stationary monitor 6 may be capable of performing direct wired communication or direct wireless communication. In this case, the main body device 2 may determine the display destination of the image based on whether the main body device 2 and the stationary monitor 6 can directly communicate with each other.

また、付加装置(例えば、クレードル)は、本体装置2を着脱可能な任意の付加装置であってよい。付加装置は、本実施形態のように、本体装置2に対する充電を行う機能を有していてもよいし、有していなくてもよい。   Further, the additional device (for example, the cradle) may be any additional device to which the main body device 2 can be attached and detached. The additional device may or may not have the function of charging the main body device 2 as in the present embodiment.

また、情報処理システム1は、どのような装置であってもよく、携帯型のゲーム装置、任意の携帯型電子機器(PDA(Personal Digital Assistant)、携帯電話、パーソナルコンピュータ、カメラ、タブレット等)等であってもよい。   The information processing system 1 may be any device, such as a portable game device, any portable electronic device (PDA (Personal Digital Assistant), mobile phone, personal computer, camera, tablet, etc.). May be

また、上述した説明では情報処理(ゲーム処理)を情報処理システム1でそれぞれ行う例を用いたが、上記処理ステップの少なくとも一部を他の装置で行ってもかまわない。例えば、情報処理システム1がさらに他の装置(例えば、別のサーバ、他の画像表示装置、他のゲーム装置、他の携帯端末)と通信可能に構成されている場合、上記処理ステップは、さらに当該他の装置が協働することによって実行してもよい。このように、上記処理ステップの少なくとも一部を他の装置で行うことによって、上述した処理と同様の処理が可能となる。また、上述した情報処理(ゲーム処理)は、少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行されることが可能である。また、上記実施例においては、情報処理システム1のCPU81が所定のプログラムを実行することによって情報処理を行うことが可能であるが、情報処理システム1が備える専用回路によって上記処理の一部または全部が行われてもよい。   In the above description, an example in which information processing (game processing) is performed by the information processing system 1 is used, but at least part of the processing steps may be performed by another device. For example, when the information processing system 1 is configured to be communicable with another device (for example, another server, another image display device, another game device, another mobile terminal), the above processing steps further include It may be performed by the cooperation of the other device. In this way, by performing at least a part of the above-mentioned processing steps by another device, the same processing as the above-described processing becomes possible. Further, the above-described information processing (game processing) can be executed by one processor included in an information processing system including at least one information processing device or by cooperation between a plurality of processors. Further, in the above embodiment, the information processing can be performed by the CPU 81 of the information processing system 1 executing a predetermined program, but a part or all of the above processing is performed by a dedicated circuit included in the information processing system 1. May be performed.

ここで、上述した変形例によれば、いわゆるクラウドコンピューティングのシステム形態や分散型の広域ネットワークおよびローカルネットワークのシステム形態でも本発明を実現することが可能となる。例えば、分散型のローカルネットワークのシステム形態では、据置型の情報処理装置(据置型のゲーム装置)と携帯型の情報処理装置(携帯型のゲーム装置)との間で上記処理を協働により実行することも可能となる。なお、これらのシステム形態では、上述した処理をどの装置で行うかについては特に限定されず、どのような処理分担をしたとしても本発明を実現できることは言うまでもない。   Here, according to the modified example described above, the present invention can be realized in a so-called cloud computing system form or a distributed wide area network and local network system form. For example, in a distributed local network system configuration, the above-described processing is executed in cooperation between a stationary information processing device (stationary game device) and a portable information processing device (mobile game device). It is also possible to do. In these system configurations, it is needless to say that the device that performs the above-described processing is not particularly limited, and the present invention can be realized even if any processing is shared.

また、上述した情報処理で用いられる処理順序、設定値、判定に用いられる条件等は、単なる一例に過ぎず他の順序、値、条件であっても、本実施例を実現できることは言うまでもない。   Further, needless to say, the present embodiment can be realized even if the processing order, the set value, the condition used for the determination, and the like used in the above-described information processing are merely examples and other orders, values, and conditions are used.

また、上記プログラムは、外部メモリ等の外部記憶媒体を通じて情報処理システム1に供給されるだけでなく、有線または無線の通信回線を通じて当該装置に供給されてもよい。また、上記プログラムは、当該装置内部の不揮発性記憶装置に予め記録されていてもよい。なお、上記プログラムを記憶する情報記憶媒体としては、不揮発性メモリの他に、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープ、などでもよい。また、上記プログラムを記憶する情報記憶媒体としては、上記プログラムを記憶する揮発性メモリでもよい。このような記憶媒体は、コンピュータ等が読み取り可能な記録媒体ということができる。例えば、コンピュータ等に、これらの記録媒体のプログラムを読み込ませて実行させることにより、上述で説明した各種機能を提供させることができる。   The program may be supplied not only to the information processing system 1 through an external storage medium such as an external memory, but also to the device through a wired or wireless communication line. Further, the program may be recorded in advance in a non-volatile storage device inside the device. As the information storage medium for storing the above-mentioned program, in addition to the non-volatile memory, a CD-ROM, a DVD, or similar optical disc-shaped storage medium, a flexible disk, a hard disk, a magneto-optical disk, a magnetic tape, etc. But it's okay. The information storage medium that stores the program may be a volatile memory that stores the program. Such a storage medium can be referred to as a computer-readable recording medium. For example, the various functions described above can be provided by causing a computer or the like to read and execute the programs of these recording media.

以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、本発明の具体的な実施例の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。   Although the present invention has been described in detail above, the above description is merely an example of the present invention in all respects, and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. It is understood that the scope of the present invention should be construed only by the scope of the claims. Further, it is understood that those skilled in the art can implement equivalent ranges based on the description of the present invention and common general knowledge from the description of specific examples of the present invention. Further, it should be understood that the terms used in the present specification have meanings commonly used in the art, unless otherwise specified. Therefore, unless defined otherwise, all technical and technical terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. In case of conflict, the present specification, including definitions, will control.

以上のように、本発明は、操作指示可能な状態が断続的に生じるゲーム等において、操作を容易にすることが可能なゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法等として利用することができる。   INDUSTRIAL APPLICABILITY As described above, the present invention can be used as a game device, a game program, a game system, a game processing method, and the like that can facilitate operations in a game in which a state in which an operation instruction is possible occurs intermittently. You can

1…情報処理システム
2…本体装置
3…左コントローラ
4…右コントローラ
5…クレードル
6…据置型モニタ
11…ハウジング
12…ディスプレイ
27…下側端子
42,64…端子
73…本体端子
81…CPU
82…ネットワーク通信部
83…コントローラ通信部
85…DRAM
1 ... Information processing system 2 ... Main unit 3 ... Left controller 4 ... Right controller 5 ... Cradle 6 ... Stationary monitor 11 ... Housing 12 ... Display 27 ... Lower terminals 42, 64 ... Terminal 73 ... Main body terminal 81 ... CPU
82 ... Network communication unit 83 ... Controller communication unit 85 ... DRAM

Claims (17)

操作装置を用いた操作に基づいた情報処理を行う情報処理装置に含まれるコンピュータで実行される情報処理プログラムであって、
前記コンピュータを、
所定の条件に基づき、前記操作装置に対する振り操作が行われているか否かを判定する振り操作判定部と、
前記振り操作が行われていると判定された場合に、前記操作装置に対する当該振り操作の位置移動を示すデータを含む第1の操作データに基づいて、仮想空間においてオブジェクトの第1の移動方向への移動を開始させる移動開始判定部と、
前記振り操作の終了後であると判定された場合に、前記操作装置に対する回転操作または前記操作装置の姿勢を変化させる操作を示すデータを含む第2の操作データに基づいて、前記移動が開始された前記オブジェクトの移動方向を前記第1の移動方向から曲げて移動するように制御する軌道制御部として機能させる、情報処理プログラム。
An information processing program executed by a computer included in an information processing apparatus that performs information processing based on an operation using an operation device,
The computer,
Based on a predetermined condition, a swing operation determination unit that determines whether a swing operation is performed on the operating device,
When it is determined that the swing operation is performed , based on the first operation data including data indicating the position movement of the swing operation with respect to the operating device, the object moves in the first movement direction in the virtual space. A movement start determination unit for starting the movement of
When it is determined that the swing operation has been completed , the movement is started based on second operation data including data indicating a rotation operation on the operation device or an operation of changing the posture of the operation device. An information processing program that functions as a trajectory control unit that controls the movement direction of the object to bend and move from the first movement direction.
前記軌道制御部は、前記第2の操作データに基づいて、前記操作装置の振り操作の終了後であると判定された後に行われた前記操作装置の回転の方向に、前記移動が開始された前記オブジェクトの移動方向を前記第1の移動方向から曲げて移動するように制御する、請求項1に記載の情報処理プログラム。 The trajectory control unit starts the movement in a direction of rotation of the operating device performed after it is determined that the swinging operation of the operating device is completed based on the second operation data. The information processing program according to claim 1, wherein the movement direction of the object is controlled so as to bend and move from the first movement direction. 前記軌道制御部は、前記操作装置の回転操作を示すデータとして、実空間における重力方向周りの回転操作を示すデータを用いて前記オブジェクトの移動方向を制御する、請求項1または2に記載の情報処理プログラム。 Said track control unit, as data indicating a rotational operation of the operating device, to control the movement direction of the object using the data indicative of the rotational operation around the gravity direction in the real space, information according to claim 1 or 2 Processing program. 前記軌道制御部は、前記操作装置の回転操作を示すデータとして、実空間において前記操作装置に対する振り操作において位置移動した方向周りの当該操作装置の回転を示すデータを用いて前記オブジェクトの移動方向を制御する、請求項1または2に記載の情報処理プログラム。 The trajectory control unit uses the data indicating the rotation of the operating device around the direction in which the position is moved in the swinging operation with respect to the operating device in the real space as the data indicating the rotating operation of the operating device to determine the moving direction of the object. The information processing program according to claim 1, which is controlled. 前記軌道制御部は、前記操作装置の姿勢を変化させる操作を示すデータとして、実空間における重力方向を基準とした傾きを示すデータを用いて前記オブジェクトの移動方向を制御する、請求項1乃至4の何れか1つに記載の情報処理プログラム。 5. The trajectory control unit controls the moving direction of the object by using, as the data indicating the operation of changing the attitude of the operating device, the data indicating the inclination based on the gravity direction in the real space. The information processing program described in any one of 1. 前記第1の操作データは、前記操作装置に設けられた加速度センサにおける検出結果に基づくものであり、
前記第2の操作データは、前記操作装置に設けられたジャイロセンサまたは加速度センサにおける検出結果に基づくものである、請求項1乃至5の何れか1つに記載の情報処理プログラム。
The first operation data is based on a detection result of an acceleration sensor provided in the operation device,
The information processing program according to any one of claims 1 to 5, wherein the second operation data is based on a detection result of a gyro sensor or an acceleration sensor provided in the operation device.
前記第1の操作データは、前記操作装置に対する回転操作または前記操作装置の姿勢を変化させる操作を示すデータを含み、
前記移動開始判定部は、前記第1の操作データに含まれる前記操作装置に対する回転操作または前記操作装置の姿勢を変化させる操作を示すデータに基づいて、前記第1の移動方向を決定する、請求項1乃至5の何れか1つに記載の情報処理プログラム。
The first operation data includes data indicating a rotation operation with respect to the operation device or an operation for changing the posture of the operation device ,
The movement start determination unit determines the first movement direction based on data that is included in the first operation data and that indicates a rotation operation for the operation device or an operation that changes a posture of the operation device. Item 6. The information processing program according to any one of items 1 to 5.
前記第1の操作データに含まれる前記操作装置に対する回転操作を示すデータは、前記操作装置に生じている角速度を示すデータであり、
前記移動開始判定部は、
実空間における前記角速度の重力方向周りの成分の大きさが、前記角速度から重力方向周りの成分を除いた大きさよりも大きい場合、前記角速度の重力方向周りの成分を用いて前記第1の移動方向を決定し、
実空間における前記角速度の重力方向周りの成分の大きさが、前記角速度から重力方向周りの成分を除いた大きさ以下の場合は、実空間において前記操作装置が前記位置移動した方向周りの前記角速度の成分を用いて前記第1の移動方向を決定する、請求項に記載の情報処理プログラム。
The data indicating the rotational operation with respect to the operating device included in the first operating data is data indicating an angular velocity generated in the operating device,
The movement start determination unit,
When the magnitude of the component of the angular velocity around the gravity direction in the real space is larger than the size of the angular velocity excluding the component around the gravity direction, the first movement direction is calculated using the component around the gravity direction of the angular velocity. Decide
When the magnitude of the component of the angular velocity around the gravity direction in the real space is equal to or smaller than the magnitude of the angular velocity excluding the component around the gravity direction, the angular velocity around the direction in which the operating device moves in the real space. The information processing program according to claim 7 , wherein the first movement direction is determined using the component of.
前記移動開始判定部は、前記位置移動した方向周りの前記角速度の成分を用いて前記第1の移動方向を決定する場合、当該方向周りの角速度成分が正であるときと負であるときで、前記操作装置の回転を示すデータの大きさに対する曲がりの程度を変えて前記第1の移動方向を決定する、請求項に記載の情報処理プログラム。 When the movement start determination unit determines the first movement direction using the angular velocity component around the position moved direction, when the angular velocity component around the direction is positive and when the angular velocity component is negative, The information processing program according to claim 8 , wherein the first movement direction is determined by changing a degree of bending with respect to a size of data indicating rotation of the operating device. 前記第1の移動方向は、前記オブジェクトを含む仮想画像を生成する仮想カメラから見て前後方向であり、
前記軌道制御部は、前記第2の操作データに基づいて、前記仮想カメラから見て上下左右方向に前記第1の移動方向から曲げて前記オブジェクトの移動方向を制御する、請求項1乃至の何れか1つに記載の情報処理プログラム。
The first moving direction is a front-back direction when viewed from a virtual camera that generates a virtual image including the object,
Said track control unit, based on the second operation data, said controlling the moving direction of the object bending from said vertically and horizontally as viewed from the virtual camera first direction of travel, of claims 1 to 9 The information processing program described in any one.
前記軌道制御部は、仮想空間において前記オブジェクトが移動開始位置に戻る方向に移動している場合、前記第2の操作データに基づいて前記オブジェクトの移動方向の変更をしない、請求項1乃至1の何れか1つに記載の情報処理プログラム。 Said track control unit, when the in the virtual space object is moving back toward the movement start position, without changing the moving direction of the object based on the second operation data, according to claim 1 1 0 The information processing program described in any one of 1. 前記オブジェクトは、仮想空間におけるプレイヤキャラクタの拳である、請求項1乃至1の何れか1つに記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 11, wherein the object is a fist of a player character in a virtual space. 前記情報処理装置は、2つの前記操作装置を用いた操作に基づいた情報処理を行い、
前記移動開始判定部および前記軌道制御部は、前記2つの操作装置それぞれの操作に基づいて、2つの前記オブジェクトそれぞれの移動を開始する処理およびそれぞれの移動方向を曲げる処理を行う、請求項1乃至1の何れか1つに記載の情報処理プログラム。
The information processing device performs information processing based on an operation using the two operation devices,
2. The movement start determination unit and the trajectory control unit perform a process of starting the movement of each of the two objects and a process of bending the movement direction of each of the two objects based on an operation of each of the two operating devices. the information processing program according to any one of 1 2.
前記2つの操作装置両方の操作に基づいて、仮想空間において前記オブジェクトを有するプレイヤキャラクタを移動させるプレイヤキャラクタ移動制御部として、さらに前記コンピュータを機能させる、請求項1に記載の情報処理プログラム。 Based on the two operating devices both operations, as the player character movement control unit for moving the player character having the object in the virtual space, to further function the computer storage medium according to claim 1 3. 操作装置を用いた操作に基づいた情報処理を行う情報処理装置であって、
所定の条件に基づき、前記操作装置に対する振り操作が行われているか否かを判定する振り操作判定部と、
前記振り操作が行われていると判定された場合に、前記操作装置に対する当該振り操作の位置移動を示すデータを含む第1の操作データに基づいて、仮想空間においてオブジェクトの第1の移動方向への移動を開始させる移動開始判定部と、
前記振り操作の終了後であると判定された場合に、前記操作装置に対する回転操作または前記操作装置の姿勢を変化させる操作を示すデータを含む第2の操作データに基づいて、前記移動が開始された前記オブジェクトの移動方向を前記第1の移動方向から曲げて移動するように制御する軌道制御部とを備える、情報処理装置。
An information processing device that performs information processing based on an operation using an operation device,
Based on a predetermined condition, a swing operation determination unit that determines whether a swing operation is performed on the operating device,
When it is determined that the swing operation is performed , based on the first operation data including data indicating the position movement of the swing operation with respect to the operating device, the object moves in the first movement direction in the virtual space. A movement start determination unit for starting the movement of
When it is determined that the swing operation has been completed , the movement is started based on second operation data including data indicating a rotation operation on the operation device or an operation of changing the posture of the operation device. An information processing apparatus, comprising: a trajectory control unit that controls the moving direction of the object so as to bend the object from the first moving direction.
操作装置と、当該操作装置を用いた操作に基づいた情報処理を行う情報処理装置とを含む情報処理システムであって、
前記情報処理装置は、
所定の条件に基づき、前記操作装置に対する振り操作が行われているか否かを判定する振り操作判定部と、
前記振り操作が行われていると判定された場合に、前記操作装置に対する当該振り操作の位置移動を示すデータを含む第1の操作データに基づいて、仮想空間においてオブジェクトの第1の移動方向への移動を開始させる移動開始判定部と、
前記振り操作の終了後であると判定された場合に、前記操作装置に対する回転操作または前記操作装置の姿勢を変化させる操作を示すデータを含む第2の操作データに基づいて、前記移動が開始された前記オブジェクトの移動方向を前記第1の移動方向から曲げて移動するように制御する軌道制御部とを備える、情報処理システム。
An information processing system including an operating device and an information processing device that performs information processing based on an operation using the operating device,
The information processing device,
Based on a predetermined condition, a swing operation determination unit that determines whether a swing operation is performed on the operating device,
When it is determined that the swing operation is being performed , based on the first operation data including the data indicating the position movement of the swing operation with respect to the operating device, in the first movement direction of the object in the virtual space. A movement start determination unit for starting the movement of
When it is determined that the swing operation has been completed , the movement is started based on second operation data including data indicating a rotation operation on the operation device or an operation for changing the posture of the operation device. An information processing system, comprising: a trajectory control unit that controls the moving direction of the object so as to bend the object from the first moving direction.
操作装置を用いた操作に基づいた情報処理を行う情報処理方法であって、
所定の条件に基づき、前記操作装置に対する振り操作が行われているか否かを判定する振り操作判定ステップと、
前記振り操作が行われていると判定された場合に、前記操作装置に対する当該振り操作の位置移動を示すデータを含む第1の操作データに基づいて、仮想空間においてオブジェクトの第1の移動方向への移動を開始させる移動開始判定ステップと、
前記振り操作の終了後であると判定された場合に、前記操作装置に対する回転操作または前記操作装置の姿勢を変化させる操作を示すデータを含む第2の操作データに基づいて、前記移動が開始された前記オブジェクトの移動方向を前記第1の移動方向から曲げて移動するように制御する軌道制御ステップとを含む、情報処理方法。
An information processing method for performing information processing based on an operation using an operation device,
A swinging operation determination step of determining whether or not a swinging operation is performed on the operating device based on a predetermined condition,
When it is determined that the swing operation is being performed , based on the first operation data including the data indicating the position movement of the swing operation with respect to the operating device, in the first movement direction of the object in the virtual space. A movement start determination step for starting the movement of
When it is determined that the swing operation has been completed , the movement is started based on second operation data including data indicating a rotation operation on the operation device or an operation for changing the posture of the operation device. And a trajectory control step of controlling the moving direction of the object so as to bend and move the object from the first moving direction.
JP2017118622A 2017-06-16 2017-06-16 Game device, game program, game system, and game processing method Active JP6693911B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017118622A JP6693911B2 (en) 2017-06-16 2017-06-16 Game device, game program, game system, and game processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017118622A JP6693911B2 (en) 2017-06-16 2017-06-16 Game device, game program, game system, and game processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016113214A Division JP6643191B2 (en) 2016-06-07 2016-06-07 GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME PROCESSING METHOD

Publications (2)

Publication Number Publication Date
JP2017217489A JP2017217489A (en) 2017-12-14
JP6693911B2 true JP6693911B2 (en) 2020-05-13

Family

ID=60658797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017118622A Active JP6693911B2 (en) 2017-06-16 2017-06-16 Game device, game program, game system, and game processing method

Country Status (1)

Country Link
JP (1) JP6693911B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7425813B2 (en) 2022-02-15 2024-01-31 任天堂株式会社 Information processing program, information processing device, information processing method, and information processing system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4027031B2 (en) * 2000-11-16 2007-12-26 株式会社コナミデジタルエンタテインメント Competitive 3D video game device
JP4330593B2 (en) * 2006-03-13 2009-09-16 任天堂株式会社 GAME DEVICE AND GAME PROGRAM
JP4979313B2 (en) * 2006-09-13 2012-07-18 任天堂株式会社 GAME PROGRAM AND GAME DEVICE
JP5420824B2 (en) * 2007-03-30 2014-02-19 任天堂株式会社 GAME DEVICE AND GAME PROGRAM
JP5436772B2 (en) * 2007-12-14 2014-03-05 株式会社バンダイナムコゲームス Program and game device
JP5730463B2 (en) * 2008-07-11 2015-06-10 任天堂株式会社 GAME PROGRAM AND GAME DEVICE
JP5289031B2 (en) * 2008-12-22 2013-09-11 任天堂株式会社 GAME DEVICE AND GAME PROGRAM
JP5420955B2 (en) * 2009-03-31 2014-02-19 任天堂株式会社 GAME DEVICE AND GAME PROGRAM

Also Published As

Publication number Publication date
JP2017217489A (en) 2017-12-14

Similar Documents

Publication Publication Date Title
EP3343323B1 (en) Information processing program, information processing apparatus, information processing system, and information processing method
US8337308B2 (en) Game system, game device, storage medium storing game program, and game process method
JP6877893B2 (en) Game device, game system, game program, and swing input judgment method
EP3434342B1 (en) Game system, accessory, game program, and game processing method
JP6563365B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, OPERATION DETERMINING METHOD, AND INFORMATION PROCESSING DEVICE
JP2011227804A (en) Operation device and information processing system
EP3369466B1 (en) Game system, game apparatus, game program, and game processing method
JP2020058659A (en) Game system, game processing method, game program, game device, and game controller
US11426659B2 (en) Storage medium, information processing apparatus, information processing system, and game processing method
JP6643191B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME PROCESSING METHOD
JP2021194259A (en) Information processing program, information processing device, information processing system, and information processing method
JP2022002627A (en) Game program, game device, game system, and method of processing game
JP6693911B2 (en) Game device, game program, game system, and game processing method
JP6564334B2 (en) Information processing apparatus, information processing system, information processing method, and information processing program
JP6955339B2 (en) Information processing programs, information processing devices, information processing systems, and information processing methods
US11285394B1 (en) Computer-readable non-transitory storage medium having instructions stored therein, game apparatus, game system, and game processing method
JP6688423B1 (en) Information processing system, information processing program, information processing apparatus, and information processing method
JP6829608B2 (en) Information processing programs, information processing devices, information processing systems, and information processing methods
JP6973967B2 (en) Information processing programs, information processing devices, information processing systems, and information processing methods
JP6564335B2 (en) Information processing apparatus, information processing system, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200416

R150 Certificate of patent or registration of utility model

Ref document number: 6693911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250