JP2020185373A - Information processing program - Google Patents

Information processing program Download PDF

Info

Publication number
JP2020185373A
JP2020185373A JP2020035866A JP2020035866A JP2020185373A JP 2020185373 A JP2020185373 A JP 2020185373A JP 2020035866 A JP2020035866 A JP 2020035866A JP 2020035866 A JP2020035866 A JP 2020035866A JP 2020185373 A JP2020185373 A JP 2020185373A
Authority
JP
Japan
Prior art keywords
game space
display mode
unit
player object
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020035866A
Other languages
Japanese (ja)
Other versions
JP7045408B2 (en
Inventor
真 米津
Makoto Yonezu
真 米津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to US16/867,830 priority Critical patent/US11117050B2/en
Publication of JP2020185373A publication Critical patent/JP2020185373A/en
Application granted granted Critical
Publication of JP7045408B2 publication Critical patent/JP7045408B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To provide an information processing program capable of reducing a loading time that a user physically feels during switching types of a game space.SOLUTION: An information processing program causes a computer to function as: a first object display part for displaying a player object in a first game space 71 in a first display mode; a choice generation part for generating an image for allowing a user to select one first game space as a selection game space; a type determination part for determining a game space type on the basis of the selected selection game space; a mode change part for changing the player object from the first display mode to a second display mode corresponding to the determined game space type in the first game space; a loading part for loading data of the selected selection game space to a memory of an information processing device; and a second object display part for displaying the player object in the selection game space in a third display mode related to the second display mode.SELECTED DRAWING: Figure 11

Description

本発明は、情報処理プログラム、情報処理装置、及び情報処理方法に関する。 The present invention relates to an information processing program, an information processing device, and an information processing method.

非特許文献1に示すゲームでは、予め設定された複数のゲームのコース(ゲーム空間)の中から、ユーザがコースを選択すると、選択されたコースをプレイする際に、そのコースのタイプに応じて、プレイヤのキャラクタの姿が変化するように構成されており、遊戯性を高めている。 In the game shown in Non-Patent Document 1, when a user selects a course from a plurality of preset game courses (game spaces), the selected course is played according to the type of the course. , The appearance of the player's character is configured to change, enhancing playability.

任天堂株式会社、[online]、[平成31年4月10日検索]、インターネット、<https://www.nintendo.co.jp/wiiu/amaj/guide/page_06.html>Nintendo Co., Ltd., [online], [Searched April 10, 2019], Internet, <https://www.nintendo.co.jp/wiiu/amaj/guide/page_06.html>

しかしながら、このゲームにおいては、コースを選択後、そのコースに係るデータがメモリにロードされる間、ユーザは待機するしかなかった。本発明は、この問題を解決するためになされたものであり、コースを切り替える際に、ユーザが体感するロード時間を低減することができる、情報処理プログラム、情報処理装置、及び情報処理方法を提供することを目的とする。 However, in this game, after selecting a course, the user has no choice but to wait while the data related to the course is loaded into the memory. The present invention has been made to solve this problem, and provides an information processing program, an information processing device, and an information processing method capable of reducing the load time experienced by the user when switching courses. The purpose is to do.

本開示に係る情報処理プログラムは、情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、第1ゲーム空間にプレイヤオブジェクトを第1表示態様で表示する第1オブジェクト表示部と、前記第1表示態様で表示された前記プレイヤオブジェクトを、ユーザの操作に基づいて、前記第1ゲーム空間において三次元移動させる三次元制御を行う第1オブジェクト制御部と、複数の第2ゲーム空間の各々に対応する選択肢の中から、一の前記第2ゲーム空間を選択ゲーム空間として、前記ユーザに選択させるための画像を生成する選択肢生成部と、前記複数の第2ゲーム空間の各々に対して設定されたゲーム空間タイプを、選択された前記選択ゲーム空間に基づいて、判定するタイプ判定部と、前記ゲーム空間タイプの判定後、前記第1ゲーム空間において、前記プレイヤオブジェクトを前記第1表示態様から、判定された前記ゲーム空間タイプに対応する第2表示態様に変化させる態様変化部と、選択された前記選択ゲーム空間のデータを、前記情報処理装置のメモリにロードするロード部と、前記選択ゲーム空間のデータのロードの完了後に、前記選択ゲーム空間に前記プレイヤオブジェクトを前記第2表示態様に関連する第3表示態様で表示する第2オブジェクト表示部と、前記第3表示態様で表示された前記プレイヤオブジェクトを、前記ユーザの操作に基づいて、前記選択ゲーム空間において二次元移動させる二次元制御を行う第2オブジェクト制御部と、して前記コンピュータを機能させる。 The information processing program according to the present disclosure is an information processing program executed by a computer of an information processing apparatus, and includes a first object display unit that displays a player object in a first display mode in a first game space, and the first object display unit. Corresponds to each of the first object control unit that performs three-dimensional control for moving the player object displayed in the display mode three-dimensionally in the first game space based on the user's operation, and each of the plurality of second game spaces. The option generation unit that generates an image for the user to select, and each of the plurality of second game spaces are set with the second game space as the selection game space. The type determination unit that determines the game space type based on the selected selected game space, and after determining the game space type, determines the player object from the first display mode in the first game space. A mode changing unit that changes to the second display mode corresponding to the selected game space type, a loading unit that loads the selected data of the selected game space into the memory of the information processing device, and the selected game space. After the data loading is completed, the second object display unit that displays the player object in the selected game space in the third display mode related to the second display mode, and the player object displayed in the third display mode. Is a second object control unit that performs two-dimensional control for two-dimensional movement in the selected game space based on the user's operation, and causes the computer to function.

この構成によれば、プレイヤオブジェクトに対して三次元制御を行う第1ゲーム空間から、プレイヤオブジェクトに対して二次元制御を行う第2ゲーム空間に遷移する際に、選択された第2ゲーム空間のゲーム空間タイプに応じて、プレイヤオブジェクトを第1ゲーム空間内で、一旦第2表示態様に変化させた後、第2ゲーム空間においてオブジェクトを第3表示態様で表示している。ここで、第2表示態様は、第3表示態様に関連するものであるため、第1ゲーム空間から第2ゲーム空間に遷移する際に、オブジェクトが突然、二次元制御のための第3表示態様に変化するユーザの違和感を低減することができる。 According to this configuration, the second game space selected when transitioning from the first game space that controls the player object three-dimensionally to the second game space that controls the player object two-dimensionally. Depending on the game space type, the player object is once changed to the second display mode in the first game space, and then the object is displayed in the third display mode in the second game space. Here, since the second display mode is related to the third display mode, the object suddenly becomes the third display mode for two-dimensional control when transitioning from the first game space to the second game space. It is possible to reduce the user's discomfort that changes to.

また、プレイヤオブジェクトが第1表示態様から第2表示態様に変化し、その後、選択ゲーム空間を表示して二次元制御が開始されるまでの時間を利用して選択ゲーム空間のデータのロードを行うことができる。すなわち、第1ゲーム空間から第2ゲーム空間に遷移するまでの間に、プレイヤオブジェクトの表示態様の変化をユーザに見せる時間が設けられるため、データのロードをユーザが体感する時間を低減することができる。 Further, the data of the selected game space is loaded by using the time until the player object changes from the first display mode to the second display mode, and then the selected game space is displayed and the two-dimensional control is started. be able to. That is, since a time is provided for the user to see the change in the display mode of the player object during the transition from the first game space to the second game space, it is possible to reduce the time for the user to experience the loading of data. it can.

上記情報処理プログラムにおいて、前記第2オブジェクト制御部は、前記第1オブジェクト制御部とは、異なる操作方法により、前記プレイヤオブジェクトの操作を行わせることができる。 In the information processing program, the second object control unit can operate the player object by an operation method different from that of the first object control unit.

この構成のように、第1ゲーム空間と第2ゲーム空間とでプレイヤオブジェクトの操作方法が異なる場合、ユーザは、違和感を感じる可能性があるが、上記のように、第2表示態様を示すことで、ユーザは第2ゲーム空間に遷移したときに、操作方法が変わることに対する準備を行うことができる。その結果、操作方法の誤りを低減することができる。 When the operation method of the player object is different between the first game space and the second game space as in this configuration, the user may feel a sense of discomfort, but the second display mode is shown as described above. Then, when the user transitions to the second game space, he / she can prepare for the change of the operation method. As a result, it is possible to reduce errors in the operation method.

上記情報処理プログラムにおいて、前記第2オブジェクト制御部は、前議第1オブジェクト制御部とは、異なる操作入力手段により、前記プレイヤオブジェクトの操作を行わせることができる。 In the information processing program, the second object control unit can operate the player object by an operation input means different from that of the first object control unit of the previous discussion.

操作入力手段とは、例えば、プレイヤオブジェクトを操作するためのアナログスティック、十字キー、ボタンなどであり、例えば、第1オブジェクト制御部がアナログスティックによる操作を行わせるのに対し、第2オブジェクト制御部が十字キーによる操作を行わせるように、操作入力手段が異なるように構成することができる。この場合であっても、ユーザは第2ゲーム空間に遷移したときに、操作入力手段が変わることに対する準備を行うことができる。 The operation input means is, for example, an analog stick, a cross key, a button, or the like for operating a player object. For example, while the first object control unit is operated by the analog stick, the second object control unit is used. The operation input means can be configured to be different so that the operation with the cross key is performed. Even in this case, the user can prepare for the change of the operation input means when the transition to the second game space occurs.

上記情報処理プログラムにおいて、前記第2オブジェクト制御部は、前記選択ゲーム空間の前記ゲーム空間タイプ毎に設定された操作方法により、前記プレイヤオブジェクトの操作を行わせることができる。この場合であっても、ユーザは第2ゲーム空間に遷移したときに、操作方法が変わることに対する準備を行うことができる。 In the information processing program, the second object control unit can operate the player object by the operation method set for each game space type of the selected game space. Even in this case, the user can prepare for the change in the operation method when the transition to the second game space occurs.

上記情報処理プログラムにおいて、前記第2オブジェクト制御部は、前記選択ゲーム空間の前記ゲーム空間タイプ毎に設定された操作入力手段により、前記プレイヤオブジェクトの操作を行わせることができる。この場合であっても、ユーザは第2ゲーム空間に遷移したときに、操作入力手段が変わることに対する準備を行うことができる。 In the information processing program, the second object control unit can operate the player object by the operation input means set for each game space type of the selected game space. Even in this case, the user can prepare for the change of the operation input means when the transition to the second game space occurs.

上記情報処理プログラムにおいて、前記態様変化部は、前記第2表示態様として、種々の表示態様を設定することができるが、例えば、前記第3表示態様を三次元的に表現した表示態様を用いることができる。 In the information processing program, the mode changing unit can set various display modes as the second display mode. For example, a display mode that three-dimensionally expresses the third display mode is used. Can be done.

あるいは、前記態様変化部は、前記第2表示態様として、例えば、前記第3表示態様を用いることができる。これにより、第2ゲーム空間で表示する第3表示態様を、第1ゲーム空間において既に表示することになるため、第2表示空間に遷移する際に、第3表示態様のプレイヤオブジェクトを改めてロードすることが不要になる。したがって、第3表示態様のプレイヤオブジェクトに係るデータをロードする時間をなくすことができる。 Alternatively, the mode changing unit can use, for example, the third display mode as the second display mode. As a result, the third display mode to be displayed in the second game space is already displayed in the first game space. Therefore, when transitioning to the second display space, the player object in the third display mode is loaded again. Is no longer necessary. Therefore, it is possible to eliminate the time for loading the data related to the player object in the third display mode.

上記情報処理プログラムにおいて、前記第1オブジェクト表示部は、前記第1表示態様として三次元の表示態様を用いることができる。これにより、第1ゲーム空間における三次元制御に、第1表示態様が適合するため、ユーザが操作しやすくなる。 In the information processing program, the first object display unit can use a three-dimensional display mode as the first display mode. As a result, since the first display mode is suitable for the three-dimensional control in the first game space, the user can easily operate the game.

上記情報処理プログラムにおいて、前記第2オブジェクト表示部は、二次元空間を表現する前記選択ゲーム空間に、前記プレイヤオブジェクトを前記第3表示態様で表示することができる。これにより、第2ゲーム空間における二次元制御に、第2ゲーム空間が適合するため、ユーザが操作しやすくなる。 In the information processing program, the second object display unit can display the player object in the third display mode in the selected game space representing the two-dimensional space. As a result, the second game space is adapted to the two-dimensional control in the second game space, so that the user can easily operate the game space.

上記情報処理プログラムにおいて、前記プレイヤオブジェクトが前記第2表示態様に変化した後に、当該プレイヤオブジェクトを他の部分よりも視覚的に強調した画像を生成する強調画像生成手段として、前記コンピュータをさらに機能させることができる。 In the information processing program, after the player object is changed to the second display mode, the computer is further functioned as a emphasized image generation means for generating an image in which the player object is visually emphasized more than other parts. be able to.

この構成により、ゲーム空間が遷移することをユーザに、より分かりやすく示すことができる。 With this configuration, it is possible to show the user that the game space is transitioning in an easy-to-understand manner.

上記情報処理プログラムにおいては、前記第2ゲーム空間で前記二次元制御を行っている場合に、前記第1ゲーム空間をロードする条件が満たされた場合に、前記ロード部は、前記第1ゲーム空間のデータのロードを行い、前記態様変化部は、前記第1ゲーム空間で前記三次元制御を開始するよりも前に、前記第2ゲーム空間において、前記プレイヤオブジェクトを前記第3表示態様から、前記第1表示態様に変化させることができる。 In the information processing program, when the two-dimensional control is performed in the second game space and the condition for loading the first game space is satisfied, the loading unit is subjected to the first game space. Data is loaded, and the mode changing unit displays the player object from the third display mode in the second game space before starting the three-dimensional control in the first game space. It can be changed to the first display mode.

本開示に係る第1の情報処理装置は、表示部と、メモリと、前記表示部に表示された第1ゲーム空間に、プレイヤオブジェクトを第1表示態様で表示する第1オブジェクト表示部と、前記第1表示態様で表示された前記プレイヤオブジェクトを、ユーザの操作に基づいて、前記第1ゲーム空間において三次元移動させる三次元制御を行う第1オブジェクト制御部と、複数の第2ゲーム空間の各々に対応する選択肢の中から、一の前記第2ゲーム空間を選択ゲーム空間として、前記ユーザに選択させるための画像を生成する選択肢生成部と、前記複数の第2ゲーム空間の各々に対して設定されたゲーム空間タイプを、選択された前記選択ゲーム空間に基づいて、判定するタイプ判定部と、前記ゲーム空間タイプの判定後、前記第1ゲーム空間において、前記プレイヤオブジェクトを前記第1表示態様から、判定された前記ゲーム空間タイプに対応する第2表示態様に変化させる態様変化部と、選択された前記選択ゲーム空間のデータを、前記メモリにロードするロード部と、前記選択ゲーム空間のデータのロードの完了後に、前記表示部に表示された前記選択ゲーム空間に、前記プレイヤオブジェクトを前記第2表示態様に関連する第3表示態様で表示する第2オブジェクト表示部と、前記第3表示態様で表示された前記プレイヤオブジェクトを、前記ユーザの操作に基づいて、前記選択ゲーム空間において二次元移動させる二次元制御を行う第2オブジェクト制御部と、を備えている。 The first information processing apparatus according to the present disclosure includes a display unit, a memory, a first object display unit that displays a player object in a first display mode in a first game space displayed on the display unit, and the above. A first object control unit that performs three-dimensional control for three-dimensionally moving the player object displayed in the first display mode in the first game space based on a user's operation, and each of a plurality of second game spaces. The second game space is set as the selection game space from the options corresponding to the above, and the option generation unit that generates an image for the user to select is set for each of the plurality of second game spaces. A type determination unit that determines the selected game space type based on the selected selected game space, and after determining the game space type, the player object is displayed from the first display mode in the first game space. , A mode changing unit that changes to the second display mode corresponding to the determined game space type, a loading unit that loads the selected data of the selected game space into the memory, and data of the selected game space. After the loading is completed, the second object display unit that displays the player object in the third display mode related to the second display mode in the selected game space displayed on the display unit, and the third display mode. It is provided with a second object control unit that performs two-dimensional control for moving the displayed player object two-dimensionally in the selected game space based on the operation of the user.

本開示に係る第2の情報処理装置は、表示部を有する表示装置に接続される情報処理装置であって、メモリと、前記表示部に表示された第1ゲーム空間に、プレイヤオブジェクトを第1表示態様で表示する第1オブジェクト表示部と、前記第1表示態様で表示された前記プレイヤオブジェクトを、ユーザの操作に基づいて、前記第1ゲーム空間において三次元移動させる三次元制御を行う第1オブジェクト制御部と、複数の第2ゲーム空間の各々に対応する選択肢の中から、一の前記第2ゲーム空間を選択ゲーム空間として、前記ユーザに選択させるための画像を生成する選択肢生成部と、前記複数の第2ゲーム空間の各々に対して設定されたゲーム空間タイプを、選択された前記選択ゲーム空間に基づいて、判定するタイプ判定部と、前記ゲーム空間タイプの判定後、前記第1ゲーム空間において、前記プレイヤオブジェクトを前記第1表示態様から、判定された前記ゲーム空間タイプに対応する第2表示態様に変化させる態様変化部と、選択された前記選択ゲーム空間のデータを、前記メモリにロードするロード部と、前記選択ゲーム空間のデータのロードの完了後に、前記表示部に表示された前記選択ゲーム空間に、前記プレイヤオブジェクトを前記第2表示態様に関連する第3表示態様で表示する第2オブジェクト表示部と、前記第3表示態様で表示された前記プレイヤオブジェクトを、前記ユーザの操作に基づいて、前記選択ゲーム空間において二次元移動させる二次元制御を行う第2オブジェクト制御部と、を備えている。 The second information processing device according to the present disclosure is an information processing device connected to a display device having a display unit, and a player object is first placed in a memory and a first game space displayed on the display unit. A first object that performs three-dimensional control for three-dimensionally moving the first object display unit displayed in the display mode and the player object displayed in the first display mode in the first game space based on the user's operation. An object control unit, an option generation unit that generates an image for the user to select one of the second game spaces as the selection game space from the options corresponding to each of the plurality of second game spaces, and an option generation unit. The type determination unit that determines the game space type set for each of the plurality of second game spaces based on the selected selected game space, and the first game after determining the game space type. In the space, the mode changing unit that changes the player object from the first display mode to the second display mode corresponding to the determined game space type, and the data of the selected selected game space are stored in the memory. After the loading unit to be loaded and the loading of the data in the selected game space are completed, the player object is displayed in the selected game space displayed on the display unit in the third display mode related to the second display mode. A second object display unit, a second object control unit that performs two-dimensional control for two-dimensionally moving the player object displayed in the third display mode in the selected game space based on the user's operation, and It has.

本開示に係る情報処理方法は、情報処理装置のコンピュータにおいて実行する情報処理方法であって、第1ゲーム空間にプレイヤオブジェクトを第1表示態様で表示するステップと、前記第1表示態様で表示された前記プレイヤオブジェクトを、ユーザの操作に基づいて、前記第1ゲーム空間において三次元移動させる三次元制御を行うステップと、複数の第2ゲーム空間の各々に対応する選択肢の中から、一の前記第2ゲーム空間を選択ゲーム空間として、前記ユーザに選択させるための画像を生成するステップと、前記複数の第2ゲーム空間の各々に対して設定されたゲーム空間タイプを、選択された前記選択ゲーム空間に基づいて、判定するステップと、前記ゲーム空間タイプの判定後、前記第1ゲーム空間において、前記プレイヤオブジェクトを前記第1表示態様から、判定された前記ゲーム空間タイプに対応する第2表示態様に変化させるステップと、選択された前記選択ゲーム空間のデータを、前記情報処理装置のメモリにロードするステップと、前記選択ゲーム空間のデータのロードの完了後に、前記選択ゲーム空間に前記プレイヤオブジェクトを前記第2表示態様に関連する第3表示態様で表示するステップと、前記第3表示態様で表示された前記プレイヤオブジェクトを、前記ユーザの操作に基づいて、前記選択ゲーム空間において二次元移動させる二次元制御を行うステップと、を備えている。 The information processing method according to the present disclosure is an information processing method executed by a computer of an information processing apparatus, and is displayed in a step of displaying a player object in a first game space in a first display mode and a step of displaying the player object in the first display mode. From the step of performing three-dimensional control for moving the player object three-dimensionally in the first game space based on the user's operation and the options corresponding to each of the plurality of second game spaces, one of the above. The selected game in which the step of generating an image for the user to select the second game space as the selected game space and the game space type set for each of the plurality of second game spaces are selected. After the determination step based on the space and the determination of the game space type, in the first game space, the player object is displayed from the first display mode to the second display mode corresponding to the determined game space type. After the step of changing to, the step of loading the selected data of the selected game space into the memory of the information processing device, and the step of loading the data of the selected game space are completed, the player object is placed in the selected game space. The step of displaying in the third display mode related to the second display mode and the player object displayed in the third display mode are moved two-dimensionally in the selected game space based on the operation of the user. It has a step to control the dimension.

上記情報処理プログラム、情報処理装置、及び情報処理方法によれば、ゲーム空間のタイプを切り替える際のデータのロード中においても、ユーザに対する遊戯性を演出することができる。 According to the information processing program, the information processing device, and the information processing method, it is possible to produce playability for the user even during loading of data when switching the type of the game space.

本体装置に左コントローラおよび右コントローラ装着した状態のゲームシステムの一例を示す図である。It is a figure which shows an example of the game system in the state which the left controller and the right controller are attached to the main body device. 本体装置から左コントローラおよび右コントローラをそれぞれ外した状態のゲームシステムの一例を示す図である。It is a figure which shows an example of the game system in the state which the left controller and the right controller are removed from the main body device respectively. 図1の本体装置の一例を示す六面図である。It is a hexagonal view which shows an example of the main body apparatus of FIG. 図1の左コントローラの一例を示す六面図である。It is a hexagonal view which shows an example of the left controller of FIG. 図1の右コントローラの一例を示す六面図である。It is a six-sided view which shows an example of the right controller of FIG. 図1の本体装置の内部構成の一例を示すブロック図である。It is a block diagram which shows an example of the internal structure of the main body apparatus of FIG. 図1の本体装置と左コントローラおよび右コントローラとの内部構成の一例を示すブロック図である。It is a block diagram which shows an example of the internal structure of the main body apparatus of FIG. ディスプレイに表示される第1ゲーム空間の概要を示す図である。It is a figure which shows the outline of the 1st game space displayed on the display. ディスプレイに表示される第2ゲーム空間のタイプT1の概要を示す図である。It is a figure which shows the outline of the type T1 of the 2nd game space which is displayed on the display. ディスプレイに表示される第2ゲーム空間のタイプT2の概要を示す図である。It is a figure which shows the outline of the type T2 of the 2nd game space which is displayed on the display. 図8の第1ゲーム空間に第2表示態様のプレイヤオブジェクトが表示された状態を示す図である。It is a figure which shows the state which the player object of the 2nd display mode is displayed in the 1st game space of FIG. 図9の第1ゲーム空間に第2表示態様のプレイヤオブジェクトが表示された状態を示す図である。It is a figure which shows the state which the player object of the 2nd display mode is displayed in the 1st game space of FIG. 本発明の一実施形態に係るゲームシステムの機能構成の一例である。This is an example of the functional configuration of the game system according to the embodiment of the present invention. ゲーム空間タイプリストが表示された第1ゲーム空間の画面の例を示す図である。It is a figure which shows the example of the screen of the 1st game space which displayed the game space type list. DRAMに記憶されるデータの一例である。This is an example of data stored in DRAM. ゲーム処理の一例を示すフローチャートである。It is a flowchart which shows an example of a game process. 遷移処理の他の例を示す図である。It is a figure which shows another example of a transition process.

以下、本発明に係る情報処理装置を、ゲームシステムに適用した場合の一実施形態について説明する。 Hereinafter, an embodiment when the information processing device according to the present invention is applied to a game system will be described.

<1.ゲームシステムのハードウエア構成>
以下、本実施形態の一例に係るゲームシステムについて説明する。本実施形態におけるゲームシステム1の一例は、本体装置(情報処理装置;本実施形態ではゲーム装置本体として機能する)2と左コントローラ3および右コントローラ4とを含む。本体装置2は、左コントローラ3および右コントローラ4がそれぞれ着脱可能である。つまり、ゲームシステム1は、左コントローラ3および右コントローラ4をそれぞれ本体装置2に装着して一体化された装置として利用できる。また、ゲームシステム1は、本体装置2と左コントローラ3および右コントローラ4とを別体として利用することもできる(図2参照)。以下では、本実施形態のゲームシステム1のハードウエア構成について説明し、その後に本実施形態のゲームシステム1の制御について説明する。
<1. Game system hardware configuration>
Hereinafter, a game system according to an example of the present embodiment will be described. An example of the game system 1 in the present embodiment includes a main body device (information processing device; functions as a game device main body in the present embodiment) 2, a left controller 3, and a right controller 4. The left controller 3 and the right controller 4 can be attached to and detached from the main body device 2, respectively. That is, the game system 1 can be used as an integrated device by mounting the left controller 3 and the right controller 4 on the main body device 2, respectively. Further, the game system 1 can also use the main body device 2, the left controller 3 and the right controller 4 as separate bodies (see FIG. 2). Hereinafter, the hardware configuration of the game system 1 of the present embodiment will be described, and then the control of the game system 1 of the present embodiment will be described.

<1−1.本体装置>
図1は、本体装置2に左コントローラ3および右コントローラ4を装着した状態の一例を示す図である。図1に示すように、左コントローラ3および右コントローラ4は、それぞれ本体装置2に装着されて一体化されている。本体装置2は、ゲームシステム1における各種の処理(例えば、ゲーム処理)を実行する装置である。本体装置2は、ディスプレイ(表示部)12を備える。左コントローラ3および右コントローラ4は、ユーザが入力を行うための操作部を備える装置である。
<1-1. Main unit>
FIG. 1 is a diagram showing an example of a state in which the left controller 3 and the right controller 4 are attached to the main body device 2. As shown in FIG. 1, the left controller 3 and the right controller 4 are respectively mounted on the main body device 2 and integrated. The main device 2 is a device that executes various processes (for example, game processes) in the game system 1. The main body device 2 includes a display (display unit) 12. The left controller 3 and the right controller 4 are devices including an operation unit for inputting by the user.

図2は、本体装置2から左コントローラ3および右コントローラ4をそれぞれ外した状態の一例を示す図である。図1および図2に示すように、左コントローラ3および右コントローラ4は、本体装置2に着脱可能である。なお、以下において、左コントローラ3および右コントローラ4の総称として「コントローラ」と記載することがある。 FIG. 2 is a diagram showing an example of a state in which the left controller 3 and the right controller 4 are removed from the main body device 2. As shown in FIGS. 1 and 2, the left controller 3 and the right controller 4 are detachable from the main body device 2. In the following, the left controller 3 and the right controller 4 may be collectively referred to as “controller”.

図3は、本体装置2の一例を示す六面図である。図3に示すように、本体装置2は、略板状のハウジング11を備える。本実施形態において、ハウジング11の主面(換言すれば、表側の面、すなわち、ディスプレイ12が設けられる面)は、大略的には矩形形状である。 FIG. 3 is a six-view view showing an example of the main body device 2. As shown in FIG. 3, the main body device 2 includes a substantially plate-shaped housing 11. In the present embodiment, the main surface of the housing 11 (in other words, the front surface, that is, the surface on which the display 12 is provided) has a substantially rectangular shape.

なお、ハウジング11の形状および大きさは、任意である。一例として、ハウジング11は、携帯可能な大きさであってよい。また、本体装置2単体または本体装置2に左コントローラ3および右コントローラ4が装着された一体型装置は、携帯型装置となってもよい。また、本体装置2または一体型装置が手持ち型の装置となってもよい。また、本体装置2または一体型装置が可搬型装置となってもよい。 The shape and size of the housing 11 are arbitrary. As an example, the housing 11 may be of a portable size. Further, the main body device 2 alone or the integrated device in which the left controller 3 and the right controller 4 are mounted on the main body device 2 may be a portable device. Further, the main body device 2 or the integrated device may be a handheld device. Further, the main body device 2 or the integrated device may be a portable device.

図3に示すように、本体装置2は、ハウジング11の主面に設けられるディスプレイ12を備える。ディスプレイ12は、本体装置2が生成した画像を表示する。本実施形態においては、ディスプレイ12は、液晶表示装置(LCD)とする。ただし、ディスプレイ12は任意の種類の表示装置であってよい。 As shown in FIG. 3, the main body device 2 includes a display 12 provided on the main surface of the housing 11. The display 12 displays an image generated by the main body device 2. In the present embodiment, the display 12 is a liquid crystal display (LCD). However, the display 12 may be any kind of display device.

また、本体装置2は、ディスプレイ12の画面上にタッチパネル13を備える。本実施形態においては、タッチパネル13は、マルチタッチ入力が可能な方式(例えば、静電容量方式)のものである。ただし、タッチパネル13は、任意の種類のものであってよく、例えば、シングルタッチ入力が可能な方式(例えば、抵抗膜方式)のものであってもよい。 Further, the main body device 2 includes a touch panel 13 on the screen of the display 12. In the present embodiment, the touch panel 13 is of a method capable of multi-touch input (for example, a capacitance method). However, the touch panel 13 may be of any kind, and may be, for example, a type capable of single-touch input (for example, a resistance film type).

本体装置2は、ハウジング11の内部においてスピーカ(すなわち、図6に示すスピーカ88)を備えている。図3に示すように、ハウジング11の主面には、スピーカ孔11aおよび11bが形成される。そして、スピーカ88の出力音は、これらのスピーカ孔11aおよび11bからそれぞれ出力される。 The main body device 2 includes a speaker (that is, the speaker 88 shown in FIG. 6) inside the housing 11. As shown in FIG. 3, speaker holes 11a and 11b are formed on the main surface of the housing 11. Then, the output sound of the speaker 88 is output from these speaker holes 11a and 11b, respectively.

また、本体装置2は、本体装置2が左コントローラ3と有線通信を行うための端子である左側端子17と、本体装置2が右コントローラ4と有線通信を行うための右側端子21を備える。 Further, the main body device 2 includes a left terminal 17 which is a terminal for the main body device 2 to perform wired communication with the left controller 3, and a right terminal 21 for the main body device 2 to perform wired communication with the right controller 4.

図3に示すように、本体装置2は、スロット23を備える。スロット23は、ハウジング11の上側面に設けられる。スロット23は、所定の種類の記憶媒体を装着可能な形状を有する。所定の種類の記憶媒体は、例えば、ゲームシステム1およびそれと同種の情報処理装置に専用の記憶媒体(例えば、専用メモリカード)である。所定の種類の記憶媒体は、例えば、本体装置2で利用されるデータ(例えば、アプリケーションのセーブデータ等)、および/または、本体装置2で実行されるプログラム(例えば、アプリケーションのプログラム等)を記憶するために用いられる。また、本体装置2は、電源ボタン28を備える。 As shown in FIG. 3, the main body device 2 includes a slot 23. The slot 23 is provided on the upper side surface of the housing 11. The slot 23 has a shape in which a predetermined type of storage medium can be mounted. The predetermined type of storage medium is, for example, a storage medium (for example, a dedicated memory card) dedicated to the game system 1 and an information processing device of the same type. A predetermined type of storage medium stores, for example, data used by the main unit 2 (for example, save data of an application) and / or a program executed by the main unit 2 (for example, an application program). Used to do. Further, the main body device 2 includes a power button 28.

本体装置2は、下側端子27を備える。下側端子27は、本体装置2がクレードルと通信を行うための端子である。本実施形態において、下側端子27は、USBコネクタ(より具体的には、メス側コネクタ)である。上記一体型装置または本体装置2単体をクレードルに載置した場合、ゲームシステム1は、本体装置2が生成して出力する画像を据置型モニタに表示することができる。また、本実施形態においては、クレードルは、載置された上記一体型装置または本体装置2単体を充電する機能を有する。また、クレードルは、ハブ装置(具体的には、USBハブ)の機能を有する。 The main body device 2 includes a lower terminal 27. The lower terminal 27 is a terminal for the main body device 2 to communicate with the cradle. In the present embodiment, the lower terminal 27 is a USB connector (more specifically, a female connector). When the integrated device or the main body device 2 alone is placed on the cradle, the game system 1 can display the image generated and output by the main body device 2 on the stationary monitor. Further, in the present embodiment, the cradle has a function of charging the mounted integrated device or the main body device 2 alone. Further, the cradle has a function of a hub device (specifically, a USB hub).

<1−2.左コントローラ>
図4は、左コントローラ3の一例を示す六面図である。図4に示すように、左コントローラ3は、ハウジング31を備える。本実施形態においては、ハウジング31は、縦長の形状、すなわち、上下方向(すなわち、図1および図4に示すy軸方向)に長い形状である。左コントローラ3は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング31は、縦長となる向きで把持される場合に片手、特に左手で把持可能な形状および大きさをしている。また、左コントローラ3は、横長となる向きで把持されることも可能である。左コントローラ3が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。
<1-2. Left controller>
FIG. 4 is a six-view view showing an example of the left controller 3. As shown in FIG. 4, the left controller 3 includes a housing 31. In the present embodiment, the housing 31 has a vertically long shape, that is, a shape that is long in the vertical direction (that is, the y-axis direction shown in FIGS. 1 and 4). The left controller 3 can also be gripped in a vertically elongated direction when it is removed from the main body device 2. The housing 31 has a shape and size that can be gripped with one hand, particularly with the left hand, when gripped in a vertically elongated direction. Further, the left controller 3 can be gripped in a horizontally long direction. When the left controller 3 is gripped in a horizontally long direction, it may be gripped with both hands.

左コントローラ3は、アナログスティック32を備える。図4に示すように、アナログスティック32は、ハウジング31の主面に設けられる。アナログスティック32は、方向を入力することが可能な方向入力部として用いることができる。ユーザは、アナログスティック32を傾倒することによって傾倒方向に応じた方向の入力(および、傾倒した角度に応じた大きさの入力)が可能である。なお、左コントローラ3は、方向入力部として、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、本実施形態においては、アナログスティック32を押下する入力が可能である。 The left controller 3 includes an analog stick 32. As shown in FIG. 4, the analog stick 32 is provided on the main surface of the housing 31. The analog stick 32 can be used as a direction input unit capable of inputting a direction. By tilting the analog stick 32, the user can input the direction according to the tilting direction (and input the size according to the tilting angle). The left controller 3 may be provided with a cross key, a slide stick capable of slide input, or the like as a direction input unit instead of the analog stick. Further, in the present embodiment, it is possible to input by pressing the analog stick 32.

左コントローラ3は、各種操作ボタンを備える。左コントローラ3は、ハウジング31の主面上に4つの操作ボタン33〜36(具体的には、右方向ボタン33、下方向ボタン34、上方向ボタン35、および左方向ボタン36)を備える。さらに、左コントローラ3は、録画ボタン37および−(マイナス)ボタン47を備える。左コントローラ3は、ハウジング31の側面の左上に第1Lボタン38およびZLボタン39を備える。また、左コントローラ3は、ハウジング31の側面の、本体装置2に装着される際に装着される側の面に第2Lボタン43および第2Rボタン44を備える。これらの操作ボタンは、本体装置2で実行される各種プログラム(例えば、OSプログラムやアプリケーションプログラム)に応じた指示を行うために用いられる。 The left controller 3 includes various operation buttons. The left controller 3 includes four operation buttons 33 to 36 (specifically, a right direction button 33, a down direction button 34, an up direction button 35, and a left direction button 36) on the main surface of the housing 31. Further, the left controller 3 includes a recording button 37 and a − (minus) button 47. The left controller 3 includes a first L button 38 and a ZL button 39 on the upper left of the side surface of the housing 31. Further, the left controller 3 includes a second L button 43 and a second R button 44 on the side surface of the housing 31 that is mounted when mounted on the main body device 2. These operation buttons are used to give instructions according to various programs (for example, OS programs and application programs) executed by the main unit 2.

また、左コントローラ3は、左コントローラ3が本体装置2と有線通信を行うための端子42を備える。 Further, the left controller 3 includes a terminal 42 for the left controller 3 to perform wired communication with the main body device 2.

<1−3.右コントローラ>
図5は、右コントローラ4の一例を示す六面図である。図5に示すように、右コントローラ4は、ハウジング51を備える。本実施形態においては、ハウジング51は、縦長の形状、すなわち、上下方向に長い形状である。右コントローラ4は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング51は、縦長となる向きで把持される場合に片手、特に右手で把持可能な形状および大きさをしている。また、右コントローラ4は、横長となる向きで把持されることも可能である。右コントローラ4が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。ここで、説明の便宜のため、右コントローラ4のハウジング51の外面を次のように規定することする。すなわち、ハウジング51は概ね直方体状に形成されており、上下方向を長手方向とする長方形状の第1主面、及びこれとは反対側の第2主面を備えている。そして、ハウジング51において、これら主面の長手方向の上端面が第1端面を構成し、下端面が第2端面を構成する。また、両主面の短手方向の右側面が第1側端面を構成し、左側面が第2側端面を構成する。但し、第1端面は、左端部に長手方向の上方を向く平坦な面を有しているが、右側にいくにしたがって下方に湾曲するように構成され、第1側端面の上端に連結されている。そして、この第1端面には、後述するように、湾曲した第1Rボタン60が配置されている。同様に、第2端面は、左端部に長手方向の下方を向く平坦な面を有しているが、右側にいくにしたがって上方に湾曲するように構成され、第1側端面の下端に連結されている。そして、この第2端面に後述する赤外撮像部123及び赤外発光部124が配置されている。
<1-3. Right controller>
FIG. 5 is a six-view view showing an example of the right controller 4. As shown in FIG. 5, the right controller 4 includes a housing 51. In the present embodiment, the housing 51 has a vertically long shape, that is, a shape long in the vertical direction. The right controller 4 can also be gripped in a vertically elongated direction when it is removed from the main body device 2. The housing 51 has a shape and size that can be gripped with one hand, particularly with the right hand, when gripped in a vertically elongated direction. Further, the right controller 4 can be gripped in a horizontally long direction. When the right controller 4 is gripped in a horizontally long direction, it may be gripped with both hands. Here, for convenience of explanation, the outer surface of the housing 51 of the right controller 4 is defined as follows. That is, the housing 51 is formed in a substantially rectangular parallelepiped shape, and includes a rectangular first main surface whose longitudinal direction is the vertical direction, and a second main surface on the opposite side. Then, in the housing 51, the upper end surface of these main surfaces in the longitudinal direction constitutes the first end surface, and the lower end surface constitutes the second end surface. Further, the right side surface of both main surfaces in the lateral direction constitutes the first side end surface, and the left side surface constitutes the second side end surface. However, although the first end face has a flat surface facing upward in the longitudinal direction at the left end portion, it is configured to be curved downward toward the right side and is connected to the upper end of the first side end face. There is. A curved first R button 60 is arranged on the first end surface, as will be described later. Similarly, the second end face has a flat surface facing downward in the longitudinal direction at the left end, but is configured to be curved upward toward the right side and is connected to the lower end of the first side end face. ing. An infrared imaging unit 123 and an infrared light emitting unit 124, which will be described later, are arranged on the second end surface.

右コントローラ4は、左コントローラ3と同様、方向入力部としてアナログスティック52を備える。本実施形態においては、アナログスティック52は、左コントローラ3のアナログスティック32と同じ構成である。また、右コントローラ4は、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、右コントローラ4は、左コントローラ3と同様、ハウジング51の主面上に4つの操作ボタン53〜56(具体的には、Aボタン53、Bボタン54、Xボタン55、およびYボタン56)を備える。さらに、右コントローラ4は、+(プラス)ボタン57およびホームボタン58を備える。これら右コントローラ4の第1主面に設けられたる操作ボタン53〜58及びアナログスティック32が、本発明の第1操作部の一例となる。また、右コントローラ4は、ハウジング51の第1端面に湾曲した第1Rボタン60を備える。また、第1Rボタン60の背面側には、背面側に突出するとともに、上方から押し込み可能なZRボタン61が設けられている。そして、このZRボタン61の下方には隆起部500が形成されている。この隆起部500は、第2主面から膨出する部位でありZRボタン61から下方にいくにしたがって第2主面に向かう傾斜面を有している。ここで、第1Rボタン60が本発明の第2操作部の一例となり、ZRボタン61及び隆起部500が第3操作部の一例となる。また、右コントローラ4は、左コントローラ3と同様、第2Lボタン65および第2Rボタン66を備える。 Like the left controller 3, the right controller 4 includes an analog stick 52 as a direction input unit. In the present embodiment, the analog stick 52 has the same configuration as the analog stick 32 of the left controller 3. Further, the right controller 4 may be provided with a cross key, a slide stick capable of slide input, or the like instead of the analog stick. Further, the right controller 4 has four operation buttons 53 to 56 (specifically, the A button 53, the B button 54, the X button 55, and the Y button 56) on the main surface of the housing 51, similarly to the left controller 3. To be equipped with. Further, the right controller 4 includes a + (plus) button 57 and a home button 58. The operation buttons 53 to 58 and the analog stick 32 provided on the first main surface of the right controller 4 are examples of the first operation unit of the present invention. Further, the right controller 4 includes a first R button 60 curved on the first end surface of the housing 51. Further, on the back side of the first R button 60, a ZR button 61 that protrudes to the back side and can be pushed from above is provided. A raised portion 500 is formed below the ZR button 61. The raised portion 500 is a portion that bulges from the second main surface, and has an inclined surface toward the second main surface as it goes downward from the ZR button 61. Here, the first R button 60 is an example of the second operation unit of the present invention, and the ZR button 61 and the raised portion 500 are examples of the third operation unit. Further, the right controller 4 includes a second L button 65 and a second R button 66 like the left controller 3.

また、ハウジング51の第2端面には、窓部68が設けられる。詳細は後述するが、右コントローラ4は、ハウジング51の内部に配置される赤外撮像部123および赤外発光部124を備えている。赤外撮像部123は、右コントローラ4の下方向(図5に示すy軸負方向)を撮像方向として、窓部68を介して右コントローラ4の周囲を撮像する。赤外発光部124は、右コントローラ4の下方向(図5に示すy軸負方向)を中心とする所定範囲を照射範囲として、赤外撮像部123が撮像する撮像対象に窓部68を介して赤外光を照射する。窓部68は、赤外撮像部123のカメラのレンズや赤外発光部124の発光体等を保護するためのものであり、当該カメラが検知する波長の光や当該発光体が照射する光を透過する材質(例えば、透明な材質)で構成される。なお、窓部68は、ハウジング51に形成された孔であってもよい。なお、本実施形態においては、カメラが検知する光(本実施形態においては、赤外光)以外の波長の光の透過を抑制するフィルタ部材を赤外撮像部123自身が有する。ただし、他の実施形態においては、窓部68がフィルタの機能を有していてもよい。 A window portion 68 is provided on the second end surface of the housing 51. Although details will be described later, the right controller 4 includes an infrared imaging unit 123 and an infrared light emitting unit 124 arranged inside the housing 51. The infrared imaging unit 123 takes an image of the periphery of the right controller 4 through the window unit 68 with the downward direction of the right controller 4 (the negative y-axis direction shown in FIG. 5) as the imaging direction. The infrared light emitting unit 124 has an irradiation range centered on the downward direction (y-axis negative direction shown in FIG. 5) of the right controller 4, and the infrared imaging unit 123 takes an image to be imaged through the window unit 68. And irradiate infrared light. The window portion 68 is for protecting the lens of the camera of the infrared imaging unit 123, the light emitter of the infrared light emitting unit 124, and the like, and emits light having a wavelength detected by the camera and light emitted by the light emitting body. It is composed of a transparent material (for example, a transparent material). The window portion 68 may be a hole formed in the housing 51. In the present embodiment, the infrared imaging unit 123 itself has a filter member that suppresses the transmission of light having a wavelength other than the light detected by the camera (infrared light in the present embodiment). However, in other embodiments, the window portion 68 may have a filter function.

また、詳細は後述するが、右コントローラ4は、NFC通信部122を備える。NFC通信部122は、NFC(Near Field Communication)の規格に基づく近距離無線通信を行う。NFC通信部122は、近距離無線通信に用いられるアンテナ122aと、アンテナ122aから送出すべき信号(電波)を生成する回路(例えばNFCチップ)とを有する。なお、NFC通信部122は、NFCの規格に基づく近距離無線通信を行う代わりに、任意の近接通信(非接触通信とも言う)で近距離無線通信を行うようにしてもよい。ここで、NFCの規格は、近接通信(非接触通信)に用いることができるものであり、「任意の近接通信で近距離無線通信を行うようにしてもよい」とは、NFCの規格による近接通信を除いた他の近接通信で近距離無線通信を行ってもよいことを意図している。 Further, as will be described in detail later, the right controller 4 includes an NFC communication unit 122. The NFC communication unit 122 performs short-range wireless communication based on the NFC (Near Field Communication) standard. The NFC communication unit 122 includes an antenna 122a used for short-range wireless communication and a circuit (for example, an NFC chip) that generates a signal (radio wave) to be transmitted from the antenna 122a. The NFC communication unit 122 may perform short-range wireless communication by arbitrary proximity communication (also referred to as non-contact communication) instead of performing short-range wireless communication based on the NFC standard. Here, the NFC standard can be used for proximity communication (non-contact communication), and "the short-range wireless communication may be performed by any proximity communication" means that the proximity according to the NFC standard. It is intended that short-range wireless communication may be performed by other proximity communication other than communication.

また、右コントローラ4は、右コントローラ4が本体装置2と有線通信を行うための端子64を備える。 Further, the right controller 4 includes a terminal 64 for the right controller 4 to perform wired communication with the main body device 2.

<1−4.本体装置の内部構成>
図6は、本体装置2の内部構成の一例を示すブロック図である。本体装置2は、図3に示す構成の他、図6に示す各構成要素81〜91、97、および98を備える。これらの構成要素81〜91、97、および98のいくつかは、電子部品として電子回路基板上に実装されてハウジング11内に収納されてもよい。
<1-4. Internal configuration of main unit>
FIG. 6 is a block diagram showing an example of the internal configuration of the main body device 2. In addition to the configuration shown in FIG. 3, the main unit 2 includes the components 81 to 91, 97, and 98 shown in FIG. Some of these components 81-91, 97, and 98 may be mounted as electronic components on an electronic circuit board and housed in a housing 11.

本体装置2は、プロセッサ81を備える。プロセッサ81は、本体装置2において実行される各種の情報処理を実行する情報処理部であって、例えば、CPU(Central
Processing Unit)のみから構成されてもよいし、CPU機能、GPU(Graphics Processing Unit)機能等の複数の機能を含むSoC(System−on−a−chip)から構成されてもよい。プロセッサ81は、記憶部(具体的には、フラッシュメモリ84等の内部記憶媒体、あるいは、スロット23に装着される外部記憶媒体等)に記憶される情報処理プログラム(例えば、ゲームプログラム)を実行することによって、各種の情報処理を実行する。
The main body device 2 includes a processor 81. The processor 81 is an information processing unit that executes various types of information processing executed in the main unit 2, for example, a CPU (Central).
It may be composed of only a processing unit, or may be composed of a SoC (System-on-a-chip) including a plurality of functions such as a CPU function and a GPU (Graphics Processing Unit) function. The processor 81 executes an information processing program (for example, a game program) stored in a storage unit (specifically, an internal storage medium such as a flash memory 84 or an external storage medium installed in slot 23). By doing so, various types of information processing are executed.

本体装置2は、自身に内蔵される内部記憶媒体の一例として、フラッシュメモリ84およびDRAM(Dynamic Random Access Memory)85を備える。フラッシュメモリ84およびDRAM85は、プロセッサ81に接続される。フラッシュメモリ84は、主に、本体装置2に保存される各種のデータ(プログラムであってもよい)を記憶するために用いられるメモリである。DRAM85は、情報処理において用いられる各種のデータを一時的に記憶するために用いられるメモリである。 The main unit 2 includes a flash memory 84 and a DRAM (Dynamic Random Access Memory) 85 as an example of an internal storage medium built therein. The flash memory 84 and the DRAM 85 are connected to the processor 81. The flash memory 84 is a memory mainly used for storing various data (which may be a program) stored in the main device 2. The DRAM 85 is a memory used for temporarily storing various types of data used in information processing.

本体装置2は、スロットインターフェース(以下、「I/F」と略記する。)91を備える。スロットI/F91は、プロセッサ81に接続される。スロットI/F91は、スロット23に接続され、スロット23に装着された所定の種類の記憶媒体(例えば、専用メモリカード)に対するデータの読み出しおよび書き込みを、プロセッサ81の指示に応じて行う。 The main unit 2 includes a slot interface (hereinafter, abbreviated as “I / F”) 91. Slots I / F91 are connected to the processor 81. The slot I / F 91 is connected to the slot 23, and reads and writes data to a predetermined type of storage medium (for example, a dedicated memory card) mounted in the slot 23 according to the instruction of the processor 81.

プロセッサ81は、フラッシュメモリ84およびDRAM85、ならびに上記各記憶媒体との間でデータを適宜読み出したり書き込んだりして、上記の情報処理を実行する。 The processor 81 executes the above information processing by appropriately reading and writing data between the flash memory 84 and the DRAM 85 and each of the above storage media.

本体装置2は、ネットワーク通信部82を備える。ネットワーク通信部82は、プロセッサ81に接続される。ネットワーク通信部82は、ネットワークを介して外部の装置と通信(具体的には、無線通信)を行う。本実施形態においては、ネットワーク通信部82は、第1の通信態様としてWi−Fiの規格に準拠した方式により、無線LANに接続して外部装置と通信を行う。また、ネットワーク通信部82は、第2の通信態様として所定の通信方式(例えば、独自プロトコルによる通信や、赤外線通信)により、同種の他の本体装置2との間で無線通信を行う。なお、上記第2の通信態様による無線通信は、閉ざされたローカルネットワークエリア内に配置された他の本体装置2との間で無線通信可能であり、複数の本体装置2の間で直接通信することによってデータが送受信される、いわゆる「ローカル通信」を可能とする機能を実現する。 The main body device 2 includes a network communication unit 82. The network communication unit 82 is connected to the processor 81. The network communication unit 82 communicates with an external device (specifically, wireless communication) via the network. In the present embodiment, the network communication unit 82 connects to the wireless LAN and communicates with the external device by a method compliant with the Wi-Fi standard as the first communication mode. In addition, the network communication unit 82 performs wireless communication with another main unit 2 of the same type by a predetermined communication method (for example, communication by an original protocol or infrared communication) as a second communication mode. The wireless communication according to the second communication mode can be wirelessly communicated with another main body device 2 arranged in the closed local network area, and directly communicates between the plurality of main body devices 2. By doing so, a function that enables so-called "local communication" in which data is transmitted and received is realized.

本体装置2は、コントローラ通信部83を備える。コントローラ通信部83は、プロセッサ81に接続される。コントローラ通信部83は、左コントローラ3および/または右コントローラ4と無線通信を行う。本体装置2と左コントローラ3および右コントローラ4との通信方式は任意であるが、本実施形態においては、コントローラ通信部83は、左コントローラ3との間および右コントローラ4との間で、Bluetooth(登録商標)の規格に従った通信を行う。 The main body device 2 includes a controller communication unit 83. The controller communication unit 83 is connected to the processor 81. The controller communication unit 83 wirelessly communicates with the left controller 3 and / or the right controller 4. The communication method between the main unit 2 and the left controller 3 and the right controller 4 is arbitrary, but in the present embodiment, the controller communication unit 83 has Bluetooth (between the left controller 3 and the right controller 4). Communicate according to the standard of (registered trademark).

プロセッサ81は、上述の左側端子17、右側端子21、および下側端子27に接続される。プロセッサ81は、左コントローラ3と有線通信を行う場合、左側端子17を介して左コントローラ3へデータを送信するとともに、左側端子17を介して左コントローラ3から操作データを受信する。また、プロセッサ81は、右コントローラ4と有線通信を行う場合、右側端子21を介して右コントローラ4へデータを送信するとともに、右側端子21を介して右コントローラ4から操作データを受信する。また、プロセッサ81は、クレードルと通信を行う場合、下側端子27を介してクレードルへデータを送信する。このように、本実施形態においては、本体装置2は、左コントローラ3および右コントローラ4との間で、それぞれ有線通信と無線通信との両方を行うことができる。また、左コントローラ3および右コントローラ4が本体装置2に装着された一体型装置または本体装置2単体がクレードルに装着された場合、本体装置2は、クレードルを介してデータ(例えば、画像データや音声データ)を据置型モニタ等に出力することができる。 The processor 81 is connected to the left side terminal 17, the right side terminal 21, and the lower terminal 27 described above. When performing wired communication with the left controller 3, the processor 81 transmits data to the left controller 3 via the left terminal 17 and receives operation data from the left controller 3 via the left terminal 17. Further, when performing wired communication with the right controller 4, the processor 81 transmits data to the right controller 4 via the right terminal 21 and receives operation data from the right controller 4 via the right terminal 21. Further, when communicating with the cradle, the processor 81 transmits data to the cradle via the lower terminal 27. As described above, in the present embodiment, the main body device 2 can perform both wired communication and wireless communication between the left controller 3 and the right controller 4, respectively. Further, when the integrated device in which the left controller 3 and the right controller 4 are mounted in the main body device 2 or the main body device 2 alone is mounted in the cradle, the main body device 2 receives data (for example, image data or sound) via the cradle. Data) can be output to a stationary monitor or the like.

ここで、本体装置2は、複数の左コントローラ3と同時に(換言すれば、並行して)通信を行うことができる。また、本体装置2は、複数の右コントローラ4と同時に(換言すれば、並行して)通信を行うことができる。したがって、複数のユーザは、左コントローラ3および右コントローラ4のセットをそれぞれ用いて、本体装置2に対する入力を同時に行うことができる。一例として、第1ユーザが左コントローラ3および右コントローラ4の第1セットを用いて本体装置2に対して入力を行うと同時に、第2ユーザが左コントローラ3および右コントローラ4の第2セットを用いて本体装置2に対して入力を行うことが可能となる。 Here, the main body device 2 can perform communication at the same time (in other words, in parallel) with the plurality of left controllers 3. Further, the main body device 2 can perform communication at the same time (in other words, in parallel) with the plurality of right controllers 4. Therefore, a plurality of users can input to the main unit 2 at the same time by using the set of the left controller 3 and the right controller 4, respectively. As an example, the first user inputs to the main unit 2 using the first set of the left controller 3 and the right controller 4, while the second user uses the second set of the left controller 3 and the right controller 4. It becomes possible to input to the main body device 2.

本体装置2は、タッチパネル13の制御を行う回路であるタッチパネルコントローラ86を備える。タッチパネルコントローラ86は、タッチパネル13とプロセッサ81との間に接続される。タッチパネルコントローラ86は、タッチパネル13からの信号に基づいて、例えばタッチ入力が行われた位置を示すデータを生成して、プロセッサ81へ出力する。 The main body device 2 includes a touch panel controller 86 which is a circuit for controlling the touch panel 13. The touch panel controller 86 is connected between the touch panel 13 and the processor 81. Based on the signal from the touch panel 13, the touch panel controller 86 generates, for example, data indicating the position where the touch input is performed, and outputs the data to the processor 81.

また、ディスプレイ12は、プロセッサ81に接続される。プロセッサ81は、(例えば、上記の情報処理の実行によって)生成した画像および/または外部から取得した画像をディスプレイ12に表示する。 Further, the display 12 is connected to the processor 81. The processor 81 displays the image generated (for example, by executing the above-mentioned information processing) and / or the image acquired from the outside on the display 12.

本体装置2は、コーデック回路87およびスピーカ(具体的には、左スピーカおよび右スピーカ)88を備える。コーデック回路87は、スピーカ88および音声入出力端子25に接続されるとともに、プロセッサ81に接続される。コーデック回路87は、スピーカ88および音声入出力端子25に対する音声データの入出力を制御する回路である。 The main body device 2 includes a codec circuit 87 and a speaker (specifically, a left speaker and a right speaker) 88. The codec circuit 87 is connected to the speaker 88 and the audio input / output terminal 25, and is also connected to the processor 81. The codec circuit 87 is a circuit that controls the input / output of audio data to the speaker 88 and the audio input / output terminal 25.

また、本体装置2は、加速度センサ89を備える。本実施形態においては、加速度センサ89は、所定の3軸(例えば、図1に示すxyz軸)方向に沿った加速度の大きさを検出する。なお、加速度センサ89は、1軸方向あるいは2軸方向の加速度を検出するものであってもよい。 Further, the main body device 2 includes an acceleration sensor 89. In the present embodiment, the acceleration sensor 89 detects the magnitude of acceleration along predetermined three axes (for example, the xyz axis shown in FIG. 1). The acceleration sensor 89 may detect acceleration in the uniaxial direction or the biaxial direction.

また、本体装置2は、角速度センサ90を備える。本実施形態においては、角速度センサ90は、所定の3軸(例えば、図1に示すxyz軸)回りの角速度を検出する。なお、角速度センサ90は、1軸回りあるいは2軸回りの角速度を検出するものであってもよい。 Further, the main body device 2 includes an angular velocity sensor 90. In the present embodiment, the angular velocity sensor 90 detects the angular velocity around three predetermined axes (for example, the xyz axis shown in FIG. 1). The angular velocity sensor 90 may detect the angular velocity around one axis or two axes.

加速度センサ89および角速度センサ90は、プロセッサ81に接続され、加速度センサ89および角速度センサ90の検出結果は、プロセッサ81へ出力される。プロセッサ81は、上記の加速度センサ89および角速度センサ90の検出結果に基づいて、本体装置2の動きおよび/または姿勢に関する情報を算出することが可能である。 The acceleration sensor 89 and the angular velocity sensor 90 are connected to the processor 81, and the detection results of the acceleration sensor 89 and the angular velocity sensor 90 are output to the processor 81. The processor 81 can calculate information regarding the movement and / or posture of the main body device 2 based on the detection results of the acceleration sensor 89 and the angular velocity sensor 90.

本体装置2は、電力制御部97およびバッテリ98を備える。電力制御部97は、バッテリ98およびプロセッサ81に接続される。また、図示しないが、電力制御部97は、本体装置2の各部(具体的には、バッテリ98の電力の給電を受ける各部、左側端子17、および右側端子21)に接続される。電力制御部97は、プロセッサ81からの指令に基づいて、バッテリ98から上記各部への電力供給を制御する。 The main body device 2 includes a power control unit 97 and a battery 98. The power control unit 97 is connected to the battery 98 and the processor 81. Although not shown, the power control unit 97 is connected to each part of the main body device 2 (specifically, each part that receives power from the battery 98, the left side terminal 17, and the right side terminal 21). The power control unit 97 controls the power supply from the battery 98 to each of the above units based on the command from the processor 81.

また、バッテリ98は、下側端子27に接続される。外部の充電装置(例えば、クレードル)が下側端子27に接続され、下側端子27を介して本体装置2に電力が供給される場合、供給された電力がバッテリ98に充電される。 Further, the battery 98 is connected to the lower terminal 27. When an external charging device (for example, a cradle) is connected to the lower terminal 27 and power is supplied to the main body device 2 via the lower terminal 27, the supplied power is charged to the battery 98.

<1−5.コントローラの内部構成>
図7は、本体装置2と左コントローラ3および右コントローラ4との内部構成の一例を示すブロック図である。なお、本体装置2に関する内部構成の詳細については、図6で示しているため図7では省略している。
<1-5. Internal configuration of controller>
FIG. 7 is a block diagram showing an example of the internal configuration of the main unit 2, the left controller 3, and the right controller 4. The details of the internal configuration of the main body device 2 are shown in FIG. 6 and are omitted in FIG. 7.

左コントローラ3は、本体装置2との間で通信を行う通信制御部101を備える。図7に示すように、通信制御部101は、端子42を含む各構成要素に接続される。本実施形態においては、通信制御部101は、端子42を介した有線通信と、端子42を介さない無線通信との両方で本体装置2と通信を行うことが可能である。通信制御部101は、左コントローラ3が本体装置2に対して行う通信方法を制御する。すなわち、左コントローラ3が本体装置2に装着されている場合、通信制御部101は、端子42を介して本体装置2と通信を行う。また、左コントローラ3が本体装置2から外されている場合、通信制御部101は、本体装置2(具体的には、コントローラ通信部83)との間で無線通信を行う。コントローラ通信部83と通信制御部101との間の無線通信は、例えばBluetooth(登録商標)の規格に従って行われる。 The left controller 3 includes a communication control unit 101 that communicates with the main body device 2. As shown in FIG. 7, the communication control unit 101 is connected to each component including the terminal 42. In the present embodiment, the communication control unit 101 can communicate with the main body device 2 by both wired communication via the terminal 42 and wireless communication not via the terminal 42. The communication control unit 101 controls the communication method performed by the left controller 3 to the main unit 2. That is, when the left controller 3 is attached to the main body device 2, the communication control unit 101 communicates with the main body device 2 via the terminal 42. Further, when the left controller 3 is removed from the main body device 2, the communication control unit 101 performs wireless communication with the main body device 2 (specifically, the controller communication unit 83). Wireless communication between the controller communication unit 83 and the communication control unit 101 is performed according to, for example, a Bluetooth (registered trademark) standard.

また、左コントローラ3は、例えばフラッシュメモリ等のメモリ102を備える。通信制御部101は、例えばマイコン(マイクロプロセッサとも言う)で構成され、メモリ102に記憶されるファームウェアを実行することによって各種の処理を実行する。 Further, the left controller 3 includes a memory 102 such as a flash memory. The communication control unit 101 is composed of, for example, a microcomputer (also referred to as a microprocessor), and executes various processes by executing firmware stored in the memory 102.

左コントローラ3は、各ボタン103(具体的には、ボタン33〜39、43、44、および47)を備える。また、左コントローラ3は、アナログスティック(図7では「スティック」と記載する)32を備える。各ボタン103およびアナログスティック32は、自身に対して行われた操作に関する情報を、適宜のタイミングで繰り返し通信制御部101へ出力する。 The left controller 3 includes buttons 103 (specifically, buttons 33-39, 43, 44, and 47). Further, the left controller 3 includes an analog stick (described as “stick” in FIG. 7) 32. Each button 103 and the analog stick 32 repeatedly output information about the operation performed to itself to the communication control unit 101 at an appropriate timing.

左コントローラ3は、慣性センサを備える。具体的には、左コントローラ3は、加速度センサ104を備える。また、左コントローラ3は、角速度センサ105を備える。本実施形態においては、加速度センサ104は、所定の3軸(例えば、図4に示すxyz軸)方向に沿った加速度の大きさを検出する。なお、加速度センサ104は、1軸方向あるいは2軸方向の加速度を検出するものであってもよい。本実施形態においては、角速度センサ105は、所定の3軸(例えば、図4に示すxyz軸)回りの角速度を検出する。なお、角速度センサ105は、1軸回りあるいは2軸回りの角速度を検出するものであってもよい。加速度センサ104および角速度センサ105は、それぞれ通信制御部101に接続される。そして、加速度センサ104および角速度センサ105の検出結果は、適宜のタイミングで繰り返し通信制御部101へ出力される。 The left controller 3 includes an inertial sensor. Specifically, the left controller 3 includes an acceleration sensor 104. Further, the left controller 3 includes an angular velocity sensor 105. In the present embodiment, the acceleration sensor 104 detects the magnitude of acceleration along predetermined three axes (for example, the xyz axis shown in FIG. 4). The acceleration sensor 104 may detect acceleration in the uniaxial direction or the biaxial direction. In the present embodiment, the angular velocity sensor 105 detects the angular velocity around three predetermined axes (for example, the xyz axis shown in FIG. 4). The angular velocity sensor 105 may detect the angular velocity around one axis or two axes. The acceleration sensor 104 and the angular velocity sensor 105 are connected to the communication control unit 101, respectively. Then, the detection results of the acceleration sensor 104 and the angular velocity sensor 105 are repeatedly output to the communication control unit 101 at appropriate timings.

通信制御部101は、各入力部(具体的には、各ボタン103、アナログスティック32、各センサ104および105)から、入力に関する情報(具体的には、操作に関する情報、またはセンサによる検出結果)を取得する。通信制御部101は、取得した情報(または取得した情報に所定の加工を行った情報)を含む操作データを本体装置2へ送信する。なお、操作データは、所定時間に1回の割合で繰り返し送信される。なお、入力に関する情報が本体装置2へ送信される間隔は、各入力部について同じであってもよいし、同じでなくてもよい。 The communication control unit 101 receives information related to input (specifically, information related to operation or detection result by the sensor) from each input unit (specifically, each button 103, analog stick 32, each sensor 104 and 105). To get. The communication control unit 101 transmits operation data including the acquired information (or information obtained by performing predetermined processing on the acquired information) to the main unit device 2. The operation data is repeatedly transmitted at a rate of once at a predetermined time. The interval at which the information regarding the input is transmitted to the main body device 2 may or may not be the same for each input unit.

上記操作データが本体装置2へ送信されることによって、本体装置2は、左コントローラ3に対して行われた入力を得ることができる。すなわち、本体装置2は、各ボタン103およびアナログスティック32に対する操作を、操作データに基づいて判別することができる。また、本体装置2は、左コントローラ3の動きおよび/または姿勢に関する情報を、操作データ(具体的には、加速度センサ104および角速度センサ105の検出結果)に基づいて算出することができる。 By transmitting the operation data to the main body device 2, the main body device 2 can obtain the input made to the left controller 3. That is, the main body device 2 can determine the operation for each button 103 and the analog stick 32 based on the operation data. Further, the main body device 2 can calculate information regarding the movement and / or posture of the left controller 3 based on the operation data (specifically, the detection results of the acceleration sensor 104 and the angular velocity sensor 105).

左コントローラ3は、振動によってユーザに通知を行うための振動子107を備える。本実施形態においては、振動子107は、本体装置2からの指令によって制御される。すなわち、通信制御部101は、本体装置2からの上記指令を受け取ると、当該指令に従って振動子107を駆動させる。ここで、左コントローラ3は、コーデック部106を備える。通信制御部101は、上記指令を受け取ると、指令に応じた制御信号をコーデック部106へ出力する。コーデック部106は、通信制御部101からの制御信号から振動子107を駆動させるための駆動信号を生成して振動子107へ与える。これによって振動子107が動作する。 The left controller 3 includes an oscillator 107 for notifying the user by vibration. In the present embodiment, the oscillator 107 is controlled by a command from the main body device 2. That is, when the communication control unit 101 receives the above command from the main body device 2, the communication control unit 101 drives the oscillator 107 in accordance with the command. Here, the left controller 3 includes a codec unit 106. Upon receiving the command, the communication control unit 101 outputs a control signal corresponding to the command to the codec unit 106. The codec unit 106 generates a drive signal for driving the oscillator 107 from the control signal from the communication control unit 101 and gives it to the oscillator 107. As a result, the oscillator 107 operates.

振動子107は、より具体的にはリニア振動モータである。リニア振動モータは、回転運動をする通常のモータと異なり、入力される電圧に応じて所定方向に駆動されるため、入力される電圧の波形に応じた振幅および周波数で振動をさせることができる。本実施形態において、本体装置2から左コントローラ3に送信される振動制御信号は、単位時間ごとに周波数と振幅とを表すデジタル信号であってよい。別の実施形態においては、本体装置2から波形そのものを示す情報を送信するようにしてもよいが、振幅および周波数だけを送信することで通信データ量を削減することができる。また、さらにデータ量を削減するため、そのときの振幅および周波数の数値に替えて、前回の値からの差分だけを送信するようにしてもよい。この場合、コーデック部106は、通信制御部101から取得される振幅および周波数の値を示すデジタル信号をアナログの電圧の波形に変換し、当該波形に合わせて電圧を入力することで振動子107を駆動させる。したがって、本体装置2は、単位時間ごとに送信する振幅および周波数を変えることによって、そのときに振動子107を振動させる振幅および周波数を制御することができる。なお、本体装置2から左コントローラ3に送信される振幅および周波数は、1つに限らず、2つ以上送信するようにしてもよい。その場合、コーデック部106は、受信された複数の振幅および周波数それぞれが示す波形を合成することで、振動子107を制御する電圧の波形を生成することができる。 More specifically, the oscillator 107 is a linear vibration motor. Unlike a normal motor that rotates, the linear vibration motor is driven in a predetermined direction according to the input voltage, so that the linear vibration motor can vibrate with an amplitude and a frequency corresponding to the waveform of the input voltage. In the present embodiment, the vibration control signal transmitted from the main body device 2 to the left controller 3 may be a digital signal representing a frequency and an amplitude for each unit time. In another embodiment, information indicating the waveform itself may be transmitted from the main body device 2, but the amount of communication data can be reduced by transmitting only the amplitude and frequency. Further, in order to further reduce the amount of data, only the difference from the previous value may be transmitted instead of the numerical values of the amplitude and frequency at that time. In this case, the codec unit 106 converts the digital signal indicating the amplitude and frequency values acquired from the communication control unit 101 into an analog voltage waveform, and inputs the voltage according to the waveform to input the oscillator 107 to the oscillator 107. Drive. Therefore, the main body device 2 can control the amplitude and frequency of vibrating the vibrator 107 at that time by changing the amplitude and frequency to be transmitted for each unit time. The amplitude and frequency transmitted from the main unit 2 to the left controller 3 are not limited to one, and two or more may be transmitted. In that case, the codec unit 106 can generate a waveform of the voltage that controls the vibrator 107 by synthesizing the waveforms indicated by the plurality of received amplitudes and frequencies.

左コントローラ3は、電力供給部108を備える。本実施形態において、電力供給部108は、バッテリおよび電力制御回路を有する。図示しないが、電力制御回路は、バッテリに接続されるとともに、左コントローラ3の各部(具体的には、バッテリの電力の給電を受ける各部)に接続される。 The left controller 3 includes a power supply unit 108. In this embodiment, the power supply unit 108 includes a battery and a power control circuit. Although not shown, the power control circuit is connected to the battery and is also connected to each part of the left controller 3 (specifically, each part that receives power from the battery).

図7に示すように、右コントローラ4は、本体装置2との間で通信を行う通信制御部111を備える。また、右コントローラ4は、通信制御部111に接続されるメモリ112を備える。通信制御部111は、端子64を含む各構成要素に接続される。通信制御部111およびメモリ112は、左コントローラ3の通信制御部101およびメモリ102と同様の機能を有する。したがって、通信制御部111は、端子64を介した有線通信と、端子64を介さない無線通信(具体的には、Bluetooth(登録商標)の規格に従った通信)との両方で本体装置2と通信を行うことが可能であり、右コントローラ4が本体装置2に対して行う通信方法を制御する。 As shown in FIG. 7, the right controller 4 includes a communication control unit 111 that communicates with the main body device 2. Further, the right controller 4 includes a memory 112 connected to the communication control unit 111. The communication control unit 111 is connected to each component including the terminal 64. The communication control unit 111 and the memory 112 have the same functions as the communication control unit 101 and the memory 102 of the left controller 3. Therefore, the communication controller 111 can be used with the main unit 2 for both wired communication via the terminal 64 and wireless communication without the terminal 64 (specifically, communication according to the Bluetooth® standard). Communication is possible, and the right controller 4 controls the communication method performed with respect to the main unit 2.

右コントローラ4は、左コントローラ3の各入力部と同様の各入力部を備える。具体的には、各ボタン113、アナログスティック52、慣性センサ(加速度センサ114および角速度センサ115)を備える。これらの各入力部については、左コントローラ3の各入力部と同様の機能を有し、同様に動作する。 The right controller 4 includes each input unit similar to each input unit of the left controller 3. Specifically, each button 113, an analog stick 52, and an inertial sensor (acceleration sensor 114 and angular velocity sensor 115) are provided. Each of these input units has the same function as each input unit of the left controller 3 and operates in the same manner.

また、右コントローラ4は、振動子117およびコーデック部116を備える。振動子117およびコーデック部116は、左コントローラ3の振動子107およびコーデック部106と同様に動作する。すなわち、通信制御部111は、本体装置2からの指令に従って、コーデック部116を用いて振動子117を動作させる。 Further, the right controller 4 includes an oscillator 117 and a codec unit 116. The oscillator 117 and the codec unit 116 operate in the same manner as the oscillator 107 and the codec unit 106 of the left controller 3. That is, the communication control unit 111 operates the oscillator 117 using the codec unit 116 in accordance with the command from the main body device 2.

右コントローラ4は、NFCの規格に基づく近距離無線通信を行うNFC通信部122を備える。NFC通信部122は、いわゆるNFCリーダ・ライタの機能を有する。ここで、本明細書において近距離無線通信とは、一方の装置(ここでは、右コントローラ4)からの電波によって(例えば電磁誘導によって)他方の装置(ここでは、アンテナ122aと近接する装置)に起電力を発生させる通信方式が含まれる。他方の装置は、発生した起電力によって動作することが可能であり、電源を有していてもよいし有していなくてもよい。NFC通信部122は、右コントローラ4(アンテナ122a)と通信対象とが接近した場合(典型的には、両者の距離が十数センチメートル以下となった場合)に当該通信対象との間で通信可能となる。通信対象は、NFC通信部122との間で近距離無線通信が可能な任意の装置であり、例えばNFCタグやNFCタグの機能を有する記憶媒体である。ただし、通信対象は、NFCのカードエミュレーション機能を有する他の装置であってもよい。 The right controller 4 includes an NFC communication unit 122 that performs short-range wireless communication based on the NFC standard. The NFC communication unit 122 has a function of a so-called NFC reader / writer. Here, in the present specification, short-range wireless communication refers to radio waves from one device (here, the right controller 4) to the other device (here, a device close to the antenna 122a) by electromagnetic induction. A communication method that generates an electromotive force is included. The other device can be operated by the generated electromotive force and may or may not have a power source. The NFC communication unit 122 communicates with the communication target when the right controller 4 (antenna 122a) and the communication target are close to each other (typically, when the distance between the two is less than a dozen centimeters). It will be possible. The communication target is an arbitrary device capable of short-range wireless communication with the NFC communication unit 122, for example, a storage medium having an NFC tag or an NFC tag function. However, the communication target may be another device having an NFC card emulation function.

また、右コントローラ4は、第2端面に赤外撮像部123を備える。赤外撮像部123は、右コントローラ4の周囲を撮像する赤外線カメラを有する。一例として、本体装置2および/または右コントローラ4は、撮像された情報(例えば、撮像された撮像画像における少なくとも一部の領域全体を分割した複数のブロックの輝度に関連する情報等)を算出し、当該情報に基づいて、右コントローラ4の周囲変化を判別する。また、赤外撮像部123は、環境光によって撮像を行ってもよいが、本実施形態においては、赤外線を照射する赤外発光部124を有する。赤外発光部124は、例えば、赤外線カメラが画像を撮像するタイミングと同期して、赤外線を照射する。そして、赤外発光部124によって照射された赤外線が撮像対象によって反射され、当該反射された赤外線が赤外線カメラによって受光されることで、赤外線の画像が取得される。これによって、赤外撮像部123は、より鮮明な赤外線画像を得ることができる。なお、赤外撮像部123と赤外発光部124とは、それぞれ別のデバイスとして右コントローラ4内に設けられてもよいし、同じパッケージ内に設けられた単一のデバイスとして右コントローラ4内に設けられてもよい。また、本実施形態においては、赤外線カメラを有する赤外撮像部123が用いられるが、他の実施形態においては、撮像手段として、赤外線カメラに代えて可視光カメラ(可視光イメージセンサを用いたカメラ)が用いられてもよい。 Further, the right controller 4 includes an infrared imaging unit 123 on the second end surface. The infrared imaging unit 123 has an infrared camera that images the surroundings of the right controller 4. As an example, the main unit 2 and / or the right controller 4 calculates the captured information (for example, information related to the brightness of a plurality of blocks obtained by dividing at least a part of the entire captured image). , Based on the information, the ambient change of the right controller 4 is determined. Further, the infrared imaging unit 123 may perform imaging with ambient light, but in the present embodiment, it has an infrared emitting unit 124 that irradiates infrared rays. The infrared light emitting unit 124 irradiates infrared rays, for example, in synchronization with the timing at which the infrared camera captures an image. Then, the infrared rays emitted by the infrared light emitting unit 124 are reflected by the imaging target, and the reflected infrared rays are received by the infrared camera, so that an infrared image is acquired. As a result, the infrared imaging unit 123 can obtain a clearer infrared image. The infrared imaging unit 123 and the infrared light emitting unit 124 may be provided in the right controller 4 as separate devices, or may be provided in the right controller 4 as a single device provided in the same package. It may be provided. Further, in this embodiment, an infrared imaging unit 123 having an infrared camera is used, but in other embodiments, a visible light camera (a camera using a visible light image sensor) is used instead of the infrared camera as an imaging means. ) May be used.

右コントローラ4は、処理部121を備える。処理部121は、通信制御部111に接続される。また、処理部121は、NFC通信部122、赤外撮像部123、および赤外発光部124に接続される。処理部121は、本体装置2からの指令に応じて、NFC通信部122に対する管理処理を実行する。例えば、処理部121は、本体装置2からの指令に応じてNFC通信部122の動作を制御する。また、処理部121は、NFC通信部122の起動を制御したり、通信対象(例えば、NFCタグ)に対するNFC通信部122の動作(具体的には、読み出しおよび書き込み等)を制御したりする。また、処理部121は、通信制御部111を介して通信対象に送信されるべき情報を本体装置2から受信してNFC通信部122へ渡したり、通信対象から受信された情報をNFC通信部122から取得して通信制御部111を介して本体装置2へ送信したりする。 The right controller 4 includes a processing unit 121. The processing unit 121 is connected to the communication control unit 111. Further, the processing unit 121 is connected to the NFC communication unit 122, the infrared imaging unit 123, and the infrared light emitting unit 124. The processing unit 121 executes management processing for the NFC communication unit 122 in response to a command from the main unit 2. For example, the processing unit 121 controls the operation of the NFC communication unit 122 in response to a command from the main unit 2. Further, the processing unit 121 controls the activation of the NFC communication unit 122, and controls the operation (specifically, reading and writing, etc.) of the NFC communication unit 122 with respect to the communication target (for example, the NFC tag). Further, the processing unit 121 receives the information to be transmitted to the communication target via the communication control unit 111 from the main unit 2 and passes it to the NFC communication unit 122, or the information received from the communication target is transmitted to the NFC communication unit 122. And transmit it to the main unit 2 via the communication control unit 111.

また、処理部121は、CPUやメモリ等を含み、右コントローラ4に備えられた図示しない記憶装置(例えば、不揮発性メモリ等)に記憶された所定のプログラム(例えば、画像処理や各種演算を行うためのアプリケーションプログラム)に基づいて、本体装置2からの指令に応じて赤外撮像部123に対する管理処理を実行する。例えば、処理部121は、赤外撮像部123に撮像動作を行わせたり、撮像結果に基づく情報(撮像画像の情報、あるいは、当該情報から算出される情報等)を取得および/または算出して通信制御部111を介して本体装置2へ送信したりする。また、処理部121は、本体装置2からの指令に応じて赤外発光部124に対する管理処理を実行する。例えば、処理部121は、本体装置2からの指令に応じて赤外発光部124の発光を制御する。なお、処理部121が処理を行う際に用いるメモリは、処理部121内に設けられてもいいし、メモリ112であってもよい。 Further, the processing unit 121 includes a CPU, a memory, and the like, and performs image processing and various calculations in a predetermined program (for example, image processing and various operations) stored in a storage device (for example, a non-volatile memory) provided in the right controller 4 (not shown). The management process for the infrared imaging unit 123 is executed in response to a command from the main unit 2 based on the application program for the purpose. For example, the processing unit 121 causes the infrared imaging unit 123 to perform an imaging operation, or acquires and / or calculates information based on the imaging result (information on the captured image, information calculated from the information, etc.). It may be transmitted to the main unit 2 via the communication control unit 111. Further, the processing unit 121 executes management processing for the infrared light emitting unit 124 in response to a command from the main body device 2. For example, the processing unit 121 controls the light emission of the infrared light emitting unit 124 in response to a command from the main body device 2. The memory used by the processing unit 121 for processing may be provided in the processing unit 121 or may be the memory 112.

右コントローラ4は、電力供給部118を備える。電力供給部118は、左コントローラ3の電力供給部108と同様の機能を有し、同様に動作する。 The right controller 4 includes a power supply unit 118. The power supply unit 118 has the same function as the power supply unit 108 of the left controller 3 and operates in the same manner.

<2.ゲームの概要>
次に、本実施形態のゲームシステムにおいて行われるゲームの概要について、図8〜図11を参照しつつ説明する。
<2. Game Overview>
Next, an outline of the game played in the game system of the present embodiment will be described with reference to FIGS. 8 to 11.

このゲームにおいて、ユーザは、所定の目的のために、プレイヤオブジェクトを、ディスプレイ12に表示される第1ゲーム空間及び第2ゲーム空間で操作する。本実施形態におけるプレイヤオブジェクトは、人物の形態を模したものである。このゲームにおいては、仮想カメラが設定されており、この仮想カメラで撮影された領域がディスプレイ12に表示される。図8はディスプレイに表示される画面であり、この画面に表示される第1ゲーム空間71は、三次元空間を模したものである。そして、プレイヤオブジェクト701は、この第1ゲーム空間71内では、三次元移動を行うことができる。すなわち、プレイヤオブジェクト701は、第1ゲーム空間71内で、仮想カメラによる撮影方向と垂直な方向(図8の矢印X1,X2の方向)のほか、撮影方向の手前側及び奥側(図8の矢印Y1
,Y2の方向)にも移動することができる。そして、第1ゲーム空間71においては、プ
レイヤオブジェクト701は、三次元的な態様で表示されている。すなわち、三次元空間を模した第1ゲーム空間71に合わせて、奥行きのある態様で表示されており、例えば、ポリゴンを用いて描画されたものとすることができる。以下、このようなプレイヤオブジェクトの表示態様を、第1表示態様と称することとする。
In this game, the user operates the player object in the first game space and the second game space displayed on the display 12 for a predetermined purpose. The player object in this embodiment imitates the form of a person. In this game, a virtual camera is set, and the area captured by the virtual camera is displayed on the display 12. FIG. 8 is a screen displayed on a display, and the first game space 71 displayed on this screen imitates a three-dimensional space. Then, the player object 701 can move three-dimensionally in the first game space 71. That is, in the first game space 71, the player object 701 is in the direction perpendicular to the shooting direction by the virtual camera (directions of arrows X1 and X2 in FIG. 8), as well as the front side and the back side (in FIG. 8) of the shooting direction. Arrow Y1
, Y2 direction). Then, in the first game space 71, the player object 701 is displayed in a three-dimensional manner. That is, it is displayed in a deep manner in accordance with the first game space 71 that imitates the three-dimensional space, and can be drawn using polygons, for example. Hereinafter, such a display mode of the player object will be referred to as a first display mode.

一方、本実施形態では、第2ゲーム空間として設定されるゲームコースが複数存在しており、後述するように、ユーザが選択を行うことができる。その例を、図9及び図10に示すが、第2ゲーム空間はこれら2種類に限定されない。図9は第2ゲーム空間721を表示した画面の例である。この第2ゲーム空間721は、二次元空間を模したものであり、プレイヤオブジェクト702は、この第2ゲーム空間721内では、二次元移動を行うことができる。すなわち、プレイヤオブジェクト702は、第2ゲーム空間721内で、仮想カメラの撮影方向と垂直な方向にのみ(図9中の矢印の方向)、移動することができる。そして、この第2ゲーム空間721において、プレイヤオブジェクト701は、ドット等を用いた二次元的な態様で表示されている。すなわち、二次元空間を模した第2ゲーム空間721に合わせて、奥行きのない態様で表示されている。以下、このような二次元空間を模した第2ゲーム空間721を、タイプT1と称することとする。 On the other hand, in the present embodiment, there are a plurality of game courses set as the second game space, and the user can make a selection as described later. Examples thereof are shown in FIGS. 9 and 10, but the second game space is not limited to these two types. FIG. 9 is an example of a screen displaying the second game space 721. The second game space 721 imitates a two-dimensional space, and the player object 702 can perform two-dimensional movement in the second game space 721. That is, the player object 702 can move in the second game space 721 only in the direction perpendicular to the shooting direction of the virtual camera (direction of the arrow in FIG. 9). Then, in the second game space 721, the player object 701 is displayed in a two-dimensional manner using dots and the like. That is, it is displayed in a mode without depth in accordance with the second game space 721 that imitates a two-dimensional space. Hereinafter, the second game space 721 that imitates such a two-dimensional space will be referred to as a type T1.

次に、図10に示す第2ゲーム空間について説明する。図10は第2ゲーム空間722を表示した画面の例である。同図に示すように、この第2ゲーム空間722は、三次元空間を模したものであるが、プレイヤオブジェクト702は、この第2ゲーム空間722内では、二次元移動しか行うことができない。すなわち、この第2ゲーム空間722は、奥行きがあるように表示されているが、プレイヤオブジェクト703は、この第2ゲーム空間722内で、仮想カメラの撮影方向と垂直な方向にのみ(図10中の矢印の方向)、移動することができる。すなわち、撮影方向の手前側及び奥側には移動することができない。そして、この第2ゲーム空間722においては、プレイヤオブジェクト703は、三次元的な態様で表示されている。すなわち、三次元空間を模した第2ゲーム空間722に合わせて、奥行きのある態様で表示されている。以下、このような三次元空間を模した第2ゲーム空間722を、タイプT2と称することとする。また、タイプT1,タイプT2のような第2ゲーム空間721,722のタイプをゲーム空間タイプと称することとする。そして、上述した複数のゲームコースに、いずれかのゲーム空間タイプが設定されている。なお、第2ゲーム空間721,722においては、仮想カメラを用いずにプレイヤオブジェクト702,703の移動の操作をすることもできる。すなわち、プレイヤオブジェクト702,703がディスプレイ12の面方向に沿って移動するように操作できるのであれば、必ずしも仮想カメラは必要ではない。 Next, the second game space shown in FIG. 10 will be described. FIG. 10 is an example of a screen displaying the second game space 722. As shown in the figure, the second game space 722 imitates a three-dimensional space, but the player object 702 can only move in two dimensions in the second game space 722. That is, although the second game space 722 is displayed so as to have a depth, the player object 703 is located in the second game space 722 only in the direction perpendicular to the shooting direction of the virtual camera (in FIG. 10). The direction of the arrow), you can move. That is, it cannot move to the front side and the back side in the shooting direction. Then, in the second game space 722, the player object 703 is displayed in a three-dimensional manner. That is, it is displayed in a deep manner in accordance with the second game space 722 that imitates the three-dimensional space. Hereinafter, the second game space 722 that imitates such a three-dimensional space will be referred to as a type T2. Further, the types of the second game space 721 and 722 such as the type T1 and the type T2 are referred to as the game space type. Then, one of the game space types is set in the plurality of game courses described above. In the second game space 721 and 722, the player objects 702 and 703 can be moved without using the virtual camera. That is, if the player objects 702 and 703 can be operated so as to move along the surface direction of the display 12, the virtual camera is not always necessary.

以上のように、第2ゲーム空間721、722としては、二次元空間を模したもの、あるいは三次元空間を模したものが設定されており、これに合わせてプレイヤオブジェクト702,703の表示態様が設定されているが、いずれも二次元移動、つまり仮想カメラによる撮影方向に垂直な方向(あるいは、ディスプレイ12の面方向に沿う方向)にしか移動できないように設定されている。したがって、以下では、第2ゲーム空間721,722で表示されるプレイヤオブジェクトの表示態様を、第3表示態様と称することとする。なお、第2表示態様については後述する。また、各ゲーム空間71,721,722で表示されるプレイヤオブジェクトを区別するため、第1ゲーム空間71、第2ゲーム空間のタイプT1(721)、及び第2ゲーム空間のタイプT2(722)で表示されるプレイヤオブジェクトの符号を、それぞれ701,702,703と表示することとする。 As described above, the second game spaces 721 and 722 are set to imitate a two-dimensional space or a three-dimensional space, and the display modes of the player objects 702 and 703 are set accordingly. Although they are set, they are all set so that they can move only in two dimensions, that is, in a direction perpendicular to the shooting direction of the virtual camera (or in a direction along the surface direction of the display 12). Therefore, in the following, the display mode of the player object displayed in the second game space 721 and 722 will be referred to as the third display mode. The second display mode will be described later. Further, in order to distinguish the player objects displayed in each game space 71, 721, 722, the first game space 71, the second game space type T1 (721), and the second game space type T2 (722) are used. The codes of the displayed player objects are displayed as 701, 702, and 703, respectively.

また、本実施形態では、第1ゲーム空間71でのプレイ中に、いずれかの第2ゲーム空間のタイプが設定されたゲームコースが選択されると、ゲームの画面が第1ゲーム空間71から第2ゲーム空間721,722に遷移する前に、プレイヤオブジェクト701が、第2表示態様に変化するように構成されている。そして、プレイヤオブジェクトが第2表示態様に変化した後、ディスプレイ12に表示される空間が、第2ゲーム空間721,722に遷移する。例えば、タイプT1(721)の第2ゲーム空間が設定されたゲームコースC1を選択したとき、第1ゲーム空間71においては、図11に示すように、プレイヤオブジェクトが、第1表示態様701から、第2表示態様704に変化する。第2表示態様704は、タイプT1の第3表示態様702を想起させるものであり、第3表示態様702のドット表現の代わりに小さい立方体を組み合わせた表示態様である。ユーザは、このような第2表示態様704を見ることで、次に表示される第2ゲーム空間721に対する準備を行うことができる。そして、図11に示す画面が表示された後、ディスプレイ12には、例えば、暗転などの遷移表示の後、図9に示す第2ゲーム空間721が第3表示態様のプレイヤオブジェクト702とともに表示される。なお、第2表示態様は、第2ゲーム空間のタイプ毎に設定されており、図10に示すタイプT2の第2ゲーム空間722が設定されたゲームコースC2が選択されたときには、例えば、図12に示すように、図11とは異なる第2表示態様でプレイヤオブジェクト704が表示される。 Further, in the present embodiment, when a game course in which any type of the second game space is set is selected during play in the first game space 71, the screen of the game is changed from the first game space 71 to the first game space 71. The player object 701 is configured to change to the second display mode before transitioning to the two game spaces 721 and 722. Then, after the player object changes to the second display mode, the space displayed on the display 12 transitions to the second game space 721,722. For example, when the game course C1 in which the second game space of type T1 (721) is set is selected, in the first game space 71, as shown in FIG. 11, the player object is displayed from the first display mode 701. The second display mode changes to 704. The second display mode 704 is reminiscent of the third display mode 702 of the type T1, and is a display mode in which a small cube is combined instead of the dot representation of the third display mode 702. By seeing such a second display mode 704, the user can prepare for the second game space 721 to be displayed next. Then, after the screen shown in FIG. 11 is displayed, the second game space 721 shown in FIG. 9 is displayed together with the player object 702 in the third display mode on the display 12 after a transition display such as darkening, for example. .. The second display mode is set for each type of the second game space, and when the game course C2 in which the second game space 722 of the type T2 shown in FIG. 10 is set is selected, for example, FIG. 12 As shown in FIG. 11, the player object 704 is displayed in a second display mode different from that of FIG.

<3.ゲームシステムの機能構成>
次に、上記のように構成されたゲームシステムの機能構成(ソフトウエア構成)について説明する。図13は、本実施形態に係るゲームシステムの機能構成の一例である。ゲームシステムのプロセッサ81は、フラッシュメモリ84、あるいはスロット23に装着された外部記憶媒体に記憶された情報処理プログラムをDRAM85に展開する。そして、プロセッサは、DRAM85に展開された情報処理プログラムを解釈及び実行して、各機能構成要素を制御する。これにより、本実施形態に係るゲームシステムは、第1オブジェクト表示部811、第1オブジェクト制御部812、選択肢生成部813、タイプ判定部814、ロード部815、態様変化部816、第2オブジェクト表示部817、及び第2オブジェクト制御部818を備えるコンピュータとして機能する。
<3. Game system function configuration>
Next, the functional configuration (software configuration) of the game system configured as described above will be described. FIG. 13 is an example of the functional configuration of the game system according to the present embodiment. The processor 81 of the game system deploys the information processing program stored in the flash memory 84 or the external storage medium installed in the slot 23 in the DRAM 85. Then, the processor interprets and executes the information processing program developed in the DRAM 85 to control each functional component. As a result, the game system according to the present embodiment has the first object display unit 811, the first object control unit 812, the option generation unit 813, the type determination unit 814, the load unit 815, the mode change unit 816, and the second object display unit. It functions as a computer including 817 and a second object control unit 818.

第1オブジェクト表示部811は、第1ゲーム空間71がディスプレイ12に表示されているときに、プレイヤオブジェクト701を、図8に示すように、第1表示態様で表示するための表示態様を制御する。そして、第1オブジェクト制御部812は、第1表示態様で表示されたプレイヤオブジェクト701を、第1ゲーム空間71内で三次元移動させるための三次元制御を行う。すなわち、上述したように、プレイヤオブジェクト70を、図8の矢印に示すように、仮想カメラの撮影方向と垂直な方向、及び撮影方向の手前側・奥側に移動することができる。 The first object display unit 811 controls a display mode for displaying the player object 701 in the first display mode as shown in FIG. 8 when the first game space 71 is displayed on the display 12. .. Then, the first object control unit 812 performs three-dimensional control for three-dimensionally moving the player object 701 displayed in the first display mode in the first game space 71. That is, as described above, as shown by the arrow in FIG. 8, the player object 70 can be moved in the direction perpendicular to the shooting direction of the virtual camera and in the front side / back side of the shooting direction.

このとき、第1オブジェクト制御部812は、プレイヤオブジェクト701の操作を、いずれかのアナログスティック32,52により行わせる。例えば、アナログスティック32,52を左右方向に傾けたときには、プレイヤオブジェクト701は、第1ゲーム空間71内で、撮影方向と垂直な方向、つまりディスプレイ12の面方向に沿って、左右方向に移動する。また、プレイヤオブジェクト701の移動の操作に伴い、ディスプレイ12においては、第1ゲーム空間71を左右方向にスクロールする制御も行われる。また、アナログスティック32,52を上側に傾けたときには、プレイヤオブジェクト701は、第1ゲーム空間71内で、仮想カメラの撮影方向の奥側に移動し、下側に傾けたときには、仮想カメラの撮影方向の手前側に移動する。また、プレイヤオブジェクト701の奥側または手前側への移動の操作に伴い、ディスプレイ12においては、プレイヤオブジェクト701あるいは第1ゲーム空間71を手前側または奥側へスクロールする制御が行われることもある。なお、第1ゲーム空間71内でのプレイヤオブジェクト701の操作は、上述したものに限られず、各コントローラ3,4に設けられている操作入力手段(アナログスティック、各種操作ボタンなど)により、移動以外の種々の操作を行うことができる。 At this time, the first object control unit 812 causes the player object 701 to be operated by any of the analog sticks 32 and 52. For example, when the analog sticks 32 and 52 are tilted in the left-right direction, the player object 701 moves in the left-right direction in the first game space 71 along the direction perpendicular to the shooting direction, that is, the plane direction of the display 12. .. Further, in accordance with the operation of moving the player object 701, the display 12 also controls to scroll the first game space 71 in the left-right direction. Further, when the analog sticks 32 and 52 are tilted upward, the player object 701 moves to the back side in the shooting direction of the virtual camera in the first game space 71, and when tilted downward, the virtual camera shoots. Move to the front side of the direction. Further, in accordance with the operation of moving the player object 701 to the back side or the front side, the display 12 may control the player object 701 or the first game space 71 to be scrolled to the front side or the back side. The operation of the player object 701 in the first game space 71 is not limited to the above-mentioned ones, and other than movement by the operation input means (analog stick, various operation buttons, etc.) provided in each of the controllers 3 and 4. Various operations can be performed.

選択肢生成部813は、第1ゲーム空間71が表示されているときに、所定の操作を行うと、選択可能なゲームコースを画面に表示する。そして、所定の操作、例えば、いずれかのボタンが押下されると、複数のゲームコースが示されたゲームコースリスト718が表示される。上記のように、各ゲームコースには、いずれかのゲーム空間のタイプが設定されており、図14の例では、ゲームコースC1,C2に、上述したタイプT1,2が設定されているが、これは一例であり、ゲームコースの数、及び設定されるタイプは適宜変更することができる。そして、例えば、ユーザが、アナログスティック32,52により、画面に表示されているポインタ708を移動させ、いずれかのゲームコースの上で、アナログスティック32,52を押下すると、ゲームコースの選択が完了する。なお、ゲームコースの選択方法は、特には限定されず、ゲームシステムに装備されているいずれかの操作入力を用いて選択できればよい。 The option generation unit 813 displays the selectable game course on the screen when a predetermined operation is performed while the first game space 71 is displayed. Then, when a predetermined operation, for example, any button is pressed, a game course list 718 showing a plurality of game courses is displayed. As described above, one of the game space types is set for each game course, and in the example of FIG. 14, the above-mentioned types T1 and 2 are set for the game courses C1 and C2. This is an example, and the number of game courses and the type to be set can be changed as appropriate. Then, for example, when the user moves the pointer 708 displayed on the screen with the analog sticks 32 and 52 and presses the analog sticks 32 and 52 on any of the game courses, the selection of the game course is completed. To do. The method of selecting the game course is not particularly limited, and it is sufficient that the game course can be selected by using any operation input provided in the game system.

タイプ判定部814では、何れのゲーム空間タイプが選択されたかを判定する。すなわち、選択されたゲームコースに設定されているゲーム空間タイプを判定する。ここでは、選択されたゲームコースに設定された第2ゲーム空間を、選択ゲーム空間と称することとする。ロード部815は、タイプ判定部814の判定に基づいて、選択ゲーム空間のデータ(後述する第2ゲーム空間データ853)をフラッシュメモリ84または外部記憶媒体から、DRAM85にロードする。こうして、選択ゲーム空間のデータがDRAM85にロードされると、第2ゲーム空間721,722が設定されたゲームコースでのゲームが開始可能となる。 The type determination unit 814 determines which game space type is selected. That is, the game space type set for the selected game course is determined. Here, the second game space set in the selected game course is referred to as a selected game space. Based on the determination of the type determination unit 814, the load unit 815 loads the data of the selected game space (second game space data 853 described later) from the flash memory 84 or the external storage medium into the DRAM 85. In this way, when the data of the selected game space is loaded into the DRAM 85, the game in the game course in which the second game space 721,722 is set can be started.

態様変化部816は、タイプ判定部814によって判定されたタイプに応じて、第1表示態様で表示されたプレイヤオブジェクト701を、第2表示態様に変化させる。なお、第2表示態様のプレイヤオブジェクト704は、第1ゲーム空間71から第2ゲーム空間721,722に遷移するまでの一時的な表示態様である。 The mode change unit 816 changes the player object 701 displayed in the first display mode to the second display mode according to the type determined by the type determination unit 814. The player object 704 in the second display mode is a temporary display mode from the transition from the first game space 71 to the second game space 721 and 722.

第2オブジェクト表示部817は、ディスプレイ12の画面が、第2ゲーム空間721,722に遷移した後、プレイヤオブジェクト702,703を、第3表示態様で表示するための表示態様を制御する。そして、第2オブジェクト制御部818は、第3表示態様で表示されたプレイヤオブジェクト702,703を、第2ゲーム空間721,722内で二次元移動させるための二次元制御を行う。すなわち、上述したように、プレイヤオブジェクト702,703を、仮想カメラによる撮影方向に垂直な方向(あるいは、ディスプレイ12の面方向に沿う方向)に移動させる制御を行う。 The second object display unit 817 controls a display mode for displaying the player objects 702 and 703 in the third display mode after the screen of the display 12 transitions to the second game space 721 and 722. Then, the second object control unit 818 performs two-dimensional control for two-dimensionally moving the player objects 702 and 703 displayed in the third display mode in the second game space 721 and 722. That is, as described above, the player objects 702 and 703 are controlled to be moved in the direction perpendicular to the shooting direction by the virtual camera (or the direction along the surface direction of the display 12).

このとき、第2オブジェクト制御部818は、プレイヤオブジェクト702,703の操作を、アナログスティック32,52、または左コントローラ3の4つの操作ボタン33〜36により行わせる。但し、ゲームの種類によっては、操作ボタン33〜36の使用の方が適している場合がある。操作ボタン33〜36を使用する場合、例えば、右方向ボタン33または左方向ボタン36を押下すると、プレイヤオブジェクト701は、第2ゲーム空間721,722内で、ディスプレイ12の面方向に沿って、左右方向に移動する。また、プレイヤオブジェクト701の左右方向の移動に伴って、ディスプレイ12においては、第2ゲーム空間721,722を左右方向にスクロールする制御も行われる。さらに、例えば、第2ゲーム空間721,722において、プレイヤオブジェクト702、703の位置に梯子やツタ等の登ることが可能なオブジェクトが表示されている場合、上方向ボタン35を押下したときには、プレイヤオブジェクト702,703は、それらを登るように移動する。但し、そのようなオブジェクトが表示されていないときには、上方向ボタン35を押下しても何も起こらない。一方、下方向ボタン34を押下したときには、例えば、図10の右側のプレイヤオブジェクト703のように、しゃがむ動作を行う。その他、第2ゲーム空間721,722においては、第1ゲーム空間71とは異なる操作方法で、プレイヤオブジェクト702,703を操作することができる。例えば、右方向ボタン33または左方向ボタン36とともに、右コントローラ4のBボタン54を押下すると、プレイヤオブジェクト702,703が左右方向にダッシュしながら移動させることができる。なお。第2ゲーム空間721,722内でのプレイヤオブジェクト702,703の操作は、上述したものに限られず、各コントローラ3,4に設けられている操作入力手段により、移動以外の種々の操作を行うことができる。 At this time, the second object control unit 818 causes the player objects 702 and 703 to be operated by the analog sticks 32 and 52 or the four operation buttons 33 to 36 of the left controller 3. However, depending on the type of game, it may be more suitable to use the operation buttons 33 to 36. When the operation buttons 33 to 36 are used, for example, when the right direction button 33 or the left direction button 36 is pressed, the player object 701 moves left and right in the second game space 721 and 722 along the surface direction of the display 12. Move in the direction. Further, as the player object 701 moves in the left-right direction, the display 12 also controls to scroll the second game spaces 721 and 722 in the left-right direction. Further, for example, in the second game space 721,722, when an object capable of climbing such as a ladder or an ivy is displayed at the position of the player objects 702 and 703, when the upward button 35 is pressed, the player object 702 and 703 move to climb them. However, when such an object is not displayed, nothing happens even if the upward button 35 is pressed. On the other hand, when the downward button 34 is pressed, for example, the player object 703 on the right side of FIG. 10 performs a squatting operation. In addition, in the second game space 721 and 722, the player objects 702 and 703 can be operated by an operation method different from that of the first game space 71. For example, when the B button 54 of the right controller 4 is pressed together with the right direction button 33 or the left direction button 36, the player objects 702 and 703 can be moved while dashing in the left-right direction. In addition. The operations of the player objects 702 and 703 in the second game space 721 and 722 are not limited to those described above, and various operations other than movement are performed by the operation input means provided in each of the controllers 3 and 4. Can be done.

次に、DRAM85に記憶されるデータの一例を、図15に示す。図15に示すように、DRAM85には、ゲームプログラム851、第1ゲーム空間71に関する第1ゲーム空間データ852、複数の第2ゲーム空間721,722に関する第2ゲーム空間データ853、第1表示態様のプレイヤオブジェクト701に関する第1プレイヤオブジェクトデータ854、第3表示態様のプレイヤオブジェクト702,703に関する複数の第2プレイヤオブジェクトデータ855、及び第2表示態様のプレイヤオブジェクト704に関する複数の第3プレイヤオブジェクトデータ856が、記憶される。 Next, an example of the data stored in the DRAM 85 is shown in FIG. As shown in FIG. 15, the DRAM 85 has a game program 851, first game space data 852 related to the first game space 71, second game space data 853 related to a plurality of second game spaces 721 and 722, and a first display mode. The first player object data 854 relating to the player object 701, the plurality of second player object data 855 relating to the player objects 702 and 703 of the third display mode, and the plurality of third player object data 856 relating to the player object 704 of the second display mode , Will be remembered.

ゲームプログラム851は、本実施形態のゲームを行うためのプログラムであり、フラッシュメモリ84またはスロット23に装着された外部記憶媒体に予め記憶されている。ゲームプログラム851は、ゲームの開始時にDRAM85にロードされる。 The game program 851 is a program for playing the game of the present embodiment, and is stored in advance in an external storage medium mounted in the flash memory 84 or the slot 23. The game program 851 is loaded into the DRAM 85 at the start of the game.

その他のデータのうち、第2ゲーム空間データ853及び第2プレイヤオブジェクトデータは、上述したように、タイプ判定部814による判定後に、DRAM85にロードされる。 Among the other data, the second game space data 853 and the second player object data are loaded into the DRAM 85 after the determination by the type determination unit 814 as described above.

その他、図示を省略するが、ゲームを進行する上で必要となるオブジェクトに関するデータも、適宜、DRAM85にロードされて実行される。ここでいうオブジェクトとは、ゲームに登場する人物、動物、魔物などのキャラクタ、キャラクタが持つべき道具や武器、建物等の構造物、山、湖、岩などの自然物など、ゲームを構成する各種の要素を意味する。また、具体的な形状を有するオブジェクトのほか、ゲーム中に行われるイベント(例えば、戦闘シーン,デモ)もオブジェクトとなる。 In addition, although not shown, data related to objects necessary for advancing the game is also appropriately loaded into the DRAM 85 and executed. The objects mentioned here are various characters that make up the game, such as characters, animals, and monsters that appear in the game, tools and weapons that the characters should have, structures such as buildings, and natural objects such as mountains, lakes, and rocks. Means an element. In addition to objects having a specific shape, events (for example, battle scenes, demos) performed during the game are also objects.

<4.ゲーム処理の例>
次に、ゲーム処理の例について、図16を参照しつつ説明する。図16は、ゲーム処理の一例を示すフローチャートである。まず、ゲームプログラム851がDRAM85にロードされ、ゲームが開始されると(ステップS101)、図8に示すように、ディスプレイ12には第1ゲーム空間71とともに、第1表示態様のプレイヤオブジェクト701が表示される(ステップS102)。この状態で、ユーザは、いずれかのアナログスティック32,52を操作して、第1ゲーム空間71内で、プレイヤオブジェクト701を三次元移動させる(ステップS103)。その他、ゲーム内で必要な操作をコントローラ3,4を用いて行うと、それに伴ってゲーム処理が行われる。
<4. Game processing example>
Next, an example of game processing will be described with reference to FIG. FIG. 16 is a flowchart showing an example of game processing. First, when the game program 851 is loaded into the DRAM 85 and the game is started (step S101), as shown in FIG. 8, the display 12 displays the player object 701 in the first display mode together with the first game space 71. (Step S102). In this state, the user operates one of the analog sticks 32 and 52 to move the player object 701 three-dimensionally in the first game space 71 (step S103). In addition, when the necessary operations in the game are performed by using the controllers 3 and 4, the game processing is performed accordingly.

そして、所定の操作によって、ゲーム空間タイプリストを画面に表示させた後、ユーザが、ゲーム空間タイプを選択すると(ステップS104のYES)、タイプ判定部814により、ゲーム空間タイプが判定される。そして、その判定結果に応じて、図11または図12に示すように、プレイヤオブジェクトを第1表示態様701から、第2表示態様704に変化させる(ステップS105)。その後、次に説明するデータのロード(ステップS106)の開始後、画面の暗転等の遷移処理を行う(ステップS107)。 Then, after the game space type list is displayed on the screen by a predetermined operation, when the user selects the game space type (YES in step S104), the type determination unit 814 determines the game space type. Then, as shown in FIG. 11 or 12, the player object is changed from the first display mode 701 to the second display mode 704 according to the determination result (step S105). After that, after the start of loading the data (step S106) described below, transition processing such as darkening of the screen is performed (step S107).

上述したタイプ判定部による判定後、DRAM85には、選択された第2ゲーム空間データ853及び第2プレイヤオブジェクトデータ855がロードされる(ステップS106)。これらのデータ853,855のロードは、内部処理であるため、プレイヤオブジェクトの第2表示態様への変化と同時、またはその前後に行うこともできるが、当然ながら、上述した遷移処理が終了するまで、つまり暗転が終了するまでに完了する。 After the determination by the type determination unit described above, the selected second game space data 853 and the second player object data 855 are loaded into the DRAM 85 (step S106). Since the loading of these data 835 and 855 is an internal process, it can be performed at the same time as or before or after the change to the second display mode of the player object, but of course, until the above-mentioned transition process is completed. That is, it is completed by the end of darkening.

第2ゲーム空間データ853及び第2プレイヤオブジェクトデータ855のロードが完了すると、上記暗転に続いて、ディスプレイ12には第2ゲーム空間とともに、第3表示態様のプレイヤオブジェクト702,703が表示される(ステップS108)。この状態で、ユーザは、操作ボタン33〜36を操作して、第2ゲーム空間721,722内で、プレイヤオブジェクト702,703を二次元移動させる(ステップS109)。その他、ゲーム内で必要な操作をコントローラ3,4を用いて行うと、それに伴ってゲーム処理が行われる。 When the loading of the second game space data 853 and the second player object data 855 is completed, the player objects 702 and 703 of the third display mode are displayed on the display 12 together with the second game space following the darkening. Step S108). In this state, the user operates the operation buttons 33 to 36 to move the player objects 702 and 703 two-dimensionally in the second game space 721 and 722 (step S109). In addition, when the necessary operations in the game are performed by using the controllers 3 and 4, the game processing is performed accordingly.

そして、第2ゲーム空間721,723において、所定の目的を達成し、ゲームをクリアしたとき、あるいはプレイヤオブジェクトが死亡したり、リタイアするなど、ゲームを進行することができない状態になったときには(ステップS110のNO)、画面を暗転させるなどの遷移処理を行った後、第1ゲーム空間71及び第1表示態様のプレイヤオブジェクト701を表示させる(ステップS102)。これにより、ユーザは、第1ゲーム空間71でのゲームを再開する。 Then, in the second game space 721, 723, when the predetermined purpose is achieved and the game is cleared, or when the player object dies or retires, the game cannot proceed (step). After performing transition processing such as NO) in S110 and darkening the screen, the first game space 71 and the player object 701 in the first display mode are displayed (step S102). As a result, the user restarts the game in the first game space 71.

<5.特徴>
本実施形態に係るゲームシステムによれば、以下の効果を得ることができる。
(1)プレイヤオブジェクトに対して三次元制御を行う第1ゲーム空間71から、プレイヤオブジェクトに対して二次元制御を行う第2ゲーム空間721,722に遷移する際に、選択された第2ゲーム空間のタイプに応じて、プレイヤオブジェクトを第1ゲーム空間71内で、第1表示態様から一旦、第3表示態様を想起させる第2表示態様に変化させた後、第2ゲーム空間においてオブジェクトを第3表示態様で表示している。そのため、第1ゲーム空間71から第2ゲーム空間721,722に遷移する際に、プレイヤオブジェクトが突然、第1表示態様から第3表示態様に変化するユーザの違和感を低減することができる。
<5. Features>
According to the game system according to the present embodiment, the following effects can be obtained.
(1) The second game space selected when transitioning from the first game space 71 that performs three-dimensional control on the player object to the second game space 721 and 722 that perform two-dimensional control on the player object. The player object is changed from the first display mode to the second display mode reminiscent of the third display mode in the first game space 71 according to the type of, and then the object is changed to the third display mode in the second game space. It is displayed in the display mode. Therefore, it is possible to reduce the discomfort of the user when the player object suddenly changes from the first display mode to the third display mode when transitioning from the first game space 71 to the second game space 721,722.

(2)プレイヤオブジェクトが第1表示態様から第2表示態様に変化し、その後、暗転が終了するまでの時間を利用して第2ゲーム空間データ853及び第2プレイヤオブジェクトデータ855のロードを行うことができる。すなわち、ディスプレイ12の表示が、第1ゲーム空間71から第2ゲーム空間721,722に遷移するまでの間に、プレイヤオブジェクトの表示態様の変化をユーザに見せる時間が設けられるため、ユーザがデータのロードを体感する時間を低減することができる。なお、本実施形態においては、タイプT2の第2ゲーム空間722が選択された場合、図10及び図12に示すように、プレイヤオブジェクトの第2表示態様と第3表示態様が同じになっている。そのため、この場合には、第2ゲーム空間722に遷移する際に、第3表示態様のプレイヤオブジェクト704をロードすることが不要になる。すなわち、第3表示態様のプレイヤオブジェクト704のロード時間を無くすことができる。 (2) The second game space data 853 and the second player object data 855 are loaded by using the time until the player object changes from the first display mode to the second display mode and then the darkening ends. Can be done. That is, during the transition from the first game space 71 to the second game space 721, 722 on the display 12, there is a time for the user to show the change in the display mode of the player object, so that the user can display the data. It is possible to reduce the time to experience the road. In this embodiment, when the second game space 722 of type T2 is selected, the second display mode and the third display mode of the player object are the same as shown in FIGS. 10 and 12. .. Therefore, in this case, it is not necessary to load the player object 704 in the third display mode when transitioning to the second game space 722. That is, the loading time of the player object 704 in the third display mode can be eliminated.

(3)本実施形態においては、第1ゲーム空間71におけるプレイヤオブジェクト701の操作方法と、第2ゲーム空間721,722におけるプレイヤオブジェクト702,703の操作方法と、が相違している。すなわち、第1ゲーム空間71では、アナログスティック32,52でプレイヤオブジェクト701を移動させるが、第2ゲーム空間721,722では、アナログスティック32,52よりも、操作ボタン33〜36の方がゲームに適している場合がある。本実施形態では、上記のように、第1ゲーム空間71から第2ゲーム空間721,722に遷移する間に、第3表示態様を想起させる第2表示態様のプレイヤオブジェクト704が表示されるため、これを視認することで、ユーザは、第2ゲーム空間721,722におけるプレイに備えた準備、例えば、コントローラ3,4の持ち替えなどを行うことができる。すなわち、第1ゲーム空間71でのプレイと,第2ゲーム空間721,722でのプレイとで、操作のための最適な入力手段が相違する場合、その準備を行うことができる。 (3) In the present embodiment, the operation method of the player object 701 in the first game space 71 and the operation method of the player objects 702 and 703 in the second game space 721 and 722 are different. That is, in the first game space 71, the player object 701 is moved by the analog sticks 32 and 52, but in the second game space 721 and 722, the operation buttons 33 to 36 are used for the game rather than the analog sticks 32 and 52. May be suitable. In the present embodiment, as described above, during the transition from the first game space 71 to the second game space 721,722, the player object 704 in the second display mode reminiscent of the third display mode is displayed. By visually recognizing this, the user can prepare for play in the second game space 721,722, for example, change the hands of the controllers 3 and 4. That is, if the optimum input means for operation differs between the play in the first game space 71 and the play in the second game space 721 and 722, preparations can be made.

<6.変形例>
以上、本発明の実施形態について説明したが、本発明は上記各実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。また、以下の変形例は、適宜組み合わせることができる。
<6. Modification example>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the spirit of the present invention. For example, the following changes can be made. In addition, the following modifications can be combined as appropriate.

(1)上記実施形態では、プレイヤオブジェクトが第1表示態様から第2表示態様に変化した後、暗転による遷移処理が行われ、その後、第2ゲーム空間とともに第3表示態様のプレイヤオブジェクトが表示されるが、遷移処理は暗転に限定されない。例えば、図17に示すように、第2表示態様になったプレイヤオブジェクトに対し、黒色の部分を円形状にワイプインさせるような処理を行い、画面全体が暗転した後、第2ゲーム空間721,722及びプレイヤオブジェクト702,703を表示させることができる。これにより、変化した第2表示態様のプレイヤオブジェクト704を強調することができ、ゲーム空間が遷移することをユーザに分かりやすく示すことができる。なお、このような、画面の遷移に伴う、プレイヤオブジェクトの強調処理は、ワイプインに限られず、種々の態様が可能である。また、このような処理を行う機能構成として、強調画面生成部を、ゲームプログラムに加えることができる。 (1) In the above embodiment, after the player object changes from the first display mode to the second display mode, a transition process by darkening is performed, and then the player object of the third display mode is displayed together with the second game space. However, the transition process is not limited to blackout. For example, as shown in FIG. 17, the player object in the second display mode is subjected to a process of wiping in the black portion in a circular shape, and after the entire screen is darkened, the second game space 721,722 And the player objects 702 and 703 can be displayed. As a result, the player object 704 in the changed second display mode can be emphasized, and the user can be easily shown that the game space is transitioning. It should be noted that the emphasis processing of the player object accompanying the transition of the screen is not limited to the wipe-in, and various modes are possible. Further, as a functional configuration for performing such processing, a highlight screen generation unit can be added to the game program.

その他、遷移処理は適宜設定することができる。あるいは、第2表示態様のプレイヤオブジェクト704を所定時間表示した後、暗転や図17のような遷移処理を行うことなく、第1ゲーム空間71から第2ゲーム空間721,722へ画面を切り替えて、第2ゲーム空間721,722及びプレイヤオブジェクト702,703を表示させることができる。 In addition, the transition process can be set as appropriate. Alternatively, after displaying the player object 704 in the second display mode for a predetermined time, the screen is switched from the first game space 71 to the second game space 721,722 without performing darkening or the transition process as shown in FIG. The second game space 721, 722 and the player objects 702 and 703 can be displayed.

また、第2ゲーム空間721,722から第1ゲーム空間71への遷移も同様であり、上述したような種々の遷移処理を行うことができる。あるいは遷移処理を行わず、第2ゲーム空間721,722から第1ゲーム空間71へ画面の切替を行うこともできる。 Further, the transition from the second game space 721, 722 to the first game space 71 is the same, and various transition processes as described above can be performed. Alternatively, the screen can be switched from the second game space 721, 722 to the first game space 71 without performing the transition process.

(2)上記実施形態で示した、プレイヤオブジェクトの表示態様である第1表示態様、第2表示態様、及び第3表示態様は、一例であり、種々の態様が可能である。例えば、本発明に係る第1表示態様は、必ずしも、第1ゲーム空間のような三次元空間に合わせた表示態様でなくてもよく、二次元的な表示、あるいはそれに近い表示態様でもよい。また、本発明に係る第3表示態様は、上記実施形態のように、ゲーム空間タイプに合わせて、二次元的な表示または三次元的な表示にすればよいが、必ずしもゲーム空間のタイプに合わせなくてもよく、少なくとも第1表示態様と相違していればよい。なお、三次元的な表示とは、少なくとも奥行きが視認できるような表示であり、二次元的な表示とは、奥行きが視認できず、平面でしかプレイヤオブジェクトを認識できない表示である。また、二次元的な表示に近いとは、例えば、奥行きが極めて小さく、一見すると、二次元の表示に見える表示とすることができる。 (2) The first display mode, the second display mode, and the third display mode, which are the display modes of the player object shown in the above embodiment, are examples, and various modes are possible. For example, the first display mode according to the present invention does not necessarily have to be a display mode adapted to a three-dimensional space such as the first game space, and may be a two-dimensional display or a display mode close to it. Further, the third display mode according to the present invention may be a two-dimensional display or a three-dimensional display according to the game space type as in the above embodiment, but is not necessarily matched to the game space type. It does not have to be, and at least it may be different from the first display mode. The three-dimensional display is a display in which at least the depth can be visually recognized, and the two-dimensional display is a display in which the depth cannot be visually recognized and the player object can be recognized only on a plane. Further, "close to a two-dimensional display" means that, for example, the depth is extremely small, and at first glance, the display looks like a two-dimensional display.

さらに、本発明に係る第2表示態様は、上記実施形態ではタイプT1の第2ゲーム空間721に遷移する際に、ドットを組み合わせた表示にしているが、これに限定されるものではなく、第3表示態様と関連するような種々の表示態様が可能である。「第3表示態様と関連する」とは、例えば、第3表示態様を想起させるような表示態様であり、第3表示態様が二次元的な表示であれば、二次元態様、あるいは奥行きが小さい三次元態様にすることができる。あるいは、第3表示態様が三次元的な表示であっても、例えば、第2ゲーム空間721,722及び第3表示態様が、古いタイプのゲームを再現したようなゲーム空間等であれば、それに合わせて画素数が少なく見えるような表示態様にすることもでき、このような表示態様も「第3表示態様と関連する」といえる。また、第2表示態様と第3表示態様を同じにすることもでき、これも「第3表示態様と関連する」といえる。 Further, the second display mode according to the present invention is a display in which dots are combined when transitioning to the second game space 721 of the type T1 in the above embodiment, but the display is not limited to this. 3 Various display modes that are related to the display mode are possible. "Relevant to the third display mode" is, for example, a display mode reminiscent of the third display mode, and if the third display mode is a two-dimensional display, the two-dimensional mode or the depth is small. It can be a three-dimensional aspect. Alternatively, even if the third display mode is a three-dimensional display, for example, if the second game space 721, 722 and the third display mode are a game space that reproduces an old type game, etc. In addition, the display mode can be set so that the number of pixels looks small, and such a display mode can be said to be "related to the third display mode". Further, the second display mode and the third display mode can be the same, which can also be said to be "related to the third display mode".

そして、第2表示態様と第3表示態様とが関連することで、第1ゲーム空間71から第2ゲーム空間721,722に遷移したときに、プレイヤオブジェクトが同一のキャラクタ(例えば、同一人物)のままプレイが続行されることをユーザに認識させることができる。さらには、第1ゲーム空間71でのプレイと第2ゲーム空間721,722でのプレイとが世界観的には同一線上で行われる事象であることもユーザに認識させることができる。 Then, when the second display mode and the third display mode are related to each other, when the transition from the first game space 71 to the second game space 721 and 722, the player object is the same character (for example, the same person). It is possible to make the user recognize that the play is continued as it is. Further, it is possible to make the user recognize that the play in the first game space 71 and the play in the second game space 721 and 722 are events that are performed on the same line in the world view.

(3)上記実施形態では、第1ゲーム空間71でのプレイヤオブジェクトの操作と、第2ゲーム空間721,722でのプレイヤオブジェクトの操作と、ゲームの種類によっては相違することがあるようにしている。すなわち、第2オブジェクト制御部818は、第1オブジェクト制御部812とは、異なる操作方法により、プレイヤオブジェクト702,703の操作を行わせることがあるが、これは、同じ操作を行う際に、異なる操作入力手段を使用するようにするほか、例えば、一方のゲーム空間で可能な操作が、他方のゲーム空間で操作できないような場合も含む。例えば、上述したBボタンによるダッシュのほか、ジャンプの方法などを相違させることができる。また、第2オブジェクト制御部818は、第1オブジェクト制御部812とで、一部の操作方法を同じにしたり、あるいはすべて同じ操作方法にすることもできる。 (3) In the above embodiment, the operation of the player object in the first game space 71 and the operation of the player object in the second game space 721 and 722 may differ depending on the type of game. .. That is, the second object control unit 818 may be made to operate the player objects 702 and 703 by a different operation method from the first object control unit 812, but this is different when performing the same operation. In addition to using the operation input means, for example, there is a case where an operation possible in one game space cannot be operated in the other game space. For example, in addition to the above-mentioned dash by the B button, the jump method and the like can be different. Further, the second object control unit 818 may have some operation methods the same as those of the first object control unit 812, or all of them may have the same operation method.

(4)第2ゲーム空間721,722でのプレイヤオブジェクト702,703の操作方法を、ゲーム空間タイプによって異ならせることもできる。例えば、アナログスティック、操作ボタン等、各コントローラ3,4に配置された操作入力手段が異なるようにすることもできる。この点は、上述した(3)の項で示した事項を同様に適用することができる。 (4) The operation method of the player objects 702 and 703 in the second game space 721 and 722 may be different depending on the game space type. For example, the operation input means arranged in each of the controllers 3 and 4 such as an analog stick and an operation button can be made different. In this respect, the matters shown in the above-mentioned section (3) can be similarly applied.

(5)第2ゲーム空間721,722から第1ゲーム空間71に遷移する際に、第2ゲーム空間721,722において、プレイヤオブジェクト702,703を一旦第2表示態様704に変化させた後、第1ゲーム空間71への遷移とともに、プレイヤオブジェクトを第1表示態様で表示することもできる。この場合の第2表示態様とは、第1表示態様に関連する表示態様であり、この点は、上記(2)の項で示した事項を同様に適用することができる。 (5) When transitioning from the second game space 721, 722 to the first game space 71, in the second game space 721, 722, the player objects 702 and 703 are once changed to the second display mode 704, and then the first Along with the transition to the game space 71, the player object can be displayed in the first display mode. The second display mode in this case is a display mode related to the first display mode, and the matters shown in the above section (2) can be similarly applied to this point.

(6)プレイヤオブジェクトは、人物に限定されず、動物、魔物、移動体(自動車等)など、移動可能なキャラクタであればよい。 (6) The player object is not limited to a person, and may be a movable character such as an animal, a monster, or a moving object (automobile, etc.).

(7)上記実施形態において、本発明の情報処理装置に相当するゲームシステムは、ディスプレイ12を有しているが、これに限定されない。すなわち、本発明に係る情報処理装置は、ディスプレイを有していなくてもよく、外部のディスプレイを備えた表示装置に接続可能で、そのディスプレイに、上記各画面が表示できればよい。 (7) In the above embodiment, the game system corresponding to the information processing device of the present invention has a display 12, but is not limited thereto. That is, the information processing device according to the present invention does not have to have a display, and may be connected to a display device provided with an external display, and the above screens may be displayed on the display.

(8)本発明の情報処理プログラム、情報処理装置、及び情報処理方法は、有線または無線で接続された、LANまたはインターネットのようなネットワークを介した複数人用のプレイにも適用することができる。 (8) The information processing program, information processing device, and information processing method of the present invention can also be applied to a play for a plurality of players via a network such as a LAN or the Internet connected by wire or wirelessly. ..

1 ゲームシステム(情報処理装置)
12 ディスプレイ(表示部)
71 第1ゲーム空間
721,722 第2ゲーム空間
701 第1表示態様のプレイヤオブジェクト
702,703 第3表示態様のプレイヤオブジェクト
704 第2表示態様のプレイヤオブジェクト
85 DRAM(メモリ)
811 第1オブジェクト表示部
812 第1オブジェクト制御部
813 選択肢生成部
814 タイプ判定部
815 ロード部
816 態様変化部
817 第2オブジェクト表示部
818 第2オブジェクト制御部
1 Game system (information processing device)
12 Display (display unit)
71 First game space 721,722 Second game space 701 Player object in the first display mode 702,703 Player object in the third display mode 704 Player object in the second display mode 85 DRAM (memory)
811 1st object display unit 812 1st object control unit 813 Choice generation unit 814 Type determination unit 815 Load unit 816 Mode change unit 817 2nd object display unit 818 2nd object control unit

Claims (14)

情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、
第1ゲーム空間にプレイヤオブジェクトを第1表示態様で表示する第1オブジェクト表示部と、
前記第1表示態様で表示された前記プレイヤオブジェクトを、ユーザの操作に基づいて、前記第1ゲーム空間において三次元移動させる三次元制御を行う第1オブジェクト制御部と、
複数の第2ゲーム空間の各々に対応する選択肢の中から、一の前記第2ゲーム空間を選択ゲーム空間として、前記ユーザに選択させるための画像を生成する選択肢生成部と、
前記複数の第2ゲーム空間の各々に対して設定されたゲーム空間タイプを、選択された前記選択ゲーム空間に基づいて、判定するタイプ判定部と、
前記ゲーム空間タイプの判定後、前記第1ゲーム空間において、前記プレイヤオブジェクトを前記第1表示態様から、判定された前記ゲーム空間タイプに対応する第2表示態様に変化させる態様変化部と、
選択された前記選択ゲーム空間のデータを、前記情報処理装置のメモリにロードするロード部と、
前記選択ゲーム空間のデータのロードの完了後に、前記選択ゲーム空間に前記プレイヤオブジェクトを第3表示態様で表示する第2オブジェクト表示部と、
前記第3表示態様で表示された前記プレイヤオブジェクトを、前記ユーザの操作に基づいて、前記選択ゲーム空間において二次元移動させる二次元制御を行う第2オブジェクト制御部と、
して前記コンピュータを機能させ、
前記第2表示形態は、前記第3表示形態に関連する表示形態である、情報処理プログラム。
An information processing program that is executed on the computer of an information processing device.
A first object display unit that displays a player object in the first game space in the first display mode,
A first object control unit that performs three-dimensional control for three-dimensionally moving the player object displayed in the first display mode in the first game space based on a user's operation.
An option generation unit that generates an image for the user to select one of the second game spaces as a selection game space from the options corresponding to each of the plurality of second game spaces.
A type determination unit that determines a game space type set for each of the plurality of second game spaces based on the selected selected game space.
After determining the game space type, in the first game space, a mode changing unit that changes the player object from the first display mode to a second display mode corresponding to the determined game space type.
A load unit that loads the selected data of the selected game space into the memory of the information processing device, and
After the loading of the data in the selected game space is completed, the second object display unit that displays the player object in the selected game space in the third display mode, and
A second object control unit that performs two-dimensional control for two-dimensionally moving the player object displayed in the third display mode in the selected game space based on the operation of the user.
To make the computer work
The second display form is an information processing program which is a display form related to the third display form.
前記第2オブジェクト制御部は、前記第1オブジェクト制御部とは、異なる操作方法により、前記プレイヤオブジェクトの操作を行わせる、請求項1に記載の情報処理プログラム。 The information processing program according to claim 1, wherein the second object control unit operates the player object by an operation method different from that of the first object control unit. 前記第2オブジェクト制御部は、前記第1オブジェクト制御部とは、異なる操作入力手段により、前記プレイヤオブジェクトの操作を行わせる、請求項2に記載の情報処理プログラム。 The information processing program according to claim 2, wherein the second object control unit operates the player object by an operation input means different from that of the first object control unit. 前記第2オブジェクト制御部は、前記選択ゲーム空間の前記ゲーム空間タイプ毎に設定された操作方法により、前記プレイヤオブジェクトの操作を行わせる、請求項1から3のいずれかに記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 3, wherein the second object control unit operates the player object by an operation method set for each game space type of the selected game space. 前記第2オブジェクト制御部は、前記選択ゲーム空間の前記ゲーム空間タイプ毎に設定された操作入力手段により、前記プレイヤオブジェクトの操作を行わせる、請求項4に記載の情報処理プログラム。 The information processing program according to claim 4, wherein the second object control unit operates the player object by an operation input means set for each game space type of the selected game space. 前記態様変化部は、前記第2表示態様として、前記第3表示態様を三次元的に表現した表示態様を用いる、請求項1から5のいずれかに記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 5, wherein the mode changing unit uses a display mode in which the third display mode is three-dimensionally expressed as the second display mode. 前記態様変化部は、前記第2表示態様として、前記第3表示態様を用いる、請求項1から5のいずれかに記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 5, wherein the mode changing unit uses the third display mode as the second display mode. 前記第1オブジェクト表示部は、前記第1表示態様として三次元の表示態様を用いる、請求項1から7のいずれかに記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 7, wherein the first object display unit uses a three-dimensional display mode as the first display mode. 前記第2オブジェクト表示部は、二次元空間として表現された前記選択ゲーム空間に、前記プレイヤオブジェクトを前記第3表示態様で表示する、請求項1から8のいずれかに記載の情報処理プログラム。 The information processing program according to any one of claims 1 to 8, wherein the second object display unit displays the player object in the third display mode in the selected game space represented as a two-dimensional space. 前記プレイヤオブジェクトが前記第2表示態様に変化した後に、当該プレイヤオブジェクトを他の部分よりも視覚的に強調した画像を生成する強調画像生成手段として、前記コンピュータをさらに機能させる、請求項1から9のいずれかに記載の情報処理プログラム。 Claims 1 to 9 further make the computer function as a weighted image generating means for generating an image in which the player object is visually emphasized more than other parts after the player object is changed to the second display mode. Information processing program described in any of. 前記第2ゲーム空間で前記二次元制御を行っている場合に、前記第1ゲーム空間をロードする条件が満たされた場合、
前記ロード部は、前記第1ゲーム空間のデータのロードを行い、
前記態様変化部は、前記第1ゲーム空間で前記三次元制御を開始するよりも前に、前記第2ゲーム空間において、前記プレイヤオブジェクトを前記第3表示態様から、前記第1表示態様に変化させる、請求項1から10のいずれかに記載の情報処理プログラム。
When the condition for loading the first game space is satisfied when the two-dimensional control is performed in the second game space,
The loading unit loads the data in the first game space,
The mode changing unit changes the player object from the third display mode to the first display mode in the second game space before starting the three-dimensional control in the first game space. , The information processing program according to any one of claims 1 to 10.
表示部と、
メモリと、
前記表示部に表示された第1ゲーム空間に、プレイヤオブジェクトを第1表示態様で表示する第1オブジェクト表示部と、
前記第1表示態様で表示された前記プレイヤオブジェクトを、ユーザの操作に基づいて、前記第1ゲーム空間において三次元移動させる三次元制御を行う第1オブジェクト制御部と、
複数の第2ゲーム空間の各々に対応する選択肢の中から、一の前記第2ゲーム空間を選択ゲーム空間として、前記ユーザに選択させるための画像を生成する選択肢生成部と、
前記複数の第2ゲーム空間の各々に対して設定されたゲーム空間タイプを、選択された前記選択ゲーム空間に基づいて、判定するタイプ判定部と、
前記ゲーム空間タイプの判定後、前記第1ゲーム空間において、前記プレイヤオブジェクトを前記第1表示態様から、判定された前記ゲーム空間タイプに対応する第2表示態様に変化させる態様変化部と、
選択された前記選択ゲーム空間のデータを、前記メモリにロードするロード部と、
前記選択ゲーム空間のデータのロードの完了後に、前記表示部に表示された前記選択ゲーム空間に、前記プレイヤオブジェクトを前記第2表示態様に関連する第3表示態様で表示する第2オブジェクト表示部と、
前記第3表示態様で表示された前記プレイヤオブジェクトを、前記ユーザの操作に基づいて、前記選択ゲーム空間において二次元移動させる二次元制御を行う第2オブジェクト制御部と、
を備えている、情報処理装置。
Display and
With memory
A first object display unit that displays the player object in the first display mode in the first game space displayed on the display unit, and
A first object control unit that performs three-dimensional control for three-dimensionally moving the player object displayed in the first display mode in the first game space based on a user's operation.
An option generation unit that generates an image for the user to select one of the second game spaces as a selection game space from the options corresponding to each of the plurality of second game spaces.
A type determination unit that determines a game space type set for each of the plurality of second game spaces based on the selected selected game space.
After determining the game space type, in the first game space, a mode changing unit that changes the player object from the first display mode to a second display mode corresponding to the determined game space type.
A load unit that loads the selected data of the selected game space into the memory, and
After the loading of the data in the selected game space is completed, the second object display unit that displays the player object in the third display mode related to the second display mode in the selected game space displayed on the display unit. ,
A second object control unit that performs two-dimensional control for two-dimensionally moving the player object displayed in the third display mode in the selected game space based on the operation of the user.
An information processing device equipped with.
表示部を有する表示装置に接続される情報処理装置であって、
メモリと、
前記表示部に表示された第1ゲーム空間に、プレイヤオブジェクトを第1表示態様で表示する第1オブジェクト表示部と、
前記第1表示態様で表示された前記プレイヤオブジェクトを、ユーザの操作に基づいて、前記第1ゲーム空間において三次元移動させる三次元制御を行う第1オブジェクト制御部と、
複数の第2ゲーム空間の各々に対応する選択肢の中から、一の前記第2ゲーム空間を選択ゲーム空間として、前記ユーザに選択させるための画像を生成する選択肢生成部と、
前記複数の第2ゲーム空間の各々に対して設定されたゲーム空間タイプを、選択された前記選択ゲーム空間に基づいて、判定するタイプ判定部と、
前記ゲーム空間タイプの判定後、前記第1ゲーム空間において、前記プレイヤオブジェクトを前記第1表示態様から、判定された前記ゲーム空間タイプに対応する第2表示態様に変化させる態様変化部と、
選択された前記選択ゲーム空間のデータを、前記メモリにロードするロード部と、
前記選択ゲーム空間のデータのロードの完了後に、前記表示部に表示された前記選択ゲーム空間に、前記プレイヤオブジェクトを前記第2表示態様に関連する第3表示態様で表示する第2オブジェクト表示部と、
前記第3表示態様で表示された前記プレイヤオブジェクトを、前記ユーザの操作に基づいて、前記選択ゲーム空間において二次元移動させる二次元制御を行う第2オブジェクト制御部と、
を備えている、情報処理装置。
An information processing device connected to a display device having a display unit.
With memory
A first object display unit that displays the player object in the first display mode in the first game space displayed on the display unit, and
A first object control unit that performs three-dimensional control for three-dimensionally moving the player object displayed in the first display mode in the first game space based on a user's operation.
An option generation unit that generates an image for the user to select one of the second game spaces as a selection game space from the options corresponding to each of the plurality of second game spaces.
A type determination unit that determines a game space type set for each of the plurality of second game spaces based on the selected selected game space.
After determining the game space type, in the first game space, a mode changing unit that changes the player object from the first display mode to a second display mode corresponding to the determined game space type.
A load unit that loads the selected data of the selected game space into the memory, and
After the loading of the data in the selected game space is completed, the second object display unit that displays the player object in the third display mode related to the second display mode in the selected game space displayed on the display unit. ,
A second object control unit that performs two-dimensional control for two-dimensionally moving the player object displayed in the third display mode in the selected game space based on the operation of the user.
An information processing device equipped with.
情報処理装置のコンピュータにおいて実行する情報処理方法であって、
第1ゲーム空間にプレイヤオブジェクトを第1表示態様で表示するステップと、
前記第1表示態様で表示された前記プレイヤオブジェクトを、ユーザの操作に基づいて、前記第1ゲーム空間において三次元移動させる三次元制御を行うステップと、
複数の第2ゲーム空間の各々に対応する選択肢の中から、一の前記第2ゲーム空間を選択ゲーム空間として、前記ユーザに選択させるための画像を生成するステップと、
前記複数の第2ゲーム空間の各々に対して設定されたゲーム空間タイプを、選択された前記選択ゲーム空間に基づいて、判定するステップと、
前記ゲーム空間タイプの判定後、前記第1ゲーム空間において、前記プレイヤオブジェクトを前記第1表示態様から、判定された前記ゲーム空間タイプに対応する第2表示態様に変化させるステップと、
選択された前記選択ゲーム空間のデータを、前記情報処理装置のメモリにロードするステップと、
前記選択ゲーム空間のデータのロードの完了後に、前記選択ゲーム空間に前記プレイヤオブジェクトを前記第2表示態様に関連する第3表示態様で表示するステップと、
前記第3表示態様で表示された前記プレイヤオブジェクトを、前記ユーザの操作に基づいて、前記選択ゲーム空間において二次元移動させる二次元制御を行うステップと、
を備えている、情報処理方法。
It is an information processing method executed in the computer of the information processing device.
A step of displaying the player object in the first game space in the first display mode,
A step of performing three-dimensional control for moving the player object displayed in the first display mode three-dimensionally in the first game space based on a user's operation.
A step of generating an image for the user to select one of the second game spaces as a selection game space from the options corresponding to each of the plurality of second game spaces.
A step of determining a game space type set for each of the plurality of second game spaces based on the selected selected game space.
After determining the game space type, a step of changing the player object from the first display mode to a second display mode corresponding to the determined game space type in the first game space.
A step of loading the selected data of the selected game space into the memory of the information processing device, and
After the completion of loading the data in the selected game space, the step of displaying the player object in the selected game space in the third display mode related to the second display mode, and
A step of performing two-dimensional control for moving the player object displayed in the third display mode two-dimensionally in the selected game space based on the operation of the user.
Information processing method that has.
JP2020035866A 2019-05-08 2020-03-03 Information processing program Active JP7045408B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/867,830 US11117050B2 (en) 2019-05-08 2020-05-06 Information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019088472 2019-05-08
JP2019088472 2019-05-08

Publications (2)

Publication Number Publication Date
JP2020185373A true JP2020185373A (en) 2020-11-19
JP7045408B2 JP7045408B2 (en) 2022-03-31

Family

ID=73221695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020035866A Active JP7045408B2 (en) 2019-05-08 2020-03-03 Information processing program

Country Status (1)

Country Link
JP (1) JP7045408B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197343A (en) * 2000-12-25 2002-07-12 Line System Kk Download waiting system
JP2005185692A (en) * 2003-12-26 2005-07-14 Copcom Co Ltd Game machine
JP2007229204A (en) * 2006-03-01 2007-09-13 Square Enix Co Ltd Image generating method, image generator, and image generating program
JP2012003755A (en) * 2010-06-14 2012-01-05 Nintendo Co Ltd Image generation program, image generation device, image generation system, and image generation method
JP2017023564A (en) * 2015-07-24 2017-02-02 株式会社スクウェア・エニックス Game program and game system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197343A (en) * 2000-12-25 2002-07-12 Line System Kk Download waiting system
JP2005185692A (en) * 2003-12-26 2005-07-14 Copcom Co Ltd Game machine
JP2007229204A (en) * 2006-03-01 2007-09-13 Square Enix Co Ltd Image generating method, image generator, and image generating program
JP2012003755A (en) * 2010-06-14 2012-01-05 Nintendo Co Ltd Image generation program, image generation device, image generation system, and image generation method
JP2017023564A (en) * 2015-07-24 2017-02-02 株式会社スクウェア・エニックス Game program and game system

Also Published As

Publication number Publication date
JP7045408B2 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
JP6555831B2 (en) Information processing program, information processing system, information processing apparatus, and information processing method
US11439907B2 (en) Audio feedback that varies based on direction of input stroke
US9126114B2 (en) Storage medium, input terminal device, control system, and control method
JP6329210B2 (en) Information processing system, case, and cardboard member
US11298619B2 (en) Information processing program, information processing device, information processing system, and information processing method
US10758819B2 (en) Game system, non-transitory storage medium having stored therein game program, information processing apparatus, and game control method
US10967251B2 (en) Game system, game apparatus, storage medium and game control method
US10596459B2 (en) Systems, methods, and/or computer readable storage medium having program, for localized haptic feedback based on position of virtual object
US20170087455A1 (en) Filtering controller input mode
JP2021035458A (en) Information processing system, information processing program, information processing apparatus, and information processing method
US11045728B2 (en) Game system, non-transitory storage medium having stored therein game program, information processing apparatus, and game control method
JP7140465B2 (en) Game program, information processing device, information processing system, game processing method
JP7045408B2 (en) Information processing program
US11117050B2 (en) Information processing program
JP6688423B1 (en) Information processing system, information processing program, information processing apparatus, and information processing method
JP6937168B2 (en) Information processing programs, information processing devices, information processing systems, and information processing methods
JP2021037298A (en) Information processing system, information processing program, information processing apparatus, and information processing method
JP2021037264A (en) Information processing system, information processing program, information processing apparatus, and information processing method
JP2018118129A (en) Information processing system, case, and cardboard member
KR20130095523A (en) Force feedback device and operating method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220318

R150 Certificate of patent or registration of utility model

Ref document number: 7045408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150