JP5804781B2 - GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, AND INFORMATION PROCESSING PROGRAM - Google Patents

GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, AND INFORMATION PROCESSING PROGRAM Download PDF

Info

Publication number
JP5804781B2
JP5804781B2 JP2011125739A JP2011125739A JP5804781B2 JP 5804781 B2 JP5804781 B2 JP 5804781B2 JP 2011125739 A JP2011125739 A JP 2011125739A JP 2011125739 A JP2011125739 A JP 2011125739A JP 5804781 B2 JP5804781 B2 JP 5804781B2
Authority
JP
Japan
Prior art keywords
image
control
application
game
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011125739A
Other languages
Japanese (ja)
Other versions
JP2012253628A (en
Inventor
恒 野上
恒 野上
津田 宗孝
宗孝 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2011125739A priority Critical patent/JP5804781B2/en
Priority to US13/418,540 priority patent/US9180368B2/en
Priority to US13/418,520 priority patent/US8840478B2/en
Publication of JP2012253628A publication Critical patent/JP2012253628A/en
Priority to US14/840,735 priority patent/US9403094B2/en
Application granted granted Critical
Publication of JP5804781B2 publication Critical patent/JP5804781B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、テレビ等の表示装置を用いるゲームシステム、情報処理方法、ゲーム装置、および情報処理プログラムに関する。   The present invention relates to a game system, an information processing method, a game device, and an information processing program using a display device such as a television.

従来、テレビを表示装置として用いるゲームシステムがあり、また、このようなゲームシステムにおいて、ゲーム以外にも種々のアプリケーションを実行することが考えられている。例えば、特許文献1に記載のゲームシステムにおいては、ゲーム装置がゲームプログラムを実行する他に、テレビの番組表をテレビに表示するアプリケーションを実行することが記載されている(特許文献1の図10参照)。このように、ゲームシステムをゲーム用途以外にも様々な用途で利用することが考えられている。   Conventionally, there is a game system that uses a television as a display device, and in such a game system, it is considered to execute various applications in addition to the game. For example, in the game system described in Patent Document 1, it is described that, in addition to the game device executing the game program, an application for displaying a TV program guide on the TV is executed (FIG. 10 of Patent Document 1). reference). As described above, it is considered to use the game system for various purposes other than the game purpose.

特開2009−200553号公報JP 2009-200553 A

ここで、ゲームシステムにおいて表示装置としても用いられるテレビは、ゲームシステムによる画像(ゲーム画像や上記番組表の画像等)を表示する用途の他、ゲームシステム以外の用途(テレビ放送の映像を表示する用途)でも用いられる。また、上記のようにゲームシステムを様々な用途で利用する場合には、ゲームシステム自体を利用する機会が増えるので、ユーザがテレビを見ている際にゲームシステムを使用する(例えば、ゲームシステムを用いて上記の番組表を見る)ことも十分考えられる。しかし、従来では、ゲームシステムにおいてテレビを用いる状態と、ゲームシステム以外の用途でテレビを用いる状態とを切り替える際の操作性に課題があった。   Here, a television used also as a display device in a game system displays an image (game image, image of the above-mentioned program guide, etc.) by the game system, as well as a use other than the game system (displays a television broadcast video). Use). In addition, when the game system is used for various purposes as described above, since the opportunity to use the game system itself increases, the game system is used when the user is watching TV (for example, using the game system). It is also conceivable to use the above-mentioned program table). However, conventionally, there has been a problem in operability when switching between a state in which the television is used in the game system and a state in which the television is used for purposes other than the game system.

すなわち、上記特許文献1に記載のゲームシステムにおいては、アプリケーションの実行中においてはテレビに対する操作を行うことができない。したがって、テレビの番組表を表示するアプリケーションの実行中において、番組表にある所望の番組を見ようとする場合には、ユーザは、ゲームシステムの操作装置とは別にテレビのリモコンを手にとって入力の切り替え操作やチャンネルの変更操作を行わなければならない。このように、従来においては、アプリケーションの実行中において表示装置(テレビ等)に対する操作を行うことは、ユーザにとって煩雑で面倒であった。   That is, in the game system described in Patent Document 1, an operation on the television cannot be performed while the application is being executed. Therefore, when an application for displaying a TV program guide is being executed, when the user wants to watch a desired program in the program guide, the user switches the input by holding the TV remote control separately from the operation device of the game system. Operation and channel change operation must be performed. As described above, conventionally, it is complicated and troublesome for a user to perform an operation on a display device (such as a television) during execution of an application.

それ故、本発明の目的は、アプリケーションの実行中において、テレビ等の表示装置に対する操作を容易に行うことができるゲームシステム、情報処理方法、ゲーム装置、および情報処理プログラムを提供することである。   Therefore, an object of the present invention is to provide a game system, an information processing method, a game apparatus, and an information processing program capable of easily performing operations on a display device such as a television during execution of an application.

本発明は、上記の課題を解決するために、以下の(1)〜(12)の構成を採用した。   The present invention employs the following configurations (1) to (12) in order to solve the above problems.

(1)
本発明の一例は、ゲーム装置と操作装置とを含むゲームシステムである。
操作装置は、操作部と、受信部と、表示部とを備える。操作部は、操作装置に対する操作を表す操作データを出力する。受信部は、ゲーム装置から出力される画像を受信する。表示部は、受信された画像を表示する。
ゲーム装置は、取得部と、アプリケーション実行部とを備える。また、ゲームシステムは、操作画像生成部と、指示判定部と、装置制御部とを備える。取得部は、操作データを取得する。アプリケーション実行部は、アプリケーションを実行し、実行によって生成された画像を、操作装置と操作装置とは別体の所定の表示装置との少なくとも一方へ出力する。操作画像生成部は、アプリケーションの実行中において操作装置に対して所定の操作が行われたか否かを操作データに基づいて判定し、当該所定の操作が行われた場合、所定の操作画像を生成して操作装置の表示部へ出力する。指示判定部は、操作画像が表示部に表示される状態において、所定の表示装置に対する制御を行う制御指示があったか否かを操作データに基づいて判定する。装置制御部は、制御指示があった場合、当該制御指示に応じた制御を所定の表示装置に対して行う。
(1)
An example of the present invention is a game system including a game device and an operation device.
The operating device includes an operating unit, a receiving unit, and a display unit. The operation unit outputs operation data representing an operation on the operation device. The receiving unit receives an image output from the game device. The display unit displays the received image.
The game apparatus includes an acquisition unit, and an application execution unit. The game system also includes an operation image generation unit, an instruction determination unit, and a device control unit. The acquisition unit acquires operation data. The application execution unit executes the application and outputs an image generated by the execution to at least one of the operation device and a predetermined display device separate from the operation device. The operation image generation unit determines whether or not a predetermined operation has been performed on the controller device during execution of the application based on the operation data, and when the predetermined operation is performed , the predetermined operation image is displayed. Generate and output to the display unit of the controller device. The instruction determination unit determines, based on the operation data, whether or not there is a control instruction for performing control on a predetermined display device in a state where the operation image is displayed on the display unit. When there is a control instruction, the apparatus control unit performs control according to the control instruction on a predetermined display device.

上記(1)の構成によれば、アプリケーションの実行中において操作装置に対して所定の操作が行われた場合、操作画像が操作装置の画面に表示される。そして、操作画像が表示される状態において、所定の表示装置に対する制御指示があった場合、当該制御指示に応じた制御が所定の表示装置に対して行われる。したがって、上記(1)の構成によれば、ゲームシステムにおいてアプリケーションを用いている際に、アプリケーションの実行を終了しなくても、所定の表示装置に対する操作を行うことができる。また、ユーザは、上記所定の操作と制御指示とを1つの操作装置で行うことができるので、アプリケーションの実行中においても表示装置に対する操作を容易に行うことができる。例えば、ユーザは、アプリケーションの実行途中でテレビ番組を視聴したり、その後アプリケーションを再開したりする操作を、操作装置を用いて容易に行うことができる。   According to the configuration of (1) above, when a predetermined operation is performed on the operating device during execution of the application, an operation image is displayed on the screen of the operating device. In a state where the operation image is displayed, when there is a control instruction for a predetermined display device, control according to the control instruction is performed on the predetermined display device. Therefore, according to the configuration of (1) above, when an application is used in the game system, an operation on a predetermined display device can be performed without ending the execution of the application. In addition, since the user can perform the predetermined operation and the control instruction with one operating device, the user can easily operate the display device even while the application is being executed. For example, the user can easily perform an operation of watching a television program during the execution of the application or restarting the application thereafter using the operation device.

なお、ゲーム装置は、アプリケーション選択用画像を生成して操作装置へ出力する第1画像生成部を備えていてもよい。アプリケーション選択用画像は、ゲーム装置が実行可能なアプリケーションを表す画像を含む。このとき、アプリケーション実行部は、アプリケーション選択用画像が表示される状態において、実行すべきアプリケーションが選択された場合、選択されたアプリケーションを実行する。   Note that the game device may include a first image generation unit that generates an application selection image and outputs the image to the operation device. The application selection image includes an image representing an application executable by the game device. At this time, the application execution unit executes the selected application when an application to be executed is selected in a state where the application selection image is displayed.

(2)
指示判定部は、操作画像が表示部に表示される状態において、実行中のアプリケーションを終了する終了指示があったか否かを操作データに基づいて判定してもよい。このとき、アプリケーション実行部は、終了指示があった場合にアプリケーションの実行を終了する。
(2)
The instruction determination unit may determine, based on the operation data, whether or not there has been an end instruction to end the running application in a state where the operation image is displayed on the display unit. At this time, the application execution unit ends the execution of the application when there is an end instruction.

上記(2)の構成によれば、操作画像が表示される状態において、終了指示があった場合には、アプリケーションの実行が終了される。したがって、ユーザは、操作画像が表示される状態において、表示装置に対する操作を行うとともに、アプリケーションを終了させる操作を行うこともできる。   According to the configuration of (2) above, in the state where the operation image is displayed, if there is an end instruction, the execution of the application is ended. Therefore, the user can perform an operation for the display device and an operation for terminating the application in a state where the operation image is displayed.

(3)
アプリケーション実行部は、アプリケーションの実行中において操作装置に対して所定の操作が行われた場合、当該アプリケーションの実行を一時停止してもよい。このとき、指示判定部は、操作画像が表示部に表示される状態において、アプリケーションの実行を再開する再開指示があったか否かを操作データに基づいて判定する。アプリケーション実行部は、再開指示があった場合にアプリケーションの実行を再開する。
(3)
The application execution unit may temporarily stop the execution of the application when a predetermined operation is performed on the controller device during the execution of the application. At this time, the instruction determination unit determines, based on the operation data, whether or not there is a restart instruction for restarting the execution of the application in a state where the operation image is displayed on the display unit. The application execution unit resumes execution of the application when there is a resume instruction.

上記(3)の構成によれば、操作画像が表示される状態において、再開指示があった場合には、アプリケーションの実行が再開される。したがって、ユーザは、操作画像が表示される状態において表示装置に対する操作を行った後、アプリケーションを容易に再開することができる。これによれば、例えば、アプリケーションの利用中に少しテレビを視聴し、その後アプリケーションの利用を再開する場合における一連の操作を、操作装置を用いて容易に行うことができる。   According to the configuration of (3) above, in the state where the operation image is displayed, if there is a restart instruction, the execution of the application is restarted. Therefore, the user can easily restart the application after performing an operation on the display device in a state where the operation image is displayed. According to this, for example, a series of operations can be easily performed using the operation device in the case where the user watches the television for a while while using the application and then resumes using the application.

(4)
所定の表示装置は、テレビ放送を受信して番組を表示することが可能であってもよい。このとき、操作画像生成部は、操作画像が表示部に表示される場合、テレビの番組表を含む画像を生成して所定の表示装置へ出力する。
(4)
The predetermined display device may be capable of receiving a television broadcast and displaying a program. At this time, when the operation image is displayed on the display unit, the operation image generation unit generates an image including a television program guide and outputs the image to a predetermined display device.

上記(4)の構成によれば、操作画像が操作装置に表示される場合、テレビの番組表が所定の表示装置に表示される。これによれば、ユーザは、番組表を見ながらテレビ(所定の表示装置)に対する操作を行うことができ、テレビに対する選局操作等をより容易に行うことができる。   According to the configuration of (4) above, when the operation image is displayed on the operation device, the TV program guide is displayed on the predetermined display device. According to this, the user can perform an operation on the television (predetermined display device) while watching the program guide, and can more easily perform a channel selection operation on the television.

(5)
操作画像生成部は、操作画像として、制御指示を表す制御指示画像を含む操作画像を生成してもよい。このとき、指示判定部は、制御指示画像が選択された場合に制御指示があったと判定する。
(5)
The operation image generation unit may generate an operation image including a control instruction image representing a control instruction as the operation image. At this time, the instruction determination unit determines that there is a control instruction when a control instruction image is selected.

上記(5)の構成によれば、操作画像として、制御指示を表す制御指示画像が操作装置に表示される。これによれば、ユーザは、制御指示をより容易に行うことができる。   According to the configuration of (5) above, a control instruction image representing a control instruction is displayed on the operation device as the operation image. According to this, the user can give a control instruction more easily.

(6)
所定の表示装置は、テレビ放送を受信して番組を表示することが可能であってもよい。このとき、操作画像生成部は、操作画像として、テレビの番組表を含む画像を生成して操作装置へ出力する。
(6)
The predetermined display device may be capable of receiving a television broadcast and displaying a program. At this time, the operation image generation unit generates an image including a TV program guide as the operation image and outputs the image to the operation device.

上記(6)の構成によれば、操作画像としてテレビの番組表が操作装置に表示される。これによれば、ユーザは、番組表を見ながらテレビ(所定の表示装置)に対する操作を行うことができ、テレビに対する選局操作等をより容易に行うことができる。   According to the configuration of (6) above, a television program guide is displayed on the operation device as an operation image. According to this, the user can perform an operation on the television (predetermined display device) while watching the program guide, and can more easily perform a channel selection operation on the television.

(7)
所定の表示装置は、ゲーム装置から入力される画像を表示する第1モードと、テレビ放送の画像を表示する第2モードとを切り替え可能であってもよい。このとき、装置制御部は、操作装置に操作画像が表示されることに応じて、所定の表示装置のモードを第2モードへ切り替える制御を行う。
(7)
The predetermined display device may be switchable between a first mode for displaying an image input from the game device and a second mode for displaying an image of a television broadcast. At this time, the device control unit performs control to switch the mode of the predetermined display device to the second mode in response to the operation image being displayed on the operation device.

上記(7)の構成によれば、操作画像へと表示が切り替わる際に、ユーザは所定の表示装置に対する入力切替の操作を行う必要がないので、ユーザの操作をより簡易にすることができる。   According to the configuration of (7) above, when the display is switched to the operation image, the user does not need to perform an input switching operation on a predetermined display device, so that the user's operation can be simplified.

(8)
所定の表示装置は、ゲーム装置から入力される画像を表示する第1モードと、テレビ放送の画像を表示する第2モードとを切り替え可能であってもよい。装置制御部は、操作装置において表示される画像が操作画像からアプリケーションの実行によって生成される画像へと切り替えられることに応じて、所定の表示装置のモードを第1モードへ切り替える制御を行う。
(8)
The predetermined display device may be switchable between a first mode for displaying an image input from the game device and a second mode for displaying an image of a television broadcast. The device control unit performs control to switch the mode of the predetermined display device to the first mode in response to switching of an image displayed on the operation device from an operation image to an image generated by execution of an application.

上記(8)の構成によれば、操作画像からアプリケーションの画像へと表示が切り替わる際にユーザは所定の表示装置に対する入力切替の操作を行う必要がないので、ユーザの操作をより簡易にすることができる。   According to the configuration of (8) above, when the display is switched from the operation image to the application image, the user does not need to perform an input switching operation on a predetermined display device, and thus the user's operation is further simplified. Can do.

(9)
操作装置は、所定の表示装置を制御するための制御信号を出力する制御信号出力部をさらに備えていてもよい。このとき、装置制御部は、制御指示に応じた制御内容を示す制御信号を制御信号出力部に送信させる。
(9)
The operating device may further include a control signal output unit that outputs a control signal for controlling a predetermined display device. In this case, the apparatus control unit, Ru to send a control signal indicating the control contents corresponding to the control instruction to the control signal output unit.

上記(9)の構成によれば、ゲーム装置から操作装置を介して所定の表示装置を容易に制御することができる。   With configuration (9) above, it is possible to easily control a predetermined display device from the game device via the operation device.

(10)
制御信号出力部は、制御信号として赤外線信号を出力してもよい。このとき、所定の表示装置は、赤外線信号を受光可能な赤外線受光部を備える。
(10)
The control signal output unit may output an infrared signal as the control signal. At this time, the predetermined display device includes an infrared light receiving unit capable of receiving an infrared signal.

上記(10)の構成によれば、操作装置は赤外線信号によって所定の表示装置を制御することができる。なお、一般的なテレビ(後述する実施形態におけるテレビ2)は、赤外線信号を受光して赤外線信号によって指定される動作を行う機能を有している。そのため、上記(10)の構成によれば、所定の表示装置としてテレビを利用することができ、汎用性の高いゲームシステムを提供することができる。   According to the configuration of (10) above, the operating device can control a predetermined display device by an infrared signal. Note that a general television (the television 2 in the embodiment described later) has a function of receiving an infrared signal and performing an operation designated by the infrared signal. Therefore, according to the configuration of (10) above, a television can be used as the predetermined display device, and a highly versatile game system can be provided.

(11)
装置制御部は、制御指示に応じた制御内容を示す制御信号を所定の表示装置へ出力してもよい。
(11)
The device control unit may output a control signal indicating the control content according to the control instruction to a predetermined display device.

上記(11)の構成によれば、情報処理装置は、制御指令を送信することによって所定の表示装置を容易に制御することができる。上記(12)の構成によれば、例えばHDMI規格に則ったテレビを所定の表示装置として利用することができ、汎用性の高いゲームシステムを提供することができる。   According to the configuration of (11) above, the information processing apparatus can easily control a predetermined display device by transmitting a control command. With configuration (12) above, for example, a television that complies with the HDMI standard can be used as the predetermined display device, and a highly versatile game system can be provided.

(12)
操作装置は、表示部の画面上に設けられるタッチパネルをさらに備えていてもよい。このとき、操作画像生成部は、操作画像として、制御指示を表す制御指示画像を含む画像を生成する。指示判定部は、タッチパネルにおいて制御指示画像が選択された場合に制御指示があったと判定する。
(12)
The operating device may further include a touch panel provided on the screen of the display unit. At this time, the operation image generation unit generates an image including a control instruction image representing a control instruction as the operation image. The instruction determination unit determines that there is a control instruction when a control instruction image is selected on the touch panel.

上記(12)の構成によれば、ユーザはタッチパネルを用いて制御指示を行うことができる。これによれば、ユーザはタッチパネルを用いた容易かつ直感的な操作で指示を行うことができる。   With configuration (12) above, the user can issue a control instruction using the touch panel. According to this, the user can give an instruction by an easy and intuitive operation using the touch panel.

なお、本発明の別の一例は、上記(1)〜(12)のゲームシステムに含まれる上記ゲーム装置であってもよいし、上記ゲーム装置における各部(上記取得部および操作画像出力部が含まれなくてもよい)と同等の手段としてゲーム装置のコンピュータを機能させるゲームプログラム(情報処理プログラム)であってもよい。さらに、本発明の別の一例は、上記(1)〜(12)のゲームシステムまたはゲーム装置において行われる情報処理方法の形態であってもよい。   Note that another example of the present invention may be the game device included in the game system of the above (1) to (12), or each unit in the game device (including the acquisition unit and the operation image output unit). It may be a game program (information processing program) that causes the computer of the game device to function as an equivalent means. Furthermore, another example of the present invention may be in the form of an information processing method performed in the game system or game device of the above (1) to (12).

本発明によれば、アプリケーションの実行中において操作装置に対して所定の操作が行われたことに応じて操作画像が操作装置の画面に表示され、操作画像が表示される状態において、制御指示による所定の表示装置に対する制御を可能とする。これによって、ゲームシステムにおいてアプリケーションを用いている際に、アプリケーションの実行を終了しなくても、所定の表示装置に対する操作を行うことができる。   According to the present invention, an operation image is displayed on the screen of the operation device in response to a predetermined operation being performed on the operation device during execution of the application, and in a state where the operation image is displayed, a control instruction is issued. It is possible to control a predetermined display device. Thus, when an application is used in the game system, an operation on a predetermined display device can be performed without ending the execution of the application.

ゲームシステム1の外観図External view of game system 1 ゲーム装置3の内部構成を示すブロック図Block diagram showing the internal configuration of the game apparatus 3 コントローラ5の外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller 5 コントローラ5の外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller 5 コントローラ5の内部構造を示す図The figure which shows the internal structure of the controller 5 コントローラ5の内部構造を示す図The figure which shows the internal structure of the controller 5 コントローラ5の構成を示すブロック図Block diagram showing the configuration of the controller 5 端末装置7の外観構成を示す図The figure which shows the external appearance structure of the terminal device 7 端末装置7の外観構成を示す図The figure which shows the external appearance structure of the terminal device 7 ユーザが端末装置7を横向きで把持した様子を示す図The figure which shows a mode that the user hold | gripped the terminal device 7 sideways 端末装置7の内部構成を示すブロック図The block diagram which shows the internal structure of the terminal device 7 ゲームシステム1と外部装置との接続関係と示すブロック図Block diagram showing connection relation between game system 1 and external device ゲームシステム1における動作状態の遷移を表す状態遷移図State transition diagram showing transition of operation state in game system 1 ゲーム装置3のメインメモリにおける記憶領域を示す図The figure which shows the memory area in the main memory of the game device 3 ゲーム装置3で実行される開始処理の流れを示すフローチャートThe flowchart which shows the flow of the start process performed with the game device 3 ゲーム装置3で実行されるメニュー処理の流れを示すフローチャートThe flowchart which shows the flow of the menu process performed with the game device 3 端末装置7に表示されるアプリケーション選択画像の一例を示す図The figure which shows an example of the application selection image displayed on the terminal device 7 ゲーム装置3で実行されるテレビ処理の流れを示すフローチャートThe flowchart which shows the flow of the television processing performed with the game device 3 端末装置7に表示される装置制御画像の一例を示す図The figure which shows an example of the apparatus control image displayed on the terminal device 7 ゲーム装置3で実行されるブラウザ処理の流れを示すフローチャートThe flowchart which shows the flow of the browser process performed with the game device 3 端末装置7に表示されるブラウザ画像の一例を示す図The figure which shows an example of the browser image displayed on the terminal device 7 ゲーム装置3で実行されるアプリ中断処理の流れを示すフローチャートThe flowchart which shows the flow of the application interruption process performed with the game device 3 端末装置7に表示される設定画像の一例を示す図The figure which shows an example of the setting image displayed on the terminal device 7 端末装置7に表示されるリモコン画像の一例を示す図The figure which shows an example of the remote control image displayed on the terminal device 7

[1.ゲームシステムの全体構成]
以下、図面を参照して、本発明の一実施形態に係るゲームシステム1について説明する。図1は、ゲームシステム1の外観図である。図1において、ゲームシステム1は、テレビジョン受像器等に代表される据置型のディスプレイ装置(以下、「テレビ」と記載する)2、据置型のゲーム装置3、光ディスク4、コントローラ5、マーカ装置6、および、端末装置7を含む。ゲームシステム1は、コントローラ5および端末装置7を用いたゲーム操作に基づいてゲーム装置3においてゲーム処理を実行し、ゲーム処理によって得られるゲーム画像をテレビ2および/または端末装置7に表示するものである。
[1. Overall configuration of game system]
Hereinafter, a game system 1 according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an external view of the game system 1. In FIG. 1, a game system 1 includes a stationary display device (hereinafter referred to as “TV”) 2 typified by a television receiver, a stationary game device 3, an optical disc 4, a controller 5, and a marker device. 6 and the terminal device 7. The game system 1 executes game processing in the game device 3 based on a game operation using the controller 5 and the terminal device 7, and displays a game image obtained by the game processing on the television 2 and / or the terminal device 7. is there.

ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられる情報記憶媒体の一例である光ディスク4が脱着可能に挿入される。光ディスク4には、ゲーム装置3において実行されるための情報処理プログラム(典型的にはゲームプログラム)が記憶されている。ゲーム装置3の前面には光ディスク4の挿入口が設けられている。ゲーム装置3は、挿入口に挿入された光ディスク4に記憶されている情報処理プログラムを読み出して実行することによってゲーム処理を実行する。   An optical disk 4 that is an example of an information storage medium that can be used interchangeably with the game apparatus 3 is detachably inserted into the game apparatus 3. The optical disc 4 stores an information processing program (typically a game program) to be executed in the game apparatus 3. An insertion slot for the optical disk 4 is provided on the front surface of the game apparatus 3. The game apparatus 3 executes the game process by reading and executing the information processing program stored in the optical disc 4 inserted into the insertion slot.

ゲーム装置3には、テレビ2が接続コードを介して接続される。テレビ2は、ゲーム装置3において実行されるゲーム処理によって得られるゲーム画像を表示する。テレビ2はスピーカ2a(図2)を有しており、スピーカ2aは、上記ゲーム処理の結果得られるゲーム音声を出力する。なお、他の実施形態においては、ゲーム装置3と据置型の表示装置とは一体となっていてもよい。また、ゲーム装置3とテレビ2との通信は無線通信であってもよい。   The game apparatus 3 is connected to the television 2 via a connection cord. The television 2 displays a game image obtained by a game process executed in the game device 3. The television 2 has a speaker 2a (FIG. 2), and the speaker 2a outputs game sound obtained as a result of the game processing. In other embodiments, the game apparatus 3 and the stationary display apparatus may be integrated. The communication between the game apparatus 3 and the television 2 may be wireless communication.

テレビ2の画面の周辺(図1では画面の上側)には、マーカ装置6が設置される。詳細は後述するが、ユーザ(プレイヤ)はコントローラ5を動かすゲーム操作を行うことができ、マーカ装置6は、コントローラ5の動きや位置や姿勢等をゲーム装置3が算出するために用いられる。マーカ装置6は、その両端に2つのマーカ6Rおよび6Lを備えている。マーカ6R(マーカ6Lも同様)は、具体的には1以上の赤外LED(Light Emitting Diode)であり、テレビ2の前方に向かって赤外光を出力する。マーカ装置6は有線で(無線であってもよい)ゲーム装置3に接続されており、ゲーム装置3はマーカ装置6が備える各赤外LEDの点灯を制御することが可能である。なお、マーカ装置6は可搬型であり、ユーザはマーカ装置6を自由な位置に設置することができる。図1ではマーカ装置6がテレビ2の上に設置された態様を表しているが、マーカ装置6を設置する位置および向きは任意である。   A marker device 6 is installed around the screen of the television 2 (upper side of the screen in FIG. 1). Although details will be described later, the user (player) can perform a game operation to move the controller 5, and the marker device 6 is used for the game device 3 to calculate the movement, position, posture, and the like of the controller 5. The marker device 6 includes two markers 6R and 6L at both ends thereof. The marker 6 </ b> R (same for the marker 6 </ b> L) is specifically one or more infrared LEDs (Light Emitting Diodes), and outputs infrared light toward the front of the television 2. The marker device 6 is connected to the game device 3 by wire (may be wireless), and the game device 3 can control lighting of each infrared LED provided in the marker device 6. The marker device 6 is portable, and the user can install the marker device 6 at a free position. Although FIG. 1 shows a mode in which the marker device 6 is installed on the television 2, the position and orientation in which the marker device 6 is installed are arbitrary.

コントローラ5は、自機に対して行われた操作の内容を表す操作データをゲーム装置3に与えるものである。コントローラ5とゲーム装置3とは無線通信によって通信可能である。本実施形態では、コントローラ5とゲーム装置3との間の無線通信には例えばBluetooth(ブルートゥース)(登録商標)の技術が用いられる。なお、他の実施形態においてはコントローラ5とゲーム装置3とは有線で接続されてもよい。また、図1では、ゲームシステム1に含まれるコントローラ5は1つとするが、ゲームシステム1は複数のコントローラ5を含んでいてもよい。つまり、ゲーム装置3は複数のコントローラと通信可能であり、所定台数のコントローラを同時に使用することによって複数人でゲームをプレイすることが可能である。コントローラ5の詳細な構成については後述する。   The controller 5 gives operation data representing the content of the operation performed on the own device to the game apparatus 3. The controller 5 and the game apparatus 3 can communicate with each other by wireless communication. In the present embodiment, for example, Bluetooth (registered trademark) technology is used for wireless communication between the controller 5 and the game apparatus 3. In other embodiments, the controller 5 and the game apparatus 3 may be connected by wire. In FIG. 1, the game system 1 includes one controller 5, but the game system 1 may include a plurality of controllers 5. That is, the game apparatus 3 can communicate with a plurality of controllers, and a plurality of people can play a game by using a predetermined number of controllers simultaneously. A detailed configuration of the controller 5 will be described later.

端末装置7は、可搬型であり、ユーザが把持可能な程度の大きさである。ユーザは端末装置7を手に持って動かしたり、あるいは、端末装置7を自由な位置に配置したりして使用することが可能である。詳細な構成は後述するが、端末装置7は、表示手段であるLCD(Liquid Crystal Display:液晶表示装置)51、および、入力手段(後述するタッチパネル52やジャイロセンサ74等)を備える。端末装置7とゲーム装置3とは無線(有線であってもよい)によって通信可能である。端末装置7は、ゲーム装置3で生成された画像(例えばゲーム画像)のデータをゲーム装置3から受信し、画像をLCD51に表示する。なお、本実施形態では表示装置としてLCDを用いているが、端末装置7は、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を有していてもよい。また、端末装置7は、自機に対して行われた操作の内容を表す操作データをゲーム装置3に送信する。   The terminal device 7 is portable and has a size that can be held by a user. The user can use the terminal device 7 by holding it in his hand or by placing the terminal device 7 in a free position. Although the detailed configuration will be described later, the terminal device 7 includes an LCD (Liquid Crystal Display: liquid crystal display) 51 which is a display means, and input means (a touch panel 52, a gyro sensor 74 and the like which will be described later). The terminal device 7 and the game device 3 can communicate wirelessly (may be wired). The terminal device 7 receives data of an image (for example, a game image) generated by the game device 3 from the game device 3 and displays the image on the LCD 51. In the present embodiment, an LCD is used as the display device. However, the terminal device 7 may have any other display device such as a display device using EL (Electro Luminescence). . In addition, the terminal device 7 transmits operation data representing the content of the operation performed on the own device to the game device 3.

[2.ゲーム装置3の内部構成]
次に、図2を参照して、ゲーム装置3の内部構成について説明する。図2は、ゲーム装置3の内部構成を示すブロック図である。ゲーム装置3は、CPU(Central Processing Unit)10、システムLSI11、外部メインメモリ12、ROM/RTC13、ディスクドライブ14、およびAV−IC15等を有する。
[2. Internal configuration of game device 3]
Next, the internal configuration of the game apparatus 3 will be described with reference to FIG. FIG. 2 is a block diagram showing an internal configuration of the game apparatus 3. The game apparatus 3 includes a CPU (Central Processing Unit) 10, a system LSI 11, an external main memory 12, a ROM / RTC 13, a disk drive 14, an AV-IC 15, and the like.

CPU10は、光ディスク4に記憶されたゲームプログラムを実行することによってゲーム処理を実行するものであり、ゲームプロセッサとして機能する。CPU10は、システムLSI11に接続される。システムLSI11には、CPU10の他、外部メインメモリ12、ROM/RTC13、ディスクドライブ14およびAV−IC15が接続される。システムLSI11は、それに接続される各構成要素間におけるデータ転送の制御、表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。なお、システムLSI11の内部構成については後述する。揮発性の外部メインメモリ12は、光ディスク4から読み出されたゲームプログラムや、フラッシュメモリ17から読み出されたゲームプログラム等のプログラムを記憶したり、各種データを記憶したりするものであり、CPU10のワーク領域やバッファ領域として用いられる。ROM/RTC13は、ゲーム装置3の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC:Real Time Clock)とを有する。ディスクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出し、後述する内部メインメモリ11eまたは外部メインメモリ12に読み出したデータを書き込む。   The CPU 10 executes a game process by executing a game program stored on the optical disc 4, and functions as a game processor. The CPU 10 is connected to the system LSI 11. In addition to the CPU 10, an external main memory 12, a ROM / RTC 13, a disk drive 14, and an AV-IC 15 are connected to the system LSI 11. The system LSI 11 performs processing such as control of data transfer between components connected thereto, generation of an image to be displayed, and acquisition of data from an external device. The internal configuration of the system LSI 11 will be described later. The volatile external main memory 12 stores a program such as a game program read from the optical disc 4 or a game program read from the flash memory 17, or stores various data. Used as a work area and buffer area. The ROM / RTC 13 includes a ROM (so-called boot ROM) in which a program for starting the game apparatus 3 is incorporated, and a clock circuit (RTC: Real Time Clock) that counts time. The disk drive 14 reads program data, texture data, and the like from the optical disk 4 and writes the read data to an internal main memory 11e or an external main memory 12 described later.

システムLSI11には、入出力プロセッサ(I/Oプロセッサ)11a、GPU(Graphics Processor Unit)11b、DSP(Digital Signal Processor)11c、VRAM(Video RAM)11d、および内部メインメモリ11eが設けられる。図示は省略するが、これらの構成要素11a〜11eは内部バスによって互いに接続される。   The system LSI 11 is provided with an input / output processor (I / O processor) 11a, a GPU (Graphics Processor Unit) 11b, a DSP (Digital Signal Processor) 11c, a VRAM (Video RAM) 11d, and an internal main memory 11e. Although not shown, these components 11a to 11e are connected to each other by an internal bus.

GPU11bは、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(作画命令)に従って画像を生成する。VRAM11dは、GPU11bがグラフィクスコマンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)を記憶する。画像が生成される際には、GPU11bは、VRAM11dに記憶されたデータを用いて画像データを作成する。なお、本実施形態においては、ゲーム装置3は、テレビ2に表示する画像(ゲーム画像)と、端末装置7に表示する画像(ゲーム画像)との両方を生成する。以下では、テレビ2に表示される画像を「テレビ用画像」と呼び、端末装置7に表示される画像を「端末用画像」と呼ぶことがある。   The GPU 11b forms part of a drawing unit and generates an image according to a graphics command (drawing command) from the CPU 10. The VRAM 11d stores data (data such as polygon data and texture data) necessary for the GPU 11b to execute the graphics command. When an image is generated, the GPU 11b creates image data using data stored in the VRAM 11d. In the present embodiment, the game device 3 generates both an image (game image) displayed on the television 2 and an image (game image) displayed on the terminal device 7. Hereinafter, an image displayed on the television 2 may be referred to as a “television image”, and an image displayed on the terminal device 7 may be referred to as a “terminal image”.

DSP11cは、オーディオプロセッサとして機能し、内部メインメモリ11eや外部メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。なお、本実施形態においては、音声(ゲーム音声)についてもゲーム画像と同様、テレビ2のスピーカから出力する音声と、端末装置7のスピーカから出力する音声との両方が生成される。以下では、テレビ2から出力される音声を「テレビ用音声」と呼び、端末装置7から出力される音声を「端末用音声」と呼ぶことがある。   The DSP 11c functions as an audio processor, and generates sound data using sound data and sound waveform (tone color) data stored in the internal main memory 11e and the external main memory 12. In the present embodiment, as for the sound (game sound), both the sound output from the speaker of the television 2 and the sound output from the speaker of the terminal device 7 are generated as in the case of the game image. Hereinafter, the audio output from the television 2 may be referred to as “television audio”, and the audio output from the terminal device 7 may be referred to as “terminal audio”.

上記のようにゲーム装置3において生成される画像および音声のうちで、テレビ2において出力される画像および音声のデータは、AV−IC15によって読み出される。AV−IC15は、読み出した画像データをAVコネクタ16を介してテレビ2へ出力するとともに、読み出した音声データを、テレビ2に内蔵されるスピーカ2aへ出力する。これによって、テレビ2に画像が表示されるとともにスピーカ2aから音が出力される。なお、ゲーム装置3とテレビ2との接続は、どのような方式で行われてもよいが、ゲーム装置3は、テレビ2を制御する制御指令を有線または無線でテレビ2へ送信するようにしてもよい。例えばHDMI(High−Definition Multimedia Interface)規格に則ったHDMIケーブルが用いられてもよい。HDMI規格では、CEC(Consumer Electronics Control)と呼ばれる機能によって、接続相手の機器を制御することが可能である。したがって、HDMIケーブルが用いられる場合のように、ゲーム装置3がテレビ2に対する制御が可能である場合には、ゲーム装置3は、適宜のタイミングでテレビ2の電源をオンにしたり、テレビ2の入力を切り替えたりすることができる。   Of the images and sounds generated by the game apparatus 3 as described above, image and sound data output by the television 2 is read by the AV-IC 15. The AV-IC 15 outputs the read image data to the television 2 via the AV connector 16, and outputs the read audio data to the speaker 2 a built in the television 2. Thus, an image is displayed on the television 2 and a sound is output from the speaker 2a. The game apparatus 3 and the television 2 may be connected by any method, but the game apparatus 3 transmits a control command for controlling the television 2 to the television 2 by wire or wirelessly. Also good. For example, an HDMI cable conforming to the HDMI (High-Definition Multimedia Interface) standard may be used. In the HDMI standard, it is possible to control a connected device by a function called CEC (Consumer Electronics Control). Accordingly, when the game apparatus 3 can control the television 2 as in the case where an HDMI cable is used, the game apparatus 3 turns on the television 2 at an appropriate timing or inputs the television 2. Can be switched.

また、ゲーム装置3において生成される画像および音声のうちで、端末装置7において出力される画像および音声のデータは、入出力プロセッサ11a等によって端末装置7へ送信される。入出力プロセッサ11a等による端末装置7へのデータの送信については後述する。   Of the images and sounds generated by the game apparatus 3, the image and sound data output from the terminal apparatus 7 is transmitted to the terminal apparatus 7 by the input / output processor 11a and the like. Data transmission to the terminal device 7 by the input / output processor 11a and the like will be described later.

入出力プロセッサ11aは、それに接続される構成要素との間でデータの送受信を実行したり、外部装置からのデータのダウンロードを実行したりする。入出力プロセッサ11aは、フラッシュメモリ17、ネットワーク通信モジュール18、コントローラ通信モジュール19、拡張コネクタ20、メモリカード用コネクタ21、コーデックLSI27に接続される。また、ネットワーク通信モジュール18にはアンテナ22が接続される。コントローラ通信モジュール19にはアンテナ23が接続される。コーデックLSI27は端末通信モジュール28に接続され、端末通信モジュール28にはアンテナ29が接続される。   The input / output processor 11a performs transmission / reception of data to / from components connected to the input / output processor 11a and downloads data from an external device. The input / output processor 11a is connected to the flash memory 17, the network communication module 18, the controller communication module 19, the expansion connector 20, the memory card connector 21, and the codec LSI 27. An antenna 22 is connected to the network communication module 18. An antenna 23 is connected to the controller communication module 19. The codec LSI 27 is connected to a terminal communication module 28, and an antenna 29 is connected to the terminal communication module 28.

ゲーム装置3は、インターネット等のネットワークに接続して外部の情報処理装置(例えば他のゲーム装置や、各種サーバ等)と通信を行うことが可能である。すなわち、入出力プロセッサ11aは、ネットワーク通信モジュール18およびアンテナ22を介してインターネット等のネットワークに接続可能であり、ネットワークに接続される他の情報処理装置と通信を行うことができる。入出力プロセッサ11aは、定期的にフラッシュメモリ17にアクセスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データが有る場合には、ネットワーク通信モジュール18およびアンテナ22を介してネットワークに送信する。また、入出力プロセッサ11aは、外部情報処理装置から送信されてくるデータやダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22およびネットワーク通信モジュール18を介して受信し、受信したデータをフラッシュメモリ17に記憶する。CPU10はゲームプログラムを実行することにより、フラッシュメモリ17に記憶されたデータを読み出してゲームプログラムで利用する。フラッシュメモリ17には、ゲーム装置3と外部情報処理装置との間で送受信されるデータの他、ゲーム装置3を利用してプレイしたゲームのセーブデータ(ゲームの結果データまたは途中データ)が記憶されてもよい。また、フラッシュメモリ17にはゲームプログラムが記憶されてもよい。   The game device 3 can connect to a network such as the Internet and communicate with an external information processing device (for example, another game device or various servers). In other words, the input / output processor 11a can be connected to a network such as the Internet via the network communication module 18 and the antenna 22, and can communicate with other information processing apparatuses connected to the network. The input / output processor 11a periodically accesses the flash memory 17 to detect the presence / absence of data that needs to be transmitted to the network. If there is such data, the input / output processor 11a communicates with the network via the network communication module 18 and the antenna 22. Send. Further, the input / output processor 11a receives data transmitted from the external information processing apparatus or data downloaded from the download server via the network, the antenna 22 and the network communication module 18, and receives the received data in the flash memory 17. Remember. By executing the game program, the CPU 10 reads out the data stored in the flash memory 17 and uses it in the game program. In addition to data transmitted and received between the game apparatus 3 and the external information processing apparatus, the flash memory 17 stores game save data (game result data or intermediate data) played using the game apparatus 3. May be. The flash memory 17 may store a game program.

また、ゲーム装置3は、コントローラ5からの操作データを受信することが可能である。すなわち、入出力プロセッサ11aは、コントローラ5から送信される操作データをアンテナ23およびコントローラ通信モジュール19を介して受信し、内部メインメモリ11eまたは外部メインメモリ12のバッファ領域に記憶(一時記憶)する。   The game apparatus 3 can receive operation data from the controller 5. That is, the input / output processor 11a receives the operation data transmitted from the controller 5 via the antenna 23 and the controller communication module 19, and stores (temporarily stores) it in the buffer area of the internal main memory 11e or the external main memory 12.

また、ゲーム装置3は、端末装置7との間で画像や音声等のデータを送受信することが可能である。入出力プロセッサ11aは、端末装置7へゲーム画像(端末用ゲーム画像)を送信する場合、GPU11bが生成したゲーム画像のデータをコーデックLSI27へ出力する。コーデックLSI27は、入出力プロセッサ11aからの画像データに対して所定の圧縮処理を行う。端末通信モジュール28は、端末装置7との間で無線通信を行う。したがって、コーデックLSI27によって圧縮された画像データは、端末通信モジュール28によってアンテナ29を介して端末装置7へ送信される。なお、本実施形態では、ゲーム装置3から端末装置7へ送信される画像データはゲームに用いるものであり、ゲームにおいては表示される画像に遅延が生じるとゲームの操作性に悪影響が出る。そのため、ゲーム装置3から端末装置7への画像データの送信に関しては、できるだけ遅延が生じないようにすることが好ましい。したがって、本実施形態では、コーデックLSI27は、例えばH.264規格といった高効率の圧縮技術を用いて画像データを圧縮する。なお、それ以外の圧縮技術を用いてもよいし、通信速度が十分である場合には無圧縮で画像データを送信する構成であってもよい。また、端末通信モジュール28は、例えばWi−Fiの認証を受けた通信モジュールであり、例えばIEEE802.11n規格で採用されるMIMO(Multiple Input Multiple Output)の技術を用いて端末装置7との間の無線通信を高速に行うようにしてもよいし、他の通信方式を用いてもよい。   Further, the game apparatus 3 can transmit and receive data such as images and sounds to and from the terminal device 7. When transmitting a game image (terminal game image) to the terminal device 7, the input / output processor 11 a outputs the game image data generated by the GPU 11 b to the codec LSI 27. The codec LSI 27 performs predetermined compression processing on the image data from the input / output processor 11a. The terminal communication module 28 performs wireless communication with the terminal device 7. Therefore, the image data compressed by the codec LSI 27 is transmitted to the terminal device 7 via the antenna 29 by the terminal communication module 28. In the present embodiment, the image data transmitted from the game apparatus 3 to the terminal apparatus 7 is used for the game, and if the displayed image is delayed in the game, the operability of the game is adversely affected. For this reason, it is preferable that the transmission of image data from the game apparatus 3 to the terminal device 7 is as little as possible. Therefore, in this embodiment, the codec LSI 27 is, for example, H.264. The image data is compressed using a highly efficient compression technique such as H.264 standard. Other compression techniques may be used, and when the communication speed is sufficient, the image data may be transmitted without compression. The terminal communication module 28 is a communication module that has received, for example, Wi-Fi authentication. For example, the terminal communication module 28 uses a MIMO (Multiple Input Multiple Output) technique adopted in the IEEE802.11n standard. Wireless communication may be performed at high speed, or another communication method may be used.

また、ゲーム装置3は、画像データの他、音声データを端末装置7へ送信する。すなわち、入出力プロセッサ11aは、DSP11cが生成した音声データを、コーデックLSI27を介して端末通信モジュール28へ出力する。コーデックLSI27は、音声データに対しても画像データと同様に圧縮処理を行う。音声データに対する圧縮の方式は、どのような方式であってもよいが、圧縮率が高く、音声の劣化が少ない方式が好ましい。また、他の実施形態においては、音声データは圧縮されずに送信されてもよい。端末通信モジュール28は、圧縮された画像データおよび音声データを、アンテナ29を介して端末装置7へ送信する。   In addition to the image data, the game apparatus 3 transmits audio data to the terminal device 7. That is, the input / output processor 11 a outputs the audio data generated by the DSP 11 c to the terminal communication module 28 via the codec LSI 27. The codec LSI 27 performs compression processing on the audio data in the same manner as the image data. The compression method for the audio data may be any method, but a method with a high compression rate and less deterioration of the sound is preferable. In other embodiments, audio data may be transmitted without being compressed. The terminal communication module 28 transmits the compressed image data and audio data to the terminal device 7 via the antenna 29.

さらに、ゲーム装置3は、上記画像データおよび音声データの他に、必要に応じて各種の制御データを端末装置7へ送信する。制御データは、端末装置7が備える構成要素に対する制御指示を表すデータであり、例えばマーカ部(図11に示すマーカ部55)の点灯を制御する指示や、カメラ(図11に示すカメラ56)の撮像を制御する指示等を表す。入出力プロセッサ11aは、CPU10の指示に応じて制御データを端末装置7へ送信する。なお、この制御データに関して、本実施形態ではコーデックLSI27はデータの圧縮処理を行わないが、他の実施形態においては圧縮処理を行うようにしてもよい。なお、ゲーム装置3から端末装置7へ送信される上述のデータは、必要に応じて暗号化がされていてもよいし、されていなくともよい。   Further, the game apparatus 3 transmits various control data to the terminal apparatus 7 as necessary in addition to the image data and the sound data. The control data is data representing a control instruction for a component included in the terminal device 7, and for example, an instruction to control lighting of the marker unit (marker unit 55 shown in FIG. 11) or a camera (camera 56 shown in FIG. 11). Indicates an instruction to control imaging. The input / output processor 11 a transmits control data to the terminal device 7 in accordance with an instruction from the CPU 10. With respect to this control data, the codec LSI 27 does not perform data compression processing in the present embodiment, but may perform compression processing in other embodiments. Note that the above-described data transmitted from the game device 3 to the terminal device 7 may or may not be encrypted as necessary.

また、ゲーム装置3は、端末装置7から各種データを受信可能である。詳細は後述するが、本実施形態では、端末装置7は、操作データ、画像データ、および音声データを送信する。端末装置7から送信される各データはアンテナ29を介して端末通信モジュール28によって受信される。ここで、端末装置7からの画像データおよび音声データは、ゲーム装置3から端末装置7への画像データおよび音声データと同様の圧縮処理が施されている。したがって、これら画像データおよび音声データについては、端末通信モジュール28からコーデックLSI27に送られ、コーデックLSI27によって伸張処理が施されて入出力プロセッサ11aへ出力される。一方、端末装置7からの操作データに関しては、画像や音声に比べてデータ量が少ないので、圧縮処理が施されていなくともよい。また、必要に応じて暗号化がされていてもよいし、されていなくともよい。したがって、操作データは、端末通信モジュール28で受信された後、コーデックLSI27を介して入出力プロセッサ11aへ出力される。入出力プロセッサ11aは、端末装置7から受信したデータを、内部メインメモリ11eまたは外部メインメモリ12のバッファ領域に記憶(一時記憶)する。   The game apparatus 3 can receive various data from the terminal device 7. Although details will be described later, in the present embodiment, the terminal device 7 transmits operation data, image data, and audio data. Each data transmitted from the terminal device 7 is received by the terminal communication module 28 via the antenna 29. Here, the image data and audio data from the terminal device 7 are subjected to the same compression processing as the image data and audio data from the game device 3 to the terminal device 7. Therefore, these image data and audio data are sent from the terminal communication module 28 to the codec LSI 27, subjected to expansion processing by the codec LSI 27, and output to the input / output processor 11a. On the other hand, the operation data from the terminal device 7 has a smaller amount of data than images and sounds, and therefore may not be subjected to compression processing. Further, encryption may or may not be performed as necessary. Accordingly, the operation data is received by the terminal communication module 28 and then output to the input / output processor 11 a via the codec LSI 27. The input / output processor 11a stores (temporarily stores) the data received from the terminal device 7 in the buffer area of the internal main memory 11e or the external main memory 12.

また、ゲーム装置3は、他の機器や外部記憶媒体に接続することが可能である。すなわち、入出力プロセッサ11aには、拡張コネクタ20およびメモリカード用コネクタ21が接続される。拡張コネクタ20は、USBやSCSIのようなインターフェースのためのコネクタである。拡張コネクタ20に対しては、外部記憶媒体のようなメディアを接続したり、他のコントローラ等の周辺機器を接続したり、有線の通信用コネクタを接続することによってネットワーク通信モジュール18に替えてネットワークとの通信を行ったりすることができる。メモリカード用コネクタ21は、メモリカードのような外部記憶媒体を接続するためのコネクタである。例えば、入出力プロセッサ11aは、拡張コネクタ20やメモリカード用コネクタ21を介して外部記憶媒体にアクセスし、外部記憶媒体にデータを保存したり、外部記憶媒体からデータを読み出したりすることができる。   Further, the game apparatus 3 can be connected to another device or an external storage medium. That is, the expansion connector 20 and the memory card connector 21 are connected to the input / output processor 11a. The expansion connector 20 is a connector for an interface such as USB or SCSI. A network such as an external storage medium is connected to the expansion connector 20, a peripheral device such as another controller is connected, or a wired communication connector is connected to replace the network communication module 18 with a network. You can communicate with. The memory card connector 21 is a connector for connecting an external storage medium such as a memory card. For example, the input / output processor 11a can access an external storage medium via the expansion connector 20 or the memory card connector 21 to store data in the external storage medium or read data from the external storage medium.

ゲーム装置3には、電源ボタン24、リセットボタン25、およびイジェクトボタン26が設けられる。電源ボタン24およびリセットボタン25は、システムLSI11に接続される。電源ボタン24がオンされると、図示しないACアダプタによって外部の電源からゲーム装置3の各構成要素に対して電力が供給される。リセットボタン25が押されると、システムLSI11は、ゲーム装置3の起動プログラムを再起動する。イジェクトボタン26は、ディスクドライブ14に接続される。イジェクトボタン26が押されると、ディスクドライブ14から光ディスク4が排出される。   The game apparatus 3 is provided with a power button 24, a reset button 25, and an eject button 26. The power button 24 and the reset button 25 are connected to the system LSI 11. When the power button 24 is turned on, power is supplied to each component of the game apparatus 3 from an external power source by an AC adapter (not shown). When the reset button 25 is pressed, the system LSI 11 restarts the boot program for the game apparatus 3. The eject button 26 is connected to the disk drive 14. When the eject button 26 is pressed, the optical disk 4 is ejected from the disk drive 14.

なお、他の実施形態においては、ゲーム装置3が備える各構成要素のうちでいくつかの構成要素は、ゲーム装置3とは別体の拡張機器として構成されてもよい。このとき、拡張機器は、例えば上記拡張コネクタ20を介してゲーム装置3と接続されるようにしてもよい。具体的には、拡張機器は、例えば上記コーデックLSI27、端末通信モジュール28およびアンテナ29の各構成要素を備えており、拡張コネクタ20に対して着脱可能であってもよい。これによれば、上記各構成要素を備えていないゲーム装置に対して上記拡張機器を接続することによって、当該ゲーム装置を端末装置7と通信可能な構成とすることができる。   In other embodiments, some of the components included in the game apparatus 3 may be configured as expansion devices that are separate from the game apparatus 3. At this time, the expansion device may be connected to the game apparatus 3 via the expansion connector 20, for example. Specifically, the extension device includes, for example, each component of the codec LSI 27, the terminal communication module 28, and the antenna 29, and may be detachable from the extension connector 20. According to this, the said game device can be set as the structure which can communicate with the terminal device 7 by connecting the said expansion apparatus with respect to the game device which is not provided with said each component.

[3.コントローラ5の構成]
次に、図3〜図7を参照して、コントローラ5について説明する。図3は、コントローラ5の外観構成を示す斜視図である。図4は、コントローラ5の外観構成を示す斜視図である。図3は、コントローラ5の上側後方から見た斜視図であり、図4は、コントローラ5を下側前方から見た斜視図である。
[3. Configuration of controller 5]
Next, the controller 5 will be described with reference to FIGS. FIG. 3 is a perspective view showing an external configuration of the controller 5. FIG. 4 is a perspective view showing an external configuration of the controller 5. 3 is a perspective view of the controller 5 as seen from the upper rear side, and FIG. 4 is a perspective view of the controller 5 as seen from the lower front side.

図3および図4において、コントローラ5は、例えばプラスチック成型によって形成されたハウジング31を有している。ハウジング31は、その前後方向(図3に示すZ軸方向)を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。ユーザは、コントローラ5に設けられたボタンを押下すること、および、コントローラ5自体を動かしてその位置や姿勢(傾き)を変えることによってゲーム操作を行うことができる。   3 and 4, the controller 5 includes a housing 31 formed by plastic molding, for example. The housing 31 has a substantially rectangular parallelepiped shape whose longitudinal direction is the front-rear direction (the Z-axis direction shown in FIG. 3), and is a size that can be gripped with one hand of an adult or a child as a whole. The user can perform a game operation by pressing a button provided on the controller 5 and moving the controller 5 itself to change its position and posture (tilt).

ハウジング31には、複数の操作ボタンが設けられる。図3に示すように、ハウジング31の上面には、十字ボタン32a、1番ボタン32b、2番ボタン32c、Aボタン32d、マイナスボタン32e、ホームボタン32f、プラスボタン32g、および電源ボタン32hが設けられる。本明細書では、これらのボタン32a〜32hが設けられるハウジング31の上面を「ボタン面」と呼ぶことがある。一方、図4に示すように、ハウジング31の下面には凹部が形成されており、当該凹部の後面側傾斜面にはBボタン32iが設けられる。これらの各操作ボタン32a〜32iには、ゲーム装置3が実行する情報処理プログラムに応じた機能が適宜割り当てられる。また、電源ボタン32hは遠隔からゲーム装置3本体の電源をオン/オフするためのものである。ホームボタン32fおよび電源ボタン32hは、その上面がハウジング31の上面に埋没している。これによって、ユーザがホームボタン32fまたは電源ボタン32hを誤って押下することを防止することができる。   The housing 31 is provided with a plurality of operation buttons. As shown in FIG. 3, a cross button 32a, a first button 32b, a second button 32c, an A button 32d, a minus button 32e, a home button 32f, a plus button 32g, and a power button 32h are provided on the upper surface of the housing 31. It is done. In the present specification, the upper surface of the housing 31 on which these buttons 32a to 32h are provided may be referred to as a “button surface”. On the other hand, as shown in FIG. 4, a recess is formed on the lower surface of the housing 31, and a B button 32i is provided on the rear inclined surface of the recess. A function corresponding to the information processing program executed by the game apparatus 3 is appropriately assigned to each of the operation buttons 32a to 32i. The power button 32h is for remotely turning on / off the main body of the game apparatus 3. The home button 32 f and the power button 32 h are embedded in the upper surface of the housing 31. Thereby, it is possible to prevent the user from pressing the home button 32f or the power button 32h by mistake.

ハウジング31の後面にはコネクタ33が設けられている。コネクタ33は、コントローラ5に他の機器(例えば、他のセンサユニットやコントローラ)を接続するために利用される。また、ハウジング31の後面におけるコネクタ33の両側には、上記他の機器が容易に離脱することを防止するために係止穴33aが設けられている。   A connector 33 is provided on the rear surface of the housing 31. The connector 33 is used to connect another device (for example, another sensor unit or controller) to the controller 5. Further, locking holes 33a are provided on both sides of the connector 33 on the rear surface of the housing 31 in order to prevent the other devices from being easily detached.

ハウジング31上面の後方には複数(図3では4つ)のLED34a〜34dが設けられる。ここで、コントローラ5には、他のコントローラと区別するためにコントローラ種別(番号)が付与される。各LED34a〜34dは、コントローラ5に現在設定されている上記コントローラ種別をユーザに通知したり、コントローラ5の電池残量をユーザに通知したりする等の目的で用いられる。具体的には、コントローラ5を用いてゲーム操作が行われる際、上記コントローラ種別に応じて複数のLED34a〜34dのいずれか1つが点灯する。   A plurality (four in FIG. 3) of LEDs 34 a to 34 d are provided behind the upper surface of the housing 31. Here, the controller type (number) is assigned to the controller 5 to distinguish it from other controllers. The LEDs 34a to 34d are used for the purpose of notifying the user of the controller type currently set in the controller 5 and notifying the user of the remaining battery level of the controller 5. Specifically, when a game operation is performed using the controller 5, any one of the plurality of LEDs 34a to 34d is turned on according to the controller type.

また、コントローラ5は撮像情報演算部35(図6)を有しており、図4に示すように、ハウジング31前面には撮像情報演算部35の光入射面35aが設けられる。光入射面35aは、マーカ6Rおよび6Lからの赤外光を少なくとも透過する材質で構成される。   Further, the controller 5 has an imaging information calculation unit 35 (FIG. 6), and a light incident surface 35a of the imaging information calculation unit 35 is provided on the front surface of the housing 31, as shown in FIG. The light incident surface 35a is made of a material that transmits at least infrared light from the markers 6R and 6L.

ハウジング31上面における1番ボタン32bとホームボタン32fとの間には、コントローラ5に内蔵されるスピーカ47(図5)からの音を外部に放出するための音抜き孔31aが形成されている。   A sound release hole 31a is formed between the first button 32b and the home button 32f on the upper surface of the housing 31 for emitting sound from the speaker 47 (FIG. 5) built in the controller 5 to the outside.

次に、図5および図6を参照して、コントローラ5の内部構造について説明する。図5および図6は、コントローラ5の内部構造を示す図である。なお、図5は、コントローラ5の上筐体(ハウジング31の一部)を外した状態を示す斜視図である。図6は、コントローラ5の下筐体(ハウジング31の一部)を外した状態を示す斜視図である。図6に示す斜視図は、図5に示す基板30を裏面から見た斜視図となっている。   Next, the internal structure of the controller 5 will be described with reference to FIGS. 5 and 6 are diagrams showing the internal structure of the controller 5. FIG. FIG. 5 is a perspective view showing a state in which the upper housing (a part of the housing 31) of the controller 5 is removed. FIG. 6 is a perspective view showing a state in which the lower casing (a part of the housing 31) of the controller 5 is removed. The perspective view shown in FIG. 6 is a perspective view of the substrate 30 shown in FIG.

図5において、ハウジング31の内部には基板30が固設されており、当該基板30の上主面上に各操作ボタン32a〜32h、各LED34a〜34d、加速度センサ37、アンテナ45、およびスピーカ47等が設けられる。これらは、基板30等に形成された配線(図示せず)によってマイクロコンピュータ(Micro Computer:マイコン)42(図6参照)に接続される。本実施形態では、加速度センサ37は、X軸方向に関してコントローラ5の中心からずれた位置に配置されている。これによって、コントローラ5をZ軸回りに回転させたときのコントローラ5の動きが算出しやすくなる。また、加速度センサ37は、長手方向(Z軸方向)に関してコントローラ5の中心よりも前方に配置されている。また、無線モジュール44(図6)およびアンテナ45によって、コントローラ5がワイヤレスコントローラとして機能する。   In FIG. 5, a substrate 30 is fixed inside the housing 31, and operation buttons 32 a to 32 h, LEDs 34 a to 34 d, an acceleration sensor 37, an antenna 45, and a speaker 47 are provided on the upper main surface of the substrate 30. Etc. are provided. These are connected to a microcomputer (microcomputer) 42 (see FIG. 6) by wiring (not shown) formed on the substrate 30 and the like. In the present embodiment, the acceleration sensor 37 is disposed at a position shifted from the center of the controller 5 with respect to the X-axis direction. This makes it easier to calculate the movement of the controller 5 when the controller 5 is rotated about the Z axis. The acceleration sensor 37 is disposed in front of the center of the controller 5 in the longitudinal direction (Z-axis direction). Further, the controller 5 functions as a wireless controller by the wireless module 44 (FIG. 6) and the antenna 45.

一方、図6において、基板30の下主面上の前端縁に撮像情報演算部35が設けられる。撮像情報演算部35は、コントローラ5の前方から順に赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を備えている。これらの部材38〜41はそれぞれ基板30の下主面に取り付けられる。   On the other hand, in FIG. 6, an imaging information calculation unit 35 is provided at the front edge on the lower main surface of the substrate 30. The imaging information calculation unit 35 includes an infrared filter 38, a lens 39, an imaging element 40, and an image processing circuit 41 in order from the front of the controller 5. These members 38 to 41 are respectively attached to the lower main surface of the substrate 30.

さらに、基板30の下主面上には、上記マイコン42およびバイブレータ46が設けられている。バイブレータ46は、例えば振動モータやソレノイドであり、基板30等に形成された配線によってマイコン42と接続される。マイコン42の指示によりバイブレータ46が作動することによってコントローラ5に振動が発生する。これによって、コントローラ5を把持しているユーザの手にその振動が伝達される、いわゆる振動対応ゲームを実現することができる。本実施形態では、バイブレータ46は、ハウジング31のやや前方寄りに配置される。つまり、バイブレータ46がコントローラ5の中心よりも端側に配置することによって、バイブレータ46の振動によりコントローラ5全体を大きく振動させることができる。また、コネクタ33は、基板30の下主面上の後端縁に取り付けられる。なお、図5および図6に示す他、コントローラ5は、マイコン42の基本クロックを生成する水晶振動子、スピーカ47に音声信号を出力するアンプ等を備えている。   Further, the microcomputer 42 and the vibrator 46 are provided on the lower main surface of the substrate 30. The vibrator 46 is, for example, a vibration motor or a solenoid, and is connected to the microcomputer 42 by wiring formed on the substrate 30 or the like. When the vibrator 46 is actuated by an instruction from the microcomputer 42, vibration is generated in the controller 5. As a result, a so-called vibration-compatible game in which the vibration is transmitted to the user's hand holding the controller 5 can be realized. In the present embodiment, the vibrator 46 is disposed slightly forward of the housing 31. That is, by arranging the vibrator 46 on the end side of the center of the controller 5, the entire controller 5 can be vibrated greatly by the vibration of the vibrator 46. The connector 33 is attached to the rear edge on the lower main surface of the substrate 30. 5 and 6, the controller 5 includes a crystal resonator that generates a basic clock of the microcomputer 42, an amplifier that outputs an audio signal to the speaker 47, and the like.

なお、図3〜図6に示したコントローラ5の形状や、各操作ボタンの形状、加速度センサやバイブレータの数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。また、本実施形態では、撮像手段による撮像方向はZ軸正方向であるが、撮像方向はいずれの方向であってもよい。すなわち、コントローラ5における撮像情報演算部35の位置(撮像情報演算部35の光入射面35a)は、ハウジング31の前面でなくてもよく、ハウジング31の外部から光を取り入れることができれば他の面に設けられてもかまわない。   The shape of the controller 5, the shape of each operation button, the number of acceleration sensors and vibrators, and the installation positions shown in FIGS. 3 to 6 are merely examples, and other shapes, numbers, and installation positions may be used. May be. In the present embodiment, the imaging direction by the imaging unit is the positive Z-axis direction, but the imaging direction may be any direction. That is, the position of the imaging information calculation unit 35 in the controller 5 (the light incident surface 35a of the imaging information calculation unit 35) does not have to be the front surface of the housing 31, and other surfaces can be used as long as light can be taken in from the outside of the housing 31. May be provided.

図7は、コントローラ5の構成を示すブロック図である。コントローラ5は、操作部32(各操作ボタン32a〜32i)、撮像情報演算部35、通信部36、加速度センサ37、およびジャイロセンサ48を備えている。コントローラ5は、自機に対して行われた操作内容を表すデータを操作データとしてゲーム装置3へ送信するものである。なお、以下では、コントローラ5が送信する操作データを「コントローラ操作データ」と呼び、端末装置7が送信する操作データを「端末操作データ」と呼ぶことがある。   FIG. 7 is a block diagram showing the configuration of the controller 5. The controller 5 includes an operation unit 32 (operation buttons 32a to 32i), an imaging information calculation unit 35, a communication unit 36, an acceleration sensor 37, and a gyro sensor 48. The controller 5 transmits data representing the content of the operation performed on the own device to the game apparatus 3 as operation data. Hereinafter, the operation data transmitted from the controller 5 may be referred to as “controller operation data”, and the operation data transmitted from the terminal device 7 may be referred to as “terminal operation data”.

操作部32は、上述した各操作ボタン32a〜32iを含み、各操作ボタン32a〜32iに対する入力状態(各操作ボタン32a〜32iが押下されたか否か)を表す操作ボタンデータを通信部36のマイコン42へ出力する。   The operation unit 32 includes the operation buttons 32a to 32i described above, and the operation button data indicating the input state (whether or not each operation button 32a to 32i is pressed) to each operation button 32a to 32i is transmitted to the microcomputer of the communication unit 36. Output to 42.

撮像情報演算部35は、撮像手段が撮像した画像データを解析してその中で輝度が高い領域を判別してその領域の重心位置やサイズなどを算出するためのシステムである。撮像情報演算部35は、例えば最大200フレーム/秒程度のサンプリング周期を有するので、比較的高速なコントローラ5の動きでも追跡して解析することができる。   The imaging information calculation unit 35 is a system for analyzing the image data captured by the imaging unit, discriminating a region having a high luminance in the image data, and calculating a center of gravity position, a size, and the like of the region. Since the imaging information calculation unit 35 has a sampling period of, for example, about 200 frames / second at the maximum, it can track and analyze even a relatively fast movement of the controller 5.

撮像情報演算部35は、赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を含んでいる。赤外線フィルタ38は、コントローラ5の前方から入射する光から赤外線のみを通過させる。レンズ39は、赤外線フィルタ38を透過した赤外線を集光して撮像素子40へ入射させる。撮像素子40は、例えばCMOSセンサやあるいはCCDセンサのような固体撮像素子であり、レンズ39が集光した赤外線を受光して画像信号を出力する。ここで、撮像対象となる端末装置7のマーカ部55およびマーカ装置6は、赤外光を出力するマーカで構成される。したがって、赤外線フィルタ38を設けることによって、撮像素子40は、赤外線フィルタ38を通過した赤外線だけを受光して画像データを生成するので、撮像対象(マーカ部55および/またはマーカ装置6)の画像をより正確に撮像することができる。以下では、撮像素子40によって撮像された画像を撮像画像と呼ぶ。撮像素子40によって生成された画像データは、画像処理回路41で処理される。画像処理回路41は、撮像画像内における撮像対象の位置を算出する。画像処理回路41は、算出された位置を示す座標を通信部36のマイコン42へ出力する。この座標のデータは、マイコン42によって操作データとしてゲーム装置3に送信される。以下では、上記座標を「マーカ座標」と呼ぶ。マーカ座標はコントローラ5自体の向き(傾斜角度)や位置に対応して変化するので、ゲーム装置3はこのマーカ座標を用いてコントローラ5の向きや位置を算出することができる。   The imaging information calculation unit 35 includes an infrared filter 38, a lens 39, an imaging element 40, and an image processing circuit 41. The infrared filter 38 passes only infrared rays from the light incident from the front of the controller 5. The lens 39 collects the infrared light transmitted through the infrared filter 38 and makes it incident on the image sensor 40. The image sensor 40 is a solid-state image sensor such as a CMOS sensor or a CCD sensor, for example, and receives the infrared light collected by the lens 39 and outputs an image signal. Here, the marker unit 55 and the marker device 6 of the terminal device 7 to be imaged are configured by a marker that outputs infrared light. Therefore, by providing the infrared filter 38, the image sensor 40 receives only the infrared light that has passed through the infrared filter 38 and generates image data. Therefore, the image of the imaging target (the marker unit 55 and / or the marker device 6) is captured. More accurate imaging can be performed. Hereinafter, an image captured by the image sensor 40 is referred to as a captured image. Image data generated by the image sensor 40 is processed by the image processing circuit 41. The image processing circuit 41 calculates the position of the imaging target in the captured image. The image processing circuit 41 outputs coordinates indicating the calculated position to the microcomputer 42 of the communication unit 36. The coordinate data is transmitted to the game apparatus 3 as operation data by the microcomputer 42. Hereinafter, the coordinates are referred to as “marker coordinates”. Since the marker coordinates change corresponding to the direction (tilt angle) and position of the controller 5 itself, the game apparatus 3 can calculate the direction and position of the controller 5 using the marker coordinates.

なお、他の実施形態においては、コントローラ5は画像処理回路41を備えていない構成であってもよく、撮像画像自体がコントローラ5からゲーム装置3へ送信されてもよい。このとき、ゲーム装置3は、画像処理回路41と同様の機能を有する回路あるいはプログラムを有しており、上記マーカ座標を算出するようにしてもよい。   In other embodiments, the controller 5 may not include the image processing circuit 41, and the captured image itself may be transmitted from the controller 5 to the game apparatus 3. At this time, the game apparatus 3 may have a circuit or a program having the same function as the image processing circuit 41, and may calculate the marker coordinates.

加速度センサ37は、コントローラ5の加速度(重力加速度を含む)を検出する、すなわち、コントローラ5に加わる力(重力を含む)を検出する。加速度センサ37は、当該加速度センサ37の検出部に加わっている加速度のうち、センシング軸方向に沿った直線方向の加速度(直線加速度)の値を検出する。例えば、2軸以上の多軸加速度センサの場合には、加速度センサの検出部に加わっている加速度として、各軸に沿った成分の加速度をそれぞれ検出する。なお、加速度センサ37は、例えば静電容量式のMEMS(Micro Electro Mechanical System)型加速度センサであるとするが、他の方式の加速度センサを用いるようにしてもよい。   The acceleration sensor 37 detects the acceleration (including gravity acceleration) of the controller 5, that is, detects the force (including gravity) applied to the controller 5. The acceleration sensor 37 detects the value of the acceleration (linear acceleration) in the linear direction along the sensing axis direction among the accelerations applied to the detection unit of the acceleration sensor 37. For example, in the case of a multi-axis acceleration sensor having two or more axes, the component acceleration along each axis is detected as the acceleration applied to the detection unit of the acceleration sensor. The acceleration sensor 37 is, for example, a capacitive MEMS (Micro Electro Mechanical System) type acceleration sensor, but other types of acceleration sensors may be used.

本実施形態では、加速度センサ37は、コントローラ5を基準とした上下方向(図3に示すY軸方向)、左右方向(図3に示すX軸方向)および前後方向(図3に示すZ軸方向)の3軸方向に関してそれぞれ直線加速度を検出する。加速度センサ37は、各軸に沿った直線方向に関する加速度を検出するものであるため、加速度センサ37からの出力は3軸それぞれの直線加速度の値を表すものとなる。すなわち、検出された加速度は、コントローラ5を基準に設定されるXYZ座標系(コントローラ座標系)における3次元のベクトルとして表される。   In the present embodiment, the acceleration sensor 37 has a vertical direction (Y-axis direction shown in FIG. 3), a horizontal direction (X-axis direction shown in FIG. 3), and a front-back direction (Z-axis direction shown in FIG. 3) with reference to the controller 5. ) Linear acceleration is detected in each of the three axis directions. Since the acceleration sensor 37 detects acceleration in the linear direction along each axis, the output from the acceleration sensor 37 represents the linear acceleration value of each of the three axes. That is, the detected acceleration is represented as a three-dimensional vector in an XYZ coordinate system (controller coordinate system) set with the controller 5 as a reference.

加速度センサ37が検出した加速度を表すデータ(加速度データ)は、通信部36へ出力される。なお、加速度センサ37が検出した加速度は、コントローラ5自体の向き(傾斜角度)や移動に対応して変化するので、ゲーム装置3は取得された加速度データを用いてコントローラ5の向きや移動を算出することができる。本実施形態では、ゲーム装置3は、取得された加速度データに基づいてコントローラ5の姿勢や傾斜角度等を算出する。   Data representing the acceleration detected by the acceleration sensor 37 (acceleration data) is output to the communication unit 36. Note that the acceleration detected by the acceleration sensor 37 changes corresponding to the direction (inclination angle) and movement of the controller 5 itself, so the game apparatus 3 calculates the direction and movement of the controller 5 using the acquired acceleration data. can do. In the present embodiment, the game apparatus 3 calculates the attitude, tilt angle, and the like of the controller 5 based on the acquired acceleration data.

なお、加速度センサ37(後述する加速度センサ73についても同様)から出力される加速度の信号に基づいて、ゲーム装置3のプロセッサ(例えばCPU10)またはコントローラ5のプロセッサ(例えばマイコン42)等のコンピュータが処理を行うことによって、コントローラ5に関するさらなる情報を推測または算出(判定)することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。例えば、加速度センサ37を搭載するコントローラ5が静止状態であることを前提としてコンピュータ側の処理が実行される場合(すなわち、加速度センサによって検出される加速度が重力加速度のみであるとして処理が実行される場合)、コントローラ5が現実に静止状態であれば、検出された加速度に基づいてコントローラ5の姿勢が重力方向に対して傾いているか否かまたはどの程度傾いているかを知ることができる。具体的には、加速度センサ37の検出軸が鉛直下方向を向いている状態を基準としたとき、1G(重力加速度)がかかっているか否かによって、コントローラ5が基準に対して傾いているか否かを知ることができるし、その大きさによって基準に対してどの程度傾いているかも知ることができる。また、多軸の加速度センサ37の場合には、さらに各軸の加速度の信号に対して処理を施すことによって、重力方向に対してコントローラ5がどの程度傾いているかをより詳細に知ることができる。この場合において、プロセッサは、加速度センサ37からの出力に基づいてコントローラ5の傾斜角度を算出してもよいし、当該傾斜角度を算出せずに、コントローラ5の傾斜方向を算出するようにしてもよい。このように、加速度センサ37をプロセッサと組み合わせて用いることによって、コントローラ5の傾斜角度または姿勢を判定することができる。   A computer such as a processor of the game apparatus 3 (for example, the CPU 10) or a processor of the controller 5 (for example, the microcomputer 42) is processed based on an acceleration signal output from the acceleration sensor 37 (the same applies to an acceleration sensor 73 described later). It can be easily understood by those skilled in the art from the description of the present specification that by performing the above, it is possible to estimate or calculate (determine) further information regarding the controller 5. For example, when processing on the computer side is executed on the assumption that the controller 5 on which the acceleration sensor 37 is mounted is stationary (that is, the processing is executed assuming that the acceleration detected by the acceleration sensor is only gravitational acceleration). When the controller 5 is actually stationary, it can be determined whether or not the attitude of the controller 5 is inclined with respect to the direction of gravity based on the detected acceleration. Specifically, whether or not the controller 5 is inclined with respect to the reference depending on whether or not 1G (gravity acceleration) is applied, based on the state in which the detection axis of the acceleration sensor 37 is directed vertically downward. It is possible to know how much it is inclined with respect to the reference according to its size. Further, in the case of the multi-axis acceleration sensor 37, it is possible to know in detail how much the controller 5 is inclined with respect to the direction of gravity by further processing the acceleration signal of each axis. . In this case, the processor may calculate the tilt angle of the controller 5 based on the output from the acceleration sensor 37, or may calculate the tilt direction of the controller 5 without calculating the tilt angle. Good. Thus, by using the acceleration sensor 37 in combination with the processor, the tilt angle or posture of the controller 5 can be determined.

一方、コントローラ5が動的な状態(コントローラ5が動かされている状態)であることを前提とする場合には、加速度センサ37は重力加速度に加えてコントローラ5の移動に応じた加速度を検出するので、検出された加速度から重力加速度の成分を所定の処理により除去することによってコントローラ5の移動方向を知ることができる。また、コントローラ5が動的な状態であることを前提とする場合であっても、検出された加速度から、加速度センサの移動に応じた加速度の成分を所定の処理により除去することによって、重力方向に対するコントローラ5の傾きを知ることが可能である。なお、他の実施例では、加速度センサ37は、内蔵の加速度検出手段で検出された加速度信号をマイコン42へ出力する前に当該加速度信号に対して所定の処理を行うための、組込み式の処理装置または他の種類の専用の処理装置を備えていてもよい。組込み式または専用の処理装置は、例えば、加速度センサ37が静的な加速度(例えば、重力加速度)を検出するために用いられる場合、加速度信号を傾斜角(あるいは、他の好ましいパラメータ)に変換するものであってもよい。   On the other hand, when it is assumed that the controller 5 is in a dynamic state (a state where the controller 5 is moved), the acceleration sensor 37 detects an acceleration corresponding to the movement of the controller 5 in addition to the gravitational acceleration. Therefore, the moving direction of the controller 5 can be known by removing the gravitational acceleration component from the detected acceleration by a predetermined process. Even if it is assumed that the controller 5 is in a dynamic state, the direction of gravity is obtained by removing the acceleration component corresponding to the movement of the acceleration sensor from the detected acceleration by a predetermined process. It is possible to know the inclination of the controller 5 with respect to. In another embodiment, the acceleration sensor 37 is a built-in process for performing a predetermined process on the acceleration signal before outputting the acceleration signal detected by the built-in acceleration detection means to the microcomputer 42. An apparatus or other type of dedicated processing apparatus may be provided. A built-in or dedicated processing device converts the acceleration signal into a tilt angle (or other preferred parameter) if, for example, the acceleration sensor 37 is used to detect static acceleration (eg, gravitational acceleration). It may be a thing.

ジャイロセンサ48は、3軸(本実施形態では、XYZ軸)回りの角速度を検出する。本明細書では、コントローラ5の撮像方向(Z軸正方向)を基準として、X軸回りの回転方向をピッチ方向、Y軸回りの回転方向をヨー方向、Z軸回りの回転方向をロール方向と呼ぶ。ジャイロセンサ48は、3軸回りの角速度を検出することができればよく、用いるジャイロセンサの数および組み合わせはどのようなものであってもよい。例えば、ジャイロセンサ48は、3軸ジャイロセンサであってもよいし、2軸ジャイロセンサと1軸ジャイロセンサとを組み合わせて3軸周りの角速度を検出するものであってもよい。ジャイロセンサ48で検出された角速度を表すデータは、通信部36へ出力される。また、ジャイロセンサ48は1軸または2軸回りの角速度を検出するものであってもよい。   The gyro sensor 48 detects angular velocities about three axes (XYZ axes in the present embodiment). In this specification, with the imaging direction (Z-axis positive direction) of the controller 5 as a reference, the rotation direction around the X axis is the pitch direction, the rotation direction around the Y axis is the yaw direction, and the rotation direction around the Z axis is the roll direction. Call. The gyro sensor 48 only needs to be able to detect angular velocities about three axes, and any number and combination of gyro sensors may be used. For example, the gyro sensor 48 may be a three-axis gyro sensor or a combination of a two-axis gyro sensor and a one-axis gyro sensor to detect an angular velocity around three axes. Data representing the angular velocity detected by the gyro sensor 48 is output to the communication unit 36. Further, the gyro sensor 48 may detect an angular velocity around one axis or two axes.

通信部36は、マイコン42、メモリ43、無線モジュール44、およびアンテナ45を含んでいる。マイコン42は、処理を行う際にメモリ43を記憶領域として用いながら、マイコン42が取得したデータをゲーム装置3へ無線送信する無線モジュール44を制御する。   The communication unit 36 includes a microcomputer 42, a memory 43, a wireless module 44, and an antenna 45. The microcomputer 42 controls the wireless module 44 that wirelessly transmits data acquired by the microcomputer 42 to the game apparatus 3 while using the memory 43 as a storage area when performing processing.

操作部32、撮像情報演算部35、加速度センサ37、およびジャイロセンサ48からマイコン42へ出力されたデータは、一時的にメモリ43に格納される。これらのデータは、操作データ(コントローラ操作データ)としてゲーム装置3へ送信される。すなわち、マイコン42は、ゲーム装置3のコントローラ通信モジュール19への送信タイミングが到来すると、メモリ43に格納されている操作データを無線モジュール44へ出力する。無線モジュール44は、例えばBluetooth(ブルートゥース)(登録商標)の技術を用いて、所定周波数の搬送波を操作データで変調し、その微弱電波信号をアンテナ45から放射する。つまり、操作データは、無線モジュール44で微弱電波信号に変調されてコントローラ5から送信される。微弱電波信号はゲーム装置3側のコントローラ通信モジュール19で受信される。受信された微弱電波信号について復調や復号を行うことによって、ゲーム装置3は操作データを取得することができる。そして、ゲーム装置3のCPU10は、コントローラ5から取得した操作データを用いてゲーム処理を行う。なお、通信部36からコントローラ通信モジュール19への無線送信は所定の周期毎に逐次行われるが、ゲームの処理は1/60秒を単位として(1フレーム時間として)行われることが一般的であるので、この時間以下の周期で送信を行うことが好ましい。コントローラ5の通信部36は、例えば1/200秒に1回の割合で操作データをゲーム装置3のコントローラ通信モジュール19へ出力する。   Data output from the operation unit 32, the imaging information calculation unit 35, the acceleration sensor 37, and the gyro sensor 48 to the microcomputer 42 is temporarily stored in the memory 43. These data are transmitted to the game apparatus 3 as operation data (controller operation data). That is, the microcomputer 42 outputs the operation data stored in the memory 43 to the wireless module 44 when the transmission timing to the controller communication module 19 of the game apparatus 3 arrives. The wireless module 44 modulates a carrier wave of a predetermined frequency with operation data using, for example, Bluetooth (registered trademark) technology, and radiates a weak radio signal from the antenna 45. That is, the operation data is modulated by the wireless module 44 into a weak radio signal and transmitted from the controller 5. The weak radio signal is received by the controller communication module 19 on the game apparatus 3 side. By demodulating and decoding the received weak radio signal, the game apparatus 3 can acquire operation data. Then, the CPU 10 of the game apparatus 3 performs a game process using the operation data acquired from the controller 5. Note that wireless transmission from the communication unit 36 to the controller communication module 19 is sequentially performed at predetermined intervals, but game processing is generally performed in units of 1/60 seconds (one frame time). Therefore, it is preferable to perform transmission at a period equal to or shorter than this time. The communication unit 36 of the controller 5 outputs the operation data to the controller communication module 19 of the game apparatus 3 at a rate of once every 1/200 seconds, for example.

以上のように、コントローラ5は、自機に対する操作を表す操作データとして、マーカ座標データ、加速度データ、角速度データ、および操作ボタンデータを送信可能である。また、ゲーム装置3は、上記操作データをゲーム入力として用いてゲーム処理を実行する。したがって、上記コントローラ5を用いることによって、ユーザは、各操作ボタンを押下する従来の一般的なゲーム操作に加えて、コントローラ5自体を動かすゲーム操作を行うことができる。例えば、コントローラ5を任意の姿勢に傾ける操作、コントローラ5によって画面上の任意の位置を指示する操作、および、コントローラ5自体を動かす操作等を行うことが可能となる。   As described above, the controller 5 can transmit the marker coordinate data, the acceleration data, the angular velocity data, and the operation button data as the operation data representing the operation on the own device. Further, the game apparatus 3 executes a game process using the operation data as a game input. Therefore, by using the controller 5, the user can perform a game operation for moving the controller 5 itself in addition to the conventional general game operation for pressing each operation button. For example, an operation of tilting the controller 5 to an arbitrary posture, an operation of instructing an arbitrary position on the screen by the controller 5, an operation of moving the controller 5 itself, and the like can be performed.

また、本実施形態において、コントローラ5は、ゲーム画像を表示する表示手段を有しないが、例えば電池残量を表す画像等を表示するための表示手段を有していてもよい。   In the present embodiment, the controller 5 does not have a display unit that displays a game image, but may include a display unit that displays, for example, an image representing the remaining battery level.

[4.端末装置7の構成]
次に、図8〜図11を参照して、端末装置7の構成について説明する。図8は、端末装置7の外観構成を示す平面図である。図8における(a)図は端末装置7の正面図であり、(b)図は上面図であり、(c)図は右側面図であり、(d)図は下面図である。図9は、端末装置7の背面図である。また、図10は、ユーザが端末装置7を横向きで把持した様子を示す図である。
[4. Configuration of Terminal Device 7]
Next, the configuration of the terminal device 7 will be described with reference to FIGS. FIG. 8 is a plan view showing an external configuration of the terminal device 7. 8A is a front view of the terminal device 7, FIG. 8B is a top view, FIG. 8C is a right side view, and FIG. 8D is a bottom view. FIG. 9 is a rear view of the terminal device 7. FIG. 10 is a diagram illustrating a state in which the user holds the terminal device 7 sideways.

図8に示されるように、端末装置7は、大略的には横長の長方形の板状形状であるハウジング50を備える。すなわち、端末装置7は、タブレット型の情報処理装置であるということもできる。なお、ハウジング50は全体として板状形状であれば、曲面を有していてもよいし、一部に突起等を有していてもよい。ハウジング50は、ユーザが把持することができる程度の大きさである。したがって、ユーザは、端末装置7を持って動かしたり、端末装置7の配置位置を変更したりすることができる。端末装置7の縦(z軸方向)の長さは、100〜150[mm]が好ましく、本実施形態では、133.5[mm]である。端末装置7の横(x軸方向)の長さは、200〜250[mm]が好ましく、本実施形態では、228.26[mm]である。端末装置7の厚さ(y軸方向の長さ)は、板状の部分で15〜30[mm]程度、最厚部まで含めて30〜50[mm]程度が好ましく、本実施形態では、23.6(最厚部は40.26)[mm]である。また、端末装置7の重量は、400〜600[g]程度であって、本実施形態においては、530[g]である。詳細は後述するが、端末装置7は、上記のような比較的大型の端末装置(操作装置)であっても、ユーザが持ちやすく操作しやすい構成となっている。   As shown in FIG. 8, the terminal device 7 includes a housing 50 that is generally a horizontally-long rectangular plate shape. That is, it can be said that the terminal device 7 is a tablet-type information processing device. The housing 50 may have a curved surface as long as it has a plate shape as a whole, or may have a protrusion or the like in part. The housing 50 is large enough to be gripped by the user. Therefore, the user can move the terminal apparatus 7 or change the arrangement position of the terminal apparatus 7. The length of the terminal device 7 in the vertical direction (z-axis direction) is preferably 100 to 150 [mm]. In the present embodiment, the length is 133.5 [mm]. The lateral (x-axis direction) length of the terminal device 7 is preferably 200 to 250 [mm], and in this embodiment is 228.26 [mm]. The thickness (length in the y-axis direction) of the terminal device 7 is preferably about 15 to 30 [mm] at the plate-like portion, and about 30 to 50 [mm] including the thickest portion. In this embodiment, 23.6 (the thickest part is 40.26) [mm]. The weight of the terminal device 7 is about 400 to 600 [g], and is 530 [g] in the present embodiment. Although details will be described later, even if the terminal device 7 is a relatively large terminal device (operation device) as described above, the user device is easy to hold and operate.

端末装置7は、ハウジング50の表面(表側)にLCD51を有する。なお、LCD51の画面の大きさは5インチ以上であることが好ましく、ここでは6.2インチである。本実施形態の端末装置7は、持ちやすく操作しやすい構成によって、大きなLCDを設けても操作がしやすいものとなっている。なお、別の実施形態においては、より小さいLCD51を設け、端末装置7の大きさを比較的小さいものとするようにしてもよい。LCD51は、ハウジング50の表面の中央付近に設けられる。したがって、ユーザは、図10に示すようにLCD51の両側部分のハウジング50を持つことによって、LCD51の画面を見ながら端末装置7を持って動かすことができる。なお、図10ではユーザがLCD51の左右両側の部分のハウジング50を持つことで端末装置7を横持ちで(横に長い向きにして)持つ例を示しているが、端末装置7を縦持ちで(縦に長い向きにして)持つことも可能である。   The terminal device 7 has an LCD 51 on the surface (front side) of the housing 50. The screen size of the LCD 51 is preferably 5 inches or more, and here is 6.2 inches. The terminal device 7 of the present embodiment is easy to operate even if a large LCD is provided due to the configuration that it is easy to hold and operate. In another embodiment, a smaller LCD 51 may be provided so that the size of the terminal device 7 is relatively small. The LCD 51 is provided near the center of the surface of the housing 50. Therefore, the user can move the terminal device 7 while viewing the screen of the LCD 51 by holding the housings 50 on both sides of the LCD 51 as shown in FIG. FIG. 10 shows an example in which the user holds the terminal device 7 horizontally by holding the housings 50 on both the left and right sides of the LCD 51 (in a long horizontal direction), but the terminal device 7 is held vertically. It can also be held (with a long vertical orientation).

図8の(a)図に示すように、端末装置7は、操作手段として、LCD51の画面上にタッチパネル52を有する。本実施形態では、タッチパネル52は抵抗膜方式のタッチパネルである。ただし、タッチパネルは抵抗膜方式に限らず、例えば静電容量方式等、任意の方式のタッチパネルを用いることができる。また、タッチパネル52はシングルタッチ方式でもよいし、マルチタッチ方式であってもよい。本実施形態では、タッチパネル52として、LCD51の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル52の解像度とLCD51の解像度が一致している必要はない。タッチパネル52に対する入力は通常タッチペン60を用いて行われるが、タッチペン60に限らずユーザの指でタッチパネル52に対する入力をすることも可能である。なお、ハウジング50には、タッチパネル52に対する操作を行うために用いられるタッチペン60を収納する収納穴60aが設けられている(図8(b)参照)。なお、ここでは、タッチペン60が落ちないように、収納穴60aはハウジング50の上面に設けられるが、側面や下面に設けられてもよい。このように、端末装置7はタッチパネル52を備えるので、ユーザは、端末装置7を動かしながらタッチパネル52を操作することができる。つまりユーザは、LCD51の画面を動かしつつ、その画面に対して直接(タッチパネル52によって)入力を行うことができる。   As illustrated in FIG. 8A, the terminal device 7 includes a touch panel 52 on the screen of the LCD 51 as an operation unit. In the present embodiment, the touch panel 52 is a resistive film type touch panel. However, the touch panel is not limited to the resistive film type, and any type of touch panel such as a capacitance type can be used. The touch panel 52 may be a single touch method or a multi-touch method. In the present embodiment, the touch panel 52 having the same resolution (detection accuracy) as the resolution of the LCD 51 is used. However, the resolution of the touch panel 52 and the resolution of the LCD 51 are not necessarily matched. The input to the touch panel 52 is normally performed using the touch pen 60, but the input to the touch panel 52 is not limited to the touch pen 60 and can be performed by a user's finger. The housing 50 is provided with a storage hole 60a for storing the touch pen 60 used for operating the touch panel 52 (see FIG. 8B). Here, the storage hole 60a is provided on the upper surface of the housing 50 so that the touch pen 60 does not fall, but may be provided on the side surface or the lower surface. Thus, since the terminal device 7 includes the touch panel 52, the user can operate the touch panel 52 while moving the terminal device 7. That is, the user can directly input (by the touch panel 52) to the screen while moving the screen of the LCD 51.

図8に示すように、端末装置7は、操作手段(操作部)として、2つのアナログスティック53Aおよび53Bと、複数のボタン(キー)54A〜54Mとを備えている。各アナログスティック53Aおよび53Bは、方向を指示することが可能なデバイスである。各アナログスティック53Aおよび53Bは、ユーザの指で操作される可動部材(スティック部)がハウジング50の表面に対して任意の方向(上下左右および斜め方向の任意の角度)にスライドすることができるように構成されている。すなわち、スライドパッドと呼ばれることもある方向入力デバイスである。なお、各アナログスティック53Aおよび53Bの可動部材は、ハウジング50の表面に対して任意の方向に傾倒する種類のものでもよい。本実施形態では、可動部材がスライドする種類のアナログスティックを用いるので、ユーザは親指を大きく動かさなくても各アナログスティック53Aおよび53Bを操作することができ、ハウジング50をよりしっかりと把持した状態で操作を行うことができる。なお、各アナログスティック53Aおよび53Bとして、可動部材が傾倒する種類のものを用いる場合には、入力の程度(傾きの程度)がユーザにとってわかりやすく、詳細な操作をより容易に行うことができる。   As shown in FIG. 8, the terminal device 7 includes two analog sticks 53A and 53B and a plurality of buttons (keys) 54A to 54M as operation means (operation unit). Each analog stick 53A and 53B is a device capable of indicating a direction. In each of the analog sticks 53A and 53B, a movable member (stick part) operated by a user's finger can slide in any direction (any angle in the up / down / left / right and diagonal directions) with respect to the surface of the housing 50. It is configured. That is, it is a directional input device sometimes called a slide pad. The movable members of the analog sticks 53A and 53B may be of a type that tilts in an arbitrary direction with respect to the surface of the housing 50. In the present embodiment, an analog stick of a type in which the movable member slides is used. Therefore, the user can operate each of the analog sticks 53A and 53B without moving the thumb greatly, and the housing 50 is held firmly. The operation can be performed. When the analog sticks 53A and 53B are of a type in which the movable member tilts, the degree of input (degree of tilt) is easy for the user to understand, and detailed operations can be performed more easily.

また、左アナログスティック53AはLCD51の画面の左側に、右アナログスティック53BはLCD51の画面の右側にそれぞれ設けられる。したがって、ユーザは、左右いずれの手でもアナログスティックを用いて方向を指示する入力を行うことができる。また、図10に示すように、各アナログスティック53Aおよび53Bは、ユーザが端末装置7の左右部分(LCD51の左右両側の部分)を把持した状態で操作可能な位置に設けられるので、ユーザは、端末装置7を持って動かす場合においても各アナログスティック53Aおよび53Bを容易に操作することができる。   The left analog stick 53A is provided on the left side of the screen of the LCD 51, and the right analog stick 53B is provided on the right side of the screen of the LCD 51. Therefore, the user can make an input for instructing the direction with the left and right hands using the analog stick. Also, as shown in FIG. 10, each analog stick 53A and 53B is provided at a position where the user can operate with the left and right portions of the terminal device 7 (the left and right side portions of the LCD 51) being gripped. Even when the terminal device 7 is held and moved, the analog sticks 53A and 53B can be easily operated.

各ボタン54A〜54Lは、所定の入力を行うための操作手段(操作部)であり、押下可能なキーである。以下に示すように、各ボタン54A〜54Lは、ユーザが端末装置7の左右部分を把持した状態で操作可能な位置に設けられる(図10参照)。したがって、ユーザは、端末装置7を持って動かす場合においてもこれらの操作手段を容易に操作することができる。   Each button 54A to 54L is an operation means (operation unit) for performing a predetermined input, and is a key that can be pressed. As shown below, each button 54A-54L is provided in the position which a user can operate in the state which hold | gripped the left-right part of the terminal device 7 (refer FIG. 10). Therefore, the user can easily operate these operation means even when the user moves the terminal device 7.

図8の(a)図に示すように、ハウジング50の表面には、各操作ボタン54A〜54Lのうち、十字ボタン(方向入力ボタン)54Aと、ボタン54B〜54Hおよび54Mとが設けられる。つまり、これらのボタン54A〜54Hおよび54Mは、ユーザの親指で操作可能な位置に配置されている(図10参照)。   As shown in FIG. 8A, a cross button (direction input button) 54A and buttons 54B to 54H and 54M among the operation buttons 54A to 54L are provided on the surface of the housing 50. That is, these buttons 54A to 54H and 54M are arranged at positions where they can be operated with the user's thumb (see FIG. 10).

十字ボタン54Aは、LCD51の左側であって、左アナログスティック53Aの下側に設けられる。つまり、十字ボタン54Aはユーザの左手で操作可能な位置に配置されている。十字ボタン54Aは、十字の形状を有しており、少なくとも上下左右の方向を指示することが可能なボタンである。   The cross button 54A is provided on the left side of the LCD 51 and below the left analog stick 53A. That is, the cross button 54A is arranged at a position where it can be operated with the left hand of the user. The cross button 54A has a cross shape, and is a button capable of instructing at least the vertical and horizontal directions.

また、ボタン54B〜54Dは、LCD51の下側に設けられる。これら3つのボタン54B〜54Dは、左右両方の手で操作可能な位置に配置されている。また、端末装置7は、端末装置7の電源をオン/オフするための電源ボタン54Mを有している。電源ボタン54Mの操作により、ゲーム装置3の電源を遠隔でオン/オフすることも可能である。電源ボタン54Mは、ボタン54B〜54Dと同様、LCD51の下側に設けられる。電源ボタン54Mは、ボタン54B〜54Dの右側に設けられる。したがって、電源ボタン54Mは、右手で操作可能な(操作しやすい)位置に配置されている。また、4つのボタン54E〜54Hは、LCD51の右側であって、右アナログスティック53Bの下側に設けられる。つまり、4つのボタン54E〜54Hはユーザの右手で操作可能な位置に配置されている。さらに、4つのボタン54E〜54Hは、(4つのボタン54E〜54Hの中心位置に対して)上下左右の位置関係となるように配置されている。したがって、端末装置7は、ユーザに上下左右の方向を指示させるためのボタンとして4つのボタン54E〜54Hを機能させることも可能である。   The buttons 54B to 54D are provided below the LCD 51. These three buttons 54B to 54D are arranged at positions that can be operated by both the left and right hands. The terminal device 7 has a power button 54M for turning on / off the power of the terminal device 7. It is also possible to remotely turn on / off the game apparatus 3 by operating the power button 54M. The power button 54M is provided on the lower side of the LCD 51 like the buttons 54B to 54D. The power button 54M is provided on the right side of the buttons 54B to 54D. Therefore, the power button 54M is disposed at a position where it can be operated (easy to operate) with the right hand. The four buttons 54E to 54H are provided on the right side of the LCD 51 and below the right analog stick 53B. That is, the four buttons 54E to 54H are arranged at positions that can be operated with the right hand of the user. Further, the four buttons 54E to 54H are arranged so as to have a vertical / left / right positional relationship (relative to the center position of the four buttons 54E to 54H). Therefore, the terminal device 7 can also function the four buttons 54 </ b> E to 54 </ b> H as buttons for instructing the user in the up / down / left / right directions.

なお、本実施形態においては、各アナログスティック53Aおよび53Bは、十字ボタン54Aおよび各ボタン54E〜54Hよりも上側に配置される。ここで、各アナログスティック53Aおよび53Bは、十字ボタン54Aおよび各ボタン54E〜54Hよりも厚さ方向(y軸方向)に関して突出している。そのため、仮にアナログスティック53Aと十字ボタン54Aとの配置を逆にした場合には、ユーザが十字ボタン54Aを親指で操作する際にアナログスティック53Aに親指が当たってしまい、操作を誤ってしまうおそれがある。なお、アナログスティック53Bと各ボタン54E〜54Hとの配置を逆にする場合も同様の問題が生じる。これに対して、本実施形態では、各アナログスティック53Aおよび53Bを十字ボタン54Aおよび各ボタン54E〜54Hよりも上側に配置するので、ユーザがアナログスティック53Aおよび53Bを操作する際に十字ボタン54Aおよび各ボタン54E〜54Hに指が当たってしまう可能性は上記の場合に比べて低くなる。このように、本実施形態においては、誤操作の可能性を低減することができ、端末装置7の操作性を向上することができる。ただし、別の実施形態においては、必要に応じてアナログスティック53Aが十字ボタン54Aと逆の配置であってもよいし、アナログスティック53Bが各ボタン54E〜54Hと逆の配置であってもよい。   In the present embodiment, the analog sticks 53A and 53B are arranged above the cross button 54A and the buttons 54E to 54H. Here, each of the analog sticks 53A and 53B protrudes in the thickness direction (y-axis direction) from the cross button 54A and the buttons 54E to 54H. Therefore, if the arrangement of the analog stick 53A and the cross button 54A is reversed, when the user operates the cross button 54A with his / her thumb, the thumb may hit the analog stick 53A and the operation may be mistaken. is there. The same problem occurs when the arrangement of the analog stick 53B and the buttons 54E to 54H is reversed. On the other hand, in the present embodiment, the analog sticks 53A and 53B are arranged above the cross button 54A and the buttons 54E to 54H, so that when the user operates the analog sticks 53A and 53B, The possibility that the finger hits each of the buttons 54E to 54H is lower than that in the above case. Thus, in this embodiment, the possibility of erroneous operation can be reduced, and the operability of the terminal device 7 can be improved. However, in another embodiment, the analog stick 53A may be disposed opposite to the cross button 54A, or the analog stick 53B may be disposed opposite to the buttons 54E to 54H as necessary.

ここで、本実施形態では、いくつかの操作部(各アナログスティック53Aおよび53B、十字ボタン54A、ならびに、3つのボタン54E〜54G)は、表示部(LCD51)の左右両側において、ハウジング50における上下方向(y軸方向)の中心よりも上側に設けられる。これらの操作部を操作する場合、ユーザは、端末装置7における上下方向の中心よりも上側を主に把持する。ここで、ユーザがハウジング50の下側を把持する場合には、(端末装置7が本実施形態のように比較的大きなサイズである場合には特に)把持される端末装置7が不安定になり、ユーザは端末装置7を持ちにくくなる。これに対して、本実施形態では、上記操作部を操作する場合、ユーザは、端末装置7における上下方向の中心よりも上側を主に把持することになり、また、手のひらでハウジング50を横から支えることができる。したがって、ユーザは、安定した状態でハウジング50を把持することができ、端末装置7が持ちやすくなるので、上記操作部も操作しやすくなる。なお、他の実施形態においては、ハウジング50の中央よりも上側において表示部の左右にそれぞれ少なくとも1つずつ操作部が設けられてもよい。例えば、各アナログスティック53Aおよび53Bのみがハウジング50の中央よりも上側に設けられてもよい。また例えば、十字ボタン54Aが左アナログスティック53Aよりも上側に設けられ、4つのボタン54E〜54Hが右アナログスティック53Bよりも上側に設けられる場合には、十字ボタン54Aおよび4つのボタン54E〜54Hがハウジング50の中央よりも上側に設けられても良い。   Here, in this embodiment, some operation units (respective analog sticks 53A and 53B, cross button 54A, and three buttons 54E to 54G) are arranged on the upper and lower sides of the housing 50 on both the left and right sides of the display unit (LCD 51). It is provided above the center of the direction (y-axis direction). When operating these operation units, the user mainly holds the upper side of the terminal device 7 from the vertical center. Here, when the user grips the lower side of the housing 50, the gripped terminal device 7 becomes unstable (especially when the terminal device 7 has a relatively large size as in the present embodiment). , It becomes difficult for the user to hold the terminal device 7. On the other hand, in this embodiment, when operating the operation unit, the user mainly holds the upper side of the terminal device 7 from the center in the vertical direction, and the housing 50 is laterally held by the palm. Can support. Therefore, the user can hold the housing 50 in a stable state, and the terminal device 7 can be easily held, so that the operation unit can be easily operated. In other embodiments, at least one operation unit may be provided on each of the left and right sides of the display unit above the center of the housing 50. For example, only the analog sticks 53 </ b> A and 53 </ b> B may be provided above the center of the housing 50. Further, for example, when the cross button 54A is provided above the left analog stick 53A and the four buttons 54E to 54H are provided above the right analog stick 53B, the cross button 54A and the four buttons 54E to 54H are provided. It may be provided above the center of the housing 50.

また、本実施形態では、ハウジング50の裏側(LCD51が設けられる表面の反対側)には、突起部(庇部59)が設けられる(図8(c)および図9参照)。図8(c)に示すように、庇部59は、略板状のハウジング50の裏面から突起して設けられる、山状の部材である。突起部は、ハウジング50の裏面を把持するユーザの指に掛止可能な高さ(厚さ)を有する。突起部の高さは、10〜25[mm]であることが好ましく、本実施形態では16.66[mm]である。また、突起部の下面は、突起部がユーザの指に掛かりやすいように、ハウジング50の裏面に対して45°以上(より好ましくは60°以上)の傾斜を有することが好ましい。図8(c)に示すように、突起部の下面は、上面よりも傾斜角度が大きくなるように形成されてもよい。図10に示すように、ユーザは、指を庇部59に掛けて(指の上に庇部59を乗せて)把持することによって、端末装置7が比較的大きなサイズであっても、疲れることなく安定した状態で端末装置7を把持することができる。すなわち、庇部59は、指でハウジング50を支えるための支持部材であるということができ、また、指掛部ということもできる。   In the present embodiment, a protrusion (a flange 59) is provided on the back side of the housing 50 (on the opposite side of the surface on which the LCD 51 is provided) (see FIG. 8C and FIG. 9). As shown in FIG. 8C, the flange portion 59 is a mountain-shaped member provided so as to protrude from the back surface of the substantially plate-shaped housing 50. The protrusion has a height (thickness) that can be hooked on a user's finger that holds the back surface of the housing 50. The height of the protrusion is preferably 10 to 25 [mm], and in this embodiment is 16.66 [mm]. Moreover, it is preferable that the lower surface of the protruding portion has an inclination of 45 ° or more (more preferably 60 ° or more) with respect to the back surface of the housing 50 so that the protruding portion can be easily caught on the user's finger. As shown in FIG. 8C, the lower surface of the protrusion may be formed to have a larger inclination angle than the upper surface. As shown in FIG. 10, the user gets tired even when the terminal device 7 is a relatively large size by holding his / her finger on the buttocks 59 (with the buttocks 59 on the finger). The terminal device 7 can be gripped in a stable state. That is, it can be said that the collar part 59 is a support member for supporting the housing 50 with a finger, and can also be called a finger hook part.

また、庇部59は、ハウジング50の上下方向に関しては中央よりも上側に設けられる。庇部59は、ハウジング50の表面に設けられる操作部(各アナログスティック53Aおよび53B)の概ね反対側の位置に設けられる。つまり、突起部は、表示部の左右にそれぞれ設けられる操作部の反対側の位置を含む領域に設けられる。したがって、上記操作部を操作する場合、ユーザは、中指あるいは薬指で庇部59を支えるようにして端末装置7を把持することができる(図10参照)。これによって、端末装置7がより持ちやすくなり、上記操作部もより操作しやすくなる。また、本実施形態では、突起部は、(突起した部分が)左右に延びる庇状の形状を有するので、ユーザは、中指あるいは薬指を突起部の下面に沿わせて端末装置7を把持することができ、端末装置7がより持ちやすくなる。なお、庇部59は、(突起した部分が)左右方向に延びるように形成されればよく、図9に示すような水平方向に延びる形状に限られない。他の実施形態においては、庇部59は水平方向から若干傾いた方向に延びていてもよい。例えば、庇部59は、左右両端から中央に向かうにつれて上に(または下に)傾斜するように設けられてもよい。   Further, the flange portion 59 is provided above the center in the vertical direction of the housing 50. The flange portion 59 is provided at a position approximately opposite to the operation portion (each analog stick 53A and 53B) provided on the surface of the housing 50. That is, the protrusion is provided in a region including a position on the opposite side of the operation unit provided on each of the left and right sides of the display unit. Therefore, when operating the said operation part, the user can hold | grip the terminal device 7 so that the collar part 59 may be supported with a middle finger or a ring finger (refer FIG. 10). As a result, the terminal device 7 becomes easier to hold, and the operation unit becomes easier to operate. Further, in the present embodiment, the protrusion has a hook-like shape extending from side to side (the protruding portion), so that the user holds the terminal device 7 with the middle finger or the ring finger along the lower surface of the protrusion. And the terminal device 7 becomes easier to hold. In addition, the collar part 59 should just be formed so that the (protruded part) may be extended in the left-right direction, and is not restricted to the shape extended in a horizontal direction as shown in FIG. In other embodiments, the flange portion 59 may extend in a direction slightly inclined from the horizontal direction. For example, the collar portion 59 may be provided so as to be inclined upward (or downward) from the left and right ends toward the center.

なお、本実施形態においては、後述する係止穴を庇部59に設けることが理由で、ハウジングの裏面に形成される突起部として、庇状の形状をした庇部59を採用するが、突起部はどのような形状であってもよい。例えば、他の実施形態においては、ハウジング50の裏側において、2つの突起部が左右両側に設けられる(左右方向の中央には突起部が設けられない)構成であってもよい(図29参照)。また、他の実施形態においては、突起部の断面形状(x軸方向に垂直な断面における形状)は、ユーザの指で端末装置7をよりしっかりと支えることができるように(突起部が指によりしっかりと掛かるように)、鈎型(下面が凹んだ形状)であってもよい。   In the present embodiment, the hook 59 having a hook-like shape is adopted as the protrusion formed on the back surface of the housing because a locking hole described later is provided in the hook 59. The part may have any shape. For example, in another embodiment, on the back side of the housing 50, two protrusions may be provided on both the left and right sides (no protrusion is provided in the center in the left-right direction) (see FIG. 29). . In another embodiment, the cross-sectional shape of the protrusion (the shape in the cross section perpendicular to the x-axis direction) is such that the terminal device 7 can be more firmly supported by the user's finger (the protrusion is It may be saddle-shaped (a shape in which the lower surface is recessed).

なお、突起部(庇部59)の上下方向に関する幅は、いくらであってもよい。例えば、突起部は、ハウジング50の上辺まで形成されてもよい。すなわち、突起部の上面がハウジング50の上側の側面と同じ位置に形成されてもよい。このとき、ハウジング50は、下側が薄く、上側が厚い2段の構成となる。このように、ハウジング50は、裏面における左右両側に、下方を向く面(突起部の下面)が形成されることが好ましい。これによって、ユーザは、当該面に指を当てることで楽に操作装置を把持することができる。なお、上記「下方を向く面」は、ハウジング50の裏面におけるどの位置に形成されてもよいが、ハウジング50の中央よりも上側に位置することが好ましい。   In addition, the width | variety regarding the up-down direction of a projection part (hook part 59) may be what. For example, the protrusion may be formed up to the upper side of the housing 50. That is, the upper surface of the protrusion may be formed at the same position as the upper side surface of the housing 50. At this time, the housing 50 has a two-stage configuration in which the lower side is thin and the upper side is thick. As described above, it is preferable that the housing 50 is formed with surfaces (lower surfaces of the protrusions) facing downward on the left and right sides of the back surface. Accordingly, the user can easily grip the operating device by placing a finger on the surface. The “surface facing downward” may be formed at any position on the back surface of the housing 50, but is preferably positioned above the center of the housing 50.

また、図8の(a)図、(b)図、および(c)図に示すように、第1Lボタン54Iおよび第1Rボタン54Jは、ハウジング50の上側の面における左右の両側にそれぞれ設けられる。本実施形態では、第1Lボタン54Iおよび第1Rボタン54Jは、ハウジング50の斜め上部分(左上部分および右上部分)に設けられる。具体的には、第1Lボタン54Iは、板状のハウジング50における上側の側面の左端に設けられ、左上側の側面から露出している(換言すれば上側および左側の両方の側面から露出している)。また、第1Rボタン54Jは、ハウジング50における上側の側面の右端に設けられ、右上側の側面から露出している(換言すれば上側および右側の両方の側面から露出している)。このように、第1Lボタン54Iは、ユーザの左手人差し指で操作可能な位置に配置され、第1Rボタン54Jは、ユーザの右手人差し指で操作可能な位置に配置される(図10参照)。なお、他の実施形態においては、ハウジング50の上側の面における左右にそれぞれ設けられる操作部は、左右の端部に設けられる必要はなく、端部以外の位置に設けられてもよい。また、ハウジング50の左右の側面に操作部がそれぞれ設けられてもよい。   Further, as shown in FIGS. 8A, 8B, and 8C, the first L button 54I and the first R button 54J are provided on both the left and right sides of the upper surface of the housing 50, respectively. . In the present embodiment, the first L button 54 </ b> I and the first R button 54 </ b> J are provided in an obliquely upper portion (upper left portion and upper right portion) of the housing 50. Specifically, the first L button 54I is provided at the left end of the upper side surface of the plate-shaped housing 50 and is exposed from the upper left side surface (in other words, exposed from both the upper and left side surfaces). ) The first R button 54J is provided at the right end of the upper side surface of the housing 50, and is exposed from the upper right side surface (in other words, exposed from both the upper and right side surfaces). In this way, the first L button 54I is disposed at a position operable with the user's left index finger, and the first R button 54J is disposed at a position operable with the user's right hand index finger (see FIG. 10). In other embodiments, the operation units provided on the left and right sides of the upper surface of the housing 50 do not need to be provided at the left and right ends, and may be provided at positions other than the ends. In addition, operation portions may be provided on the left and right side surfaces of the housing 50, respectively.

また、図8の(c)図および図9に示すように、第2Lボタン54Kおよび第2Rボタン54Lは、上記突起部(庇部59)に配置される。第2Lボタン54Kは、庇部59の左端付近に設けられる。第2Rボタン54Lは、庇部59の右端付近に設けられる。つまり、第2Lボタン54Kは、ハウジング50の裏面の左側(表面側から見たときの左側)のやや上方に設けられ、第2Rボタン54Lは、ハウジング50の裏面の右側(表面側から見たときの右側)のやや上方に設けられる。換言すれば、第2Lボタン54Kは、表面に設けられる左アナログスティック53Aの(概ね)反対側の位置に設けられ、第2Rボタン54Lは、表面に設けられる右アナログスティック53Bの(概ね)反対側の位置に設けられる。このように、第2Lボタン54Kは、ユーザの左手中指(または人差し指)で操作可能な位置に配置され、第2Rボタン54Lは、ユーザの右手中指(または人差し指)で操作可能な位置に配置される(図10参照)。また、第2Lボタン54Kおよび第2Rボタン54Lは、図8の(c)図に示すように、上記庇部59の上面に設けられる。そのため、第2Lボタン54Kおよび第2Rボタン54Lは、上方(斜め上方)を向くボタン面を有する。ユーザが端末装置7を把持した場合には中指または人差し指は上下方向に動くと考えられるので、ボタン面を上方に向けることで、ユーザは第2Lボタン54Kおよび第2Rボタン54Lを押下しやすくなる。   Further, as shown in FIG. 8 (c) and FIG. 9, the second L button 54K and the second R button 54L are disposed on the protruding portion (the collar portion 59). The second L button 54K is provided in the vicinity of the left end of the collar 59. The second R button 54L is provided in the vicinity of the right end of the collar portion 59. That is, the second L button 54K is provided slightly above the left side (left side when viewed from the front side) of the housing 50, and the second R button 54L is right side (when viewed from the front side) of the housing 50. On the right side). In other words, the second L button 54K is provided at a position (substantially) opposite to the left analog stick 53A provided on the surface, and the second R button 54L is provided (substantially) opposite to the right analog stick 53B provided on the surface. It is provided in the position. As described above, the second L button 54K is disposed at a position operable with the user's left middle finger (or index finger), and the second R button 54L is disposed at a position operable with the user's right middle finger (or index finger). (See FIG. 10). Moreover, the 2nd L button 54K and the 2nd R button 54L are provided in the upper surface of the said collar part 59, as shown to the (c) figure of FIG. Therefore, the second L button 54K and the second R button 54L have button surfaces that face upward (obliquely upward). When the user holds the terminal device 7, the middle finger or index finger is considered to move up and down, so that the user can easily press the second L button 54 </ b> K and the second R button 54 </ b> L by turning the button surface upward.

上記のように、本実施形態においては、ハウジング50の中央よりも上側において表示部(LCD51)の左右に操作部(アナログスティック53Aおよび53B)がそれぞれ設けられ、さらに、ハウジング50の裏側において当該操作部の反対側の位置に別の操作部(第2Lボタン54Kおよび第2Rボタン54L)がそれぞれ設けられる。これによれば、上記操作部と別の操作部とがハウジング50の表側と裏側との互いに対向する位置に配置されるので、ユーザは、これらの操作部を操作する際にハウジング50を表側と裏側から挟むように把持することができる。また、これらの操作部を操作する際にユーザは、ハウジング50における上下方向の中心よりも上側を把持するので、端末装置7を上側で把持できるとともに、手のひらで端末装置7を支えることができる(図10参照)。以上によって、ユーザは、少なくとも4つの操作部を操作することができる状態で、ハウジング50を安定的に把持することができ、ユーザが容易に把持することが可能で、かつ操作性の良い操作装置(端末装置7)を提供することができる。   As described above, in the present embodiment, the operation units (analog sticks 53A and 53B) are provided on the left and right sides of the display unit (LCD 51) above the center of the housing 50, and the operation is performed on the back side of the housing 50. Separate operation units (second L button 54K and second R button 54L) are provided at positions opposite to the unit. According to this, since the said operation part and another operation part are arrange | positioned in the position where the front side and back side of the housing 50 mutually oppose, when operating these operation parts, the user sets the housing 50 to the front side. It can be gripped so as to be pinched from the back side. Further, when operating these operation units, the user grips the upper side of the housing 50 with respect to the vertical center, so that the terminal device 7 can be gripped on the upper side and the terminal device 7 can be supported by the palm ( (See FIG. 10). As described above, the user can stably hold the housing 50 in a state in which the user can operate at least four operation units, can be easily held by the user, and has high operability. (Terminal device 7) can be provided.

以上のように、本実施形態においては、突起部(庇部59)の下面に指を当てた状態で端末装置7を把持することによって、ユーザは楽に端末装置7を把持することができる。また、突起部の上面に第2Lボタン54Kおよび第2Rボタン54Lが設けられるので、ユーザは上記の状態でこれらのボタンを容易に操作することができる。ユーザは、例えば次のような持ち方で端末装置7を容易に把持することができる。   As described above, in the present embodiment, the user can easily hold the terminal device 7 by holding the terminal device 7 with the finger placed on the lower surface of the protrusion (the collar portion 59). In addition, since the second L button 54K and the second R button 54L are provided on the upper surface of the protrusion, the user can easily operate these buttons in the above state. For example, the user can easily hold the terminal device 7 in the following manner.

すなわち、ユーザは、図10に示すように、薬指を庇部59の下面(図10に示す一点鎖線)に当てて(薬指で庇部59を支えるように)端末装置7を把持することも可能である。このとき、ユーザは、4つのボタン(第1Lボタン54I、第1Rボタン54J、第2Lボタン54K、および第2Rボタン54L)を人差し指および中指で操作することができる。例えば、要求されるゲーム操作が、使用するボタンが多く、比較的複雑である場合には、図10に示すように把持することで、多くのボタンを容易に操作することができる。なお、各アナログスティック53Aおよび53Bは十字ボタン54Aおよびボタン54E〜54Hの上側に設けられるので、比較的複雑な操作が要求される場合にユーザは親指でアナログスティック53Aおよび53Bを操作することができ、好都合である。また、図10においては、ユーザは、ハウジング50の表面に親指を、ハウジング50の上面に人差し指を、ハウジング50の裏面における庇部59の上面に中指を、庇部59の下面に薬指を、ハウジング50の裏面に小指を当てて端末装置7を把持する。このように、ユーザは、ハウジング50を四方から包み込むようにして端末装置7をしっかりと把持することができる。   That is, as shown in FIG. 10, the user can hold the terminal device 7 by placing the ring finger on the lower surface of the heel part 59 (the dashed line shown in FIG. 10) (supporting the heel part 59 with the ring finger). It is. At this time, the user can operate the four buttons (first L button 54I, first R button 54J, second L button 54K, and second R button 54L) with the index finger and the middle finger. For example, when a required game operation has many buttons to be used and is relatively complicated, many buttons can be easily operated by gripping as shown in FIG. Since each analog stick 53A and 53B is provided above the cross button 54A and the buttons 54E to 54H, the user can operate the analog sticks 53A and 53B with the thumb when a relatively complicated operation is required. Convenient. In FIG. 10, the user places a thumb on the surface of the housing 50, an index finger on the upper surface of the housing 50, a middle finger on the upper surface of the collar portion 59 on the rear surface of the housing 50, and a ring finger on the lower surface of the collar portion 59. The terminal device 7 is held by placing a little finger on the back surface of 50. Thus, the user can firmly hold the terminal device 7 so as to wrap the housing 50 from all sides.

また、ユーザは、中指を庇部59の下面に当てて端末装置7を把持することも可能である。このとき、ユーザは、2つのボタン(第2Lボタン54Kおよび第2Rボタン54L)を人差し指で容易に操作することができる。例えば、要求されるゲーム操作が、使用するボタンが少なく、比較的単純である場合には、中指を庇部59の下面に当てて端末装置7を把持してもよい。このとき、ユーザは、2本の指(薬指および小指)でハウジング50の下側を把持することができるので、しっかりと端末装置7を把持することができる。   In addition, the user can hold the terminal device 7 by placing the middle finger on the lower surface of the collar portion 59. At this time, the user can easily operate the two buttons (the second L button 54K and the second R button 54L) with the index finger. For example, when the requested game operation is relatively simple with few buttons to be used, the terminal device 7 may be gripped by placing the middle finger on the lower surface of the collar portion 59. At this time, since the user can hold the lower side of the housing 50 with two fingers (ring finger and little finger), the user can hold the terminal device 7 firmly.

なお、本実施形態においては、庇部59の下面が、各アナログスティック53Aおよび53Bと、十字ボタン54Aおよび4つのボタン54E〜54Hとの間に位置するように(各アナログスティック53Aおよび53Bよりも下方で、かつ、十字ボタン54Aおよび4つのボタン54E〜54Hよりも上方に位置するように)設けられる。したがって、薬指を庇部59に当てて端末装置7を把持する場合(図10)には、各アナログスティック53Aおよび53Bを親指で操作しやすくなり、中指を庇部59に当てて端末装置7を把持する場合には、十字ボタン54Aおよび4つのボタン54E〜54Hを親指で操作しやすくなっている。つまり、上記2種類の場合のいずれにおいても、ユーザは、端末装置7をしっかりと把持した状態で方向入力操作を行うことができる。   In the present embodiment, the lower surface of the collar portion 59 is positioned between the analog sticks 53A and 53B and the cross button 54A and the four buttons 54E to 54H (more than the analog sticks 53A and 53B). And provided above the cross button 54A and the four buttons 54E to 54H). Therefore, when holding the terminal device 7 by placing the ring finger against the buttocks 59 (FIG. 10), the analog sticks 53A and 53B can be easily operated with the thumb, and the terminal device 7 is placed by placing the middle finger against the buttocks 59. When grasping, it is easy to operate the cross button 54A and the four buttons 54E to 54H with the thumb. That is, in any of the above two cases, the user can perform a direction input operation while firmly holding the terminal device 7.

また、上述のように、ユーザは端末装置7を縦持ちで把持することも可能である。すなわち、ユーザは端末装置7の上辺または下辺を一方の手で把持することで端末装置7を縦向きで把持することが可能である。このように、ユーザは端末装置7を片手で把持することが可能であるので、例えば、一方の手で端末装置7を把持しながら他方の手でタッチパネル52に対する入力を行うといった操作を行うことも可能である。   Further, as described above, the user can also hold the terminal device 7 while holding it vertically. That is, the user can hold the terminal device 7 in the vertical direction by holding the upper side or the lower side of the terminal device 7 with one hand. As described above, since the user can hold the terminal device 7 with one hand, for example, the user can perform an operation of holding the terminal device 7 with one hand and performing an input to the touch panel 52 with the other hand. Is possible.

また、端末装置7の上辺を把持する場合、ユーザは親指以外の指を庇部59の下面に当てることで、端末装置7をしっかりと把持することができる。特に、本実施形態においては、庇部59が左右に延びて形成されているので、ユーザは端末装置7の上辺におけるどこの位置で把持しても、親指以外の指を庇部59に当てることができ、端末装置7をしっかりと把持することができる。すなわち、端末装置7を縦持ちで使う場合には、庇部59は取っ手として使うことができる。一方、端末装置7の下辺を片手で把持する場合、ユーザは、その手でボタン54B〜54Dを操作することができる。したがって、例えば片手でタッチパネル52に対する入力を行いつつ、端末装置7を把持する手でボタン54B〜54Dに対する操作を行うことができ、より多くの操作を行うことができる。   In addition, when gripping the upper side of the terminal device 7, the user can grip the terminal device 7 firmly by placing a finger other than the thumb against the lower surface of the collar portion 59. In particular, in the present embodiment, since the collar portion 59 is formed to extend to the left and right, the user places a finger other than the thumb on the collar portion 59 regardless of the position on the upper side of the terminal device 7. And the terminal device 7 can be firmly held. That is, when the terminal device 7 is used in a vertical orientation, the collar portion 59 can be used as a handle. On the other hand, when gripping the lower side of the terminal device 7 with one hand, the user can operate the buttons 54B to 54D with the hand. Therefore, for example, it is possible to perform operations on the buttons 54B to 54D with a hand holding the terminal device 7 while performing an input on the touch panel 52 with one hand, and more operations can be performed.

なお、本実施形態における端末装置7に関しては、突起部(庇部59)が裏面に設けられるので、LCD51の画面(ハウジング50の表面)が上を向いた状態で端末装置7を載置させる場合、画面がやや傾いた状態となる。これによって、端末装置7を載置した状態において画面がより見やすくなる。また、端末装置7を載置した状態においてタッチパネル52に対する入力操作が行いやすくなる。また、他の実施形態においては、上記庇部59と同程度の高さを有する追加の突起部がハウジング50の裏面に形成されてもよい。これによれば、LCD51の画面が上を向いた状態では、各突起部が床面に接することで、画面が水平になるように端末装置7を載置することができる。また、追加の突起部を着脱可能な(または折り畳み可能な)ものにしてもよい。これによれば、画面がやや傾いた状態と、画面が水平になる状態との両方で端末装置を載置することができる。すなわち、端末装置7を置いて使う場合には、庇部59は、脚部として使うことができる。   In addition, regarding the terminal device 7 in the present embodiment, since the protrusion (the flange portion 59) is provided on the back surface, the terminal device 7 is placed with the screen of the LCD 51 (the surface of the housing 50) facing upward. The screen is slightly tilted. This makes it easier to see the screen when the terminal device 7 is placed. Further, it becomes easy to perform an input operation on the touch panel 52 in a state where the terminal device 7 is placed. In another embodiment, an additional protrusion having the same height as the flange 59 may be formed on the back surface of the housing 50. According to this, in a state where the screen of the LCD 51 is facing upward, the terminal device 7 can be placed so that the screen is horizontal as each projection comes into contact with the floor surface. Further, the additional protrusions may be removable (or foldable). According to this, the terminal device can be placed both in a state where the screen is slightly inclined and in a state where the screen is horizontal. That is, when the terminal device 7 is placed and used, the heel portion 59 can be used as a leg portion.

各ボタン54A〜54Lには、ゲームプログラムに応じた機能が適宜割り当てられる。例えば、十字ボタン54Aおよびボタン54E〜54Hは方向指示操作や選択操作等に用いられてもよいし、各ボタン54B〜54Eは決定操作やキャンセル操作等に用いられてもよい。また、端末装置7は、LCD51の画面表示をオン/オフするためのボタンや、ゲーム装置3との接続設定(ペアリング)を行うためのボタンを有していてもよい。   Functions corresponding to the game program are appropriately assigned to the buttons 54A to 54L. For example, the cross button 54A and the buttons 54E to 54H may be used for a direction instruction operation or a selection operation, and the buttons 54B to 54E may be used for a determination operation or a cancel operation. Further, the terminal device 7 may have a button for turning on / off the screen display of the LCD 51 and a button for performing connection setting (pairing) with the game device 3.

図8の(a)図に示すように、端末装置7は、マーカ55Aおよびマーカ55Bからなるマーカ部55をハウジング50の表面に備えている。マーカ部55は、LCD51の上側に設けられる。各マーカ55Aおよびマーカ55Bは、マーカ装置6の各マーカ6Rおよび6Lと同様、1以上の赤外LEDで構成される。マーカ55Aおよび55Bを構成する赤外LEDは、赤外光を透過する窓部の内側に配置される。マーカ部55は、上述のマーカ装置6と同様、コントローラ5の動き等をゲーム装置3が算出するために用いられる。また、ゲーム装置3はマーカ部55が備える各赤外LEDの点灯を制御することが可能である。   As illustrated in FIG. 8A, the terminal device 7 includes a marker portion 55 including a marker 55 </ b> A and a marker 55 </ b> B on the surface of the housing 50. The marker unit 55 is provided on the upper side of the LCD 51. Each of the markers 55A and 55B is composed of one or more infrared LEDs, like the markers 6R and 6L of the marker device 6. Infrared LEDs constituting the markers 55A and 55B are disposed inside a window portion that transmits infrared light. The marker unit 55 is used for the game device 3 to calculate the movement of the controller 5 and the like, similar to the marker device 6 described above. Further, the game apparatus 3 can control lighting of each infrared LED included in the marker unit 55.

端末装置7は、撮像手段であるカメラ56を備えている。カメラ56は、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。図8に示すように、本実施形態では、カメラ56はハウジング50の表面に設けられる。したがって、カメラ56は、端末装置7を持っているユーザの顔を撮像することができ、例えばLCD51を見ながらゲームを行っている時のユーザを撮像することができる。本実施形態においては、カメラ56は、2つのマーカ55Aおよび55Bの間に配置される。   The terminal device 7 includes a camera 56 that is an imaging unit. The camera 56 includes an imaging element (for example, a CCD image sensor or a CMOS image sensor) having a predetermined resolution, and a lens. As shown in FIG. 8, in this embodiment, the camera 56 is provided on the surface of the housing 50. Therefore, the camera 56 can take an image of the face of the user who has the terminal device 7, and can, for example, take an image of the user who is playing the game while looking at the LCD 51. In the present embodiment, the camera 56 is disposed between the two markers 55A and 55B.

なお、端末装置7は、音声入力手段であるマイク79を備えている。ハウジング50の表面には、マイクロフォン用孔50cが設けられる。マイク79はこのマイクロフォン用孔50cの奥のハウジング50内部に設けられる。マイク79は、ユーザの音声等、端末装置7の周囲の音を検出する。   The terminal device 7 includes a microphone 79 that is a voice input unit. A microphone hole 50 c is provided on the surface of the housing 50. The microphone 79 is provided inside the housing 50 behind the microphone hole 50c. The microphone 79 detects sounds around the terminal device 7 such as a user's voice.

端末装置7は、音声出力手段であるスピーカ77を備えている。図8の(d)図に示すように、ハウジング50の表面の下側にはスピーカ孔57が設けられる。スピーカ77の出力音はこのスピーカ孔57から出力される。本実施形態では、端末装置7は2つのスピーカを備えており、左スピーカおよび右スピーカのそれぞれの位置にスピーカ孔57が設けられる。なお、端末装置7は、スピーカ77の音量を調節するためのつまみ64を備える。また、端末装置7は、イヤホン等の音声出力部を接続するための音声出力端子62を備える。ここでは、ハウジングの下側の側面に付加装置が接続されることを考慮して、上記音声出力端子62およびつまみ64はハウジング50の上画の側面に設けられるが、左右の側面や下側の側面に設けられてもよい。   The terminal device 7 includes a speaker 77 which is an audio output unit. As shown in FIG. 8D, a speaker hole 57 is provided below the surface of the housing 50. The output sound of the speaker 77 is output from the speaker hole 57. In the present embodiment, the terminal device 7 includes two speakers, and speaker holes 57 are provided at positions of the left speaker and the right speaker. The terminal device 7 includes a knob 64 for adjusting the volume of the speaker 77. The terminal device 7 includes an audio output terminal 62 for connecting an audio output unit such as an earphone. Here, considering that an additional device is connected to the lower side surface of the housing, the audio output terminal 62 and the knob 64 are provided on the upper side surface of the housing 50. It may be provided on the side surface.

また、ハウジング50には、赤外線通信モジュール82からの赤外線信号を端末装置7の外部に出射するための窓63が設けられる。ここでは、LCD51の両側を把持した場合にユーザの前方へ赤外線信号が発射されるように、窓63はハウジング50の上側の側面に設けられる。ただし、他の実施形態においては、窓63は、例えばハウジング50の裏面等、どの位置に設けられてもよい。   The housing 50 is provided with a window 63 for emitting an infrared signal from the infrared communication module 82 to the outside of the terminal device 7. Here, the window 63 is provided on the upper side surface of the housing 50 so that an infrared signal is emitted forward of the user when both sides of the LCD 51 are gripped. However, in other embodiments, the window 63 may be provided at any position such as the back surface of the housing 50.

また、端末装置7は、他の装置を端末装置7に接続するための拡張コネクタ58を備えている。拡張コネクタ58は、端末装置7に接続される他の装置との間でデータ(情報)を送受信するための通信端子である。本実施形態においては、図8の(d)図に示すように、拡張コネクタ58は、ハウジング50の下側側面に設けられる。なお、拡張コネクタ58に接続される他の付加装置はどのようなものであってもよく、例えば、特定のゲームに用いるコントローラ(銃型のコントローラ等)やキーボード等の入力装置であってもよい。付加装置を接続する必要がなければ、拡張コネクタ58は設けられていなくともよい。拡張コネクタ58には、付加装置に電力を供給する端子や、充電のための端子が含まれていてもよい。   Further, the terminal device 7 includes an expansion connector 58 for connecting other devices to the terminal device 7. The extension connector 58 is a communication terminal for transmitting / receiving data (information) to / from other devices connected to the terminal device 7. In the present embodiment, the extension connector 58 is provided on the lower side surface of the housing 50 as shown in FIG. Note that any other additional device connected to the expansion connector 58 may be used. For example, a controller (gun-type controller or the like) used for a specific game or an input device such as a keyboard may be used. . If it is not necessary to connect an additional device, the expansion connector 58 may not be provided. The expansion connector 58 may include a terminal for supplying power to the additional device and a terminal for charging.

また、端末装置7は、拡張コネクタ58とは別に、付加装置から電力を取得するための充電端子66を有する。図示しない充電スタンドに充電端子66が接続された場合、充電スタンドから端末装置7へ電力が供給される。本実施形態では、充電端子66はハウジング50の下側側面に設けられる。したがって、端末装置7と付加装置とが接続される際には、拡張コネクタ58を介して情報を送受信することに加えて、一方から他方への電力供給を行うことも可能である。このように、拡張コネクタ58の周囲(左右両側)に充電端子66を設けることによって、端末装置7と付加装置とが接続される際に、情報の送受信とともに、電力供給を行うことも可能である。また、端末装置7は充電コネクタを有し、ハウジング50は充電コネクタを保護するためのカバー部61を有する。充電コネクタは、後述する充電器86に接続可能であり、充電器に充電コネクタが接続された場合、充電器86から端末装置7へ電力が供給される。本実施形態では、ハウジングの下側の側面に付加装置が接続されることを考慮して、充電コネクタ(カバー部61)はハウジング50の上画の側面に設けられるが、左右の側面や下側の側面に設けられてもよい。   Further, the terminal device 7 includes a charging terminal 66 for acquiring power from the additional device, separately from the expansion connector 58. When the charging terminal 66 is connected to a charging stand (not shown), power is supplied from the charging stand to the terminal device 7. In the present embodiment, the charging terminal 66 is provided on the lower side surface of the housing 50. Therefore, when the terminal device 7 and the additional device are connected, in addition to transmitting and receiving information via the extension connector 58, it is also possible to supply power from one to the other. Thus, by providing the charging terminal 66 around the expansion connector 58 (on the left and right sides), when the terminal device 7 and the additional device are connected, it is possible to supply power as well as transmit and receive information. . Further, the terminal device 7 has a charging connector, and the housing 50 has a cover portion 61 for protecting the charging connector. The charging connector can be connected to a charger 86 to be described later. When the charging connector is connected to the charger, power is supplied from the charger 86 to the terminal device 7. In this embodiment, considering that the additional device is connected to the lower side surface of the housing, the charging connector (cover portion 61) is provided on the upper side surface of the housing 50. It may be provided on the side surface.

図8(d)および図9に示すように、突起部(庇部59)の下面には、付加装置が有する爪部が係止可能な係止穴59aおよび59bが設けられる。係止穴59aおよび59bは、端末装置7に他の付加装置を接続する際に用いられる。すなわち、付加装置は係止穴59aおよび59bに係止可能な爪部を有し、端末装置7に付加装置を接続する場合には、爪部が係止穴59aおよび59bに係止することによって端末装置7と付加装置とが固定される。また、係止穴59aおよび59bの内部に、さらにネジ穴を設けてもよく、付加装置をネジで強固に固定するようにしてもよい。なお、ここでは、端末装置7の裏面に設けられる突起部は、庇状の形状を有する庇部59である。すなわち、庇部59は左右方向に延びて設けられる。図9に示すように、係止穴59aおよび59bは、庇部59の下面の(左右方向に関して)中央付近に設けられる。なお、庇部59の下面に設けられる係止穴59aおよび59bの個数はいくつであってもよいが、1つである場合には庇部59の中央に設けられることが好ましく、複数である場合には左右対称に配置されることが好ましい。これによれば、左右のバランスを均等に保って付加装置を安定的に接続することができる。また、係止穴が中央付近に設けられる場合には、左右の両端に設けられる場合に比べて、付加装置のサイズを小さくすることができる。以上のように、庇部59は、付加装置の係止部材として使うことができる。   As shown in FIGS. 8D and 9, locking holes 59 a and 59 b that can lock the claw portions of the additional device are provided on the lower surface of the protruding portion (the flange portion 59). The locking holes 59 a and 59 b are used when connecting another additional device to the terminal device 7. That is, the additional device has a claw portion that can be locked in the locking holes 59a and 59b. When the additional device is connected to the terminal device 7, the claw portion is locked in the locking holes 59a and 59b. The terminal device 7 and the additional device are fixed. Further, screw holes may be further provided inside the locking holes 59a and 59b, and the additional device may be firmly fixed with screws. Here, the protrusion provided on the back surface of the terminal device 7 is a flange 59 having a hook shape. That is, the collar part 59 is provided extending in the left-right direction. As shown in FIG. 9, the locking holes 59 a and 59 b are provided near the center (with respect to the left-right direction) of the lower surface of the flange portion 59. Note that the number of the locking holes 59a and 59b provided on the lower surface of the flange portion 59 may be any number, but when it is one, it is preferably provided in the center of the flange portion 59, and there are a plurality Are preferably arranged symmetrically. According to this, it is possible to stably connect the additional device while keeping the left and right balance equal. Further, when the locking hole is provided near the center, the size of the additional device can be reduced as compared with the case where the locking hole is provided at both the left and right ends. As described above, the flange portion 59 can be used as a locking member of the additional device.

また、本実施形態においては、図8(d)に示すように、ハウジング50の下面に係止穴50aおよび50bが設けられる。したがって、端末装置7に付加装置を接続する場合には、4つの爪部が4つの各係止穴にそれぞれ係止することによって端末装置7と付加装置とが固定される。これによって、付加装置を端末装置7により強固に接続することができる。なお、係止穴50aおよび50bの内部にもネジ穴を設け、付加装置をネジ止めするようにしてもよい。ネジ止めの位置は、どこであってもよいが、例えば、ハウジング50の背面に当接する付加装置の支持部と、庇部59とがネジ止めされてもよい。また、他の実施形態においては、ハウジングに設けられる係止穴は、どのような配置であってもよい。   In the present embodiment, as shown in FIG. 8D, locking holes 50 a and 50 b are provided on the lower surface of the housing 50. Therefore, when connecting the additional device to the terminal device 7, the terminal device 7 and the additional device are fixed by the four claw portions being respectively locked in the four locking holes. As a result, the additional device can be firmly connected to the terminal device 7. It should be noted that screw holes may be provided inside the locking holes 50a and 50b, and the additional device may be screwed. The screwing position may be anywhere, but, for example, the supporting portion of the additional device that contacts the back surface of the housing 50 and the flange portion 59 may be screwed. In other embodiments, the locking holes provided in the housing may be arranged in any manner.

また、端末装置7は、ハウジング50に対して着脱可能な電池蓋67を有している。電池蓋67の内側には電池(図11に示す電池85)が配置される。本実施形態においては、電池蓋67はハウジング50の裏側に設けられ、突起部(庇部59)の下側に設けられる。   Further, the terminal device 7 has a battery lid 67 that can be attached to and detached from the housing 50. A battery (battery 85 shown in FIG. 11) is disposed inside the battery lid 67. In the present embodiment, the battery lid 67 is provided on the back side of the housing 50 and is provided on the lower side of the protrusion (the flange 59).

また、端末装置7のハウジング50には、ストラップの紐を結びつけるための孔65aおよび65bが設けられる。図8(d)に示すように、本実施形態においては、孔65aおよび65bはハウジング50の下面に設けられる。また、本実施形態においては、2つの孔65aおよび65bがハウジング50の左右両側にそれぞれ1つずつ設けられる。すなわち、孔65aがハウジング50の下面の中央より左側に設けられ、孔65bがハウジング50の下面の中央より右側に設けられる。ユーザは、孔65aおよび65bのいずれかにストラップを結びつけ、ストラップを自身の手首に結びつけてもよい。これによって、万一ユーザが端末装置7を落としたり、端末装置7が手から離れたりした場合でも、端末装置7が落下したり他の物に衝突したりすることを防止することができる。なお、本実施形態においては、左右両側にそれぞれ孔が設けられるので、ユーザは、どちらの手にもストラップを結びつけることができ、便利である。   Further, the housing 50 of the terminal device 7 is provided with holes 65a and 65b for tying strap strings. As shown in FIG. 8D, in the present embodiment, the holes 65 a and 65 b are provided on the lower surface of the housing 50. In the present embodiment, two holes 65 a and 65 b are provided on each of the left and right sides of the housing 50. That is, the hole 65 a is provided on the left side from the center of the lower surface of the housing 50, and the hole 65 b is provided on the right side of the center of the lower surface of the housing 50. The user may tie a strap to either of the holes 65a and 65b and tie the strap to his / her wrist. Thereby, even if the user drops the terminal device 7 or the terminal device 7 is removed from the hand, the terminal device 7 can be prevented from dropping or colliding with another object. In the present embodiment, since the holes are provided on both the left and right sides, the user can tie the strap to either hand, which is convenient.

なお、図8〜図11に示した端末装置7に関して、各操作ボタンやハウジング50の形状や、各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。   In addition, regarding the terminal device 7 shown in FIGS. 8 to 11, the shapes of the operation buttons and the housing 50, the number of components, the installation positions, and the like are merely examples, and other shapes, numbers, and installation positions are provided. It may be.

次に、図11を参照して、端末装置7の内部構成について説明する。図11は、端末装置7の内部構成を示すブロック図である。図11に示すように、端末装置7は、図8に示した構成の他、タッチパネルコントローラ71、磁気センサ72、加速度センサ73、ジャイロセンサ74、ユーザインタフェースコントローラ(UIコントローラ)75、コーデックLSI76、スピーカ77、サウンドIC78、マイク79、無線モジュール80、アンテナ81、赤外線通信モジュール82、フラッシュメモリ83、電源IC84、および電池85を備える。これらの電子部品は、電子回路基板上に実装されてハウジング50内に収納される。   Next, the internal configuration of the terminal device 7 will be described with reference to FIG. FIG. 11 is a block diagram illustrating an internal configuration of the terminal device 7. As shown in FIG. 11, in addition to the configuration shown in FIG. 8, the terminal device 7 includes a touch panel controller 71, a magnetic sensor 72, an acceleration sensor 73, a gyro sensor 74, a user interface controller (UI controller) 75, a codec LSI 76, a speaker. 77, a sound IC 78, a microphone 79, a wireless module 80, an antenna 81, an infrared communication module 82, a flash memory 83, a power supply IC 84, and a battery 85. These electronic components are mounted on an electronic circuit board and stored in the housing 50.

UIコントローラ75は、各種の入出力部に対するデータの入出力を制御するための回路である。UIコントローラ75は、タッチパネルコントローラ71、アナログスティック53(アナログスティック53Aおよび53B)、操作ボタン54(各操作ボタン54A〜54L)、マーカ部55、磁気センサ72、加速度センサ73、およびジャイロセンサ74に接続される。また、UIコントローラ75は、コーデックLSI76と拡張コネクタ58に接続される。また、UIコントローラ75には電源IC84が接続され、UIコントローラ75を介して各部に電力が供給される。電源IC84には内蔵の電池85が接続され、電力が供給される。また、電源IC84には、外部電源から電力を取得可能な充電器86またはケーブルを充電コネクタを介して接続することが可能であり、端末装置7は、当該充電器86またはケーブルを用いて外部電源からの電力供給と充電を行うことができる。なお、端末装置7は、図示しない充電機能を有するクレイドルに端末装置7を装着することで充電を行うことも可能である。すなわち、図示しないが、電源IC84には、外部電源から電力を取得可能なクレイドルを充電端子66を介して接続することが可能であり、端末装置7は、クレイドルを用いて外部電源からの電力供給と充電を行うことができる。   The UI controller 75 is a circuit for controlling input / output of data to / from various input / output units. The UI controller 75 is connected to the touch panel controller 71, the analog stick 53 (analog sticks 53 </ b> A and 53 </ b> B), the operation buttons 54 (operation buttons 54 </ b> A to 54 </ b> L), the marker unit 55, the magnetic sensor 72, the acceleration sensor 73, and the gyro sensor 74. Is done. The UI controller 75 is connected to the codec LSI 76 and the extension connector 58. A power supply IC 84 is connected to the UI controller 75, and power is supplied to each unit via the UI controller 75. A built-in battery 85 is connected to the power supply IC 84 to supply power. In addition, a charger 86 or a cable that can acquire power from an external power source can be connected to the power supply IC 84 via a charging connector. The terminal device 7 can be connected to the external power source using the charger 86 or the cable. Power supply and charging from can be performed. The terminal device 7 can also be charged by mounting the terminal device 7 on a cradle having a charging function (not shown). That is, although not shown, a cradle capable of acquiring power from an external power source can be connected to the power supply IC 84 via the charging terminal 66, and the terminal device 7 supplies power from the external power source using the cradle. And can be charged.

タッチパネルコントローラ71は、タッチパネル52に接続され、タッチパネル52の制御を行う回路である。タッチパネルコントローラ71は、タッチパネル52からの信号に基づいて所定の形式のタッチ位置データを生成してUIコントローラ75へ出力する。タッチ位置データは、タッチパネル52の入力面において入力が行われた位置の座標を表す。なお、タッチパネルコントローラ71は、タッチパネル52からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。また、UIコントローラ75からタッチパネルコントローラ71へは、タッチパネル52に対する各種の制御指示が出力される。   The touch panel controller 71 is a circuit that is connected to the touch panel 52 and controls the touch panel 52. The touch panel controller 71 generates touch position data in a predetermined format based on a signal from the touch panel 52 and outputs it to the UI controller 75. The touch position data represents the coordinates of the position where the input has been performed on the input surface of the touch panel 52. The touch panel controller 71 reads a signal from the touch panel 52 and generates touch position data at a rate of once per predetermined time. Various control instructions for the touch panel 52 are output from the UI controller 75 to the touch panel controller 71.

アナログスティック53は、ユーザの指で操作されるスティック部がスライドした(または傾倒した)方向および量を表すスティックデータをUIコントローラ75へ出力する。また、操作ボタン54は、各操作ボタン54A〜54Lに対する入力状況(押下されたか否か)を表す操作ボタンデータをUIコントローラ75へ出力する。   The analog stick 53 outputs to the UI controller 75 stick data representing the direction and amount in which the stick unit operated by the user's finger has slid (or tilted). In addition, the operation button 54 outputs operation button data representing the input status (whether or not it has been pressed) to each of the operation buttons 54 </ b> A to 54 </ b> L to the UI controller 75.

磁気センサ72は、磁界の大きさおよび方向を検知することで方位を検出する。検出された方位を示す方位データは、UIコントローラ75へ出力される。また、UIコントローラ75から磁気センサ72へは、磁気センサ72に対する制御指示が出力される。磁気センサ72に関しては、MI(磁気インピーダンス)素子、フラックスゲートセンサ、ホール素子、GMR(巨大磁気抵抗)素子、TMR(トンネル磁気抵抗)素子、あるいはAMR(異方性磁気抵抗)素子等を用いたセンサがあるが、方位を検出することができればどのようなものが用いられてもよい。なお、厳密には、地磁気以外に磁界が発生している場所においては、得られた方位データは方位を示さないことになるが、そのような場合であっても、端末装置7が動いた場合には方位データが変化するため、端末装置7の姿勢の変化を算出することができる。   The magnetic sensor 72 detects the direction by detecting the magnitude and direction of the magnetic field. The azimuth data indicating the detected azimuth is output to the UI controller 75. In addition, a control instruction for the magnetic sensor 72 is output from the UI controller 75 to the magnetic sensor 72. For the magnetic sensor 72, an MI (magnetic impedance) element, a fluxgate sensor, a Hall element, a GMR (giant magnetoresistance) element, a TMR (tunnel magnetoresistance) element, an AMR (anisotropic magnetoresistance) element, or the like was used. Although there is a sensor, any sensor may be used as long as it can detect the direction. Strictly speaking, in a place where a magnetic field is generated in addition to the geomagnetism, the obtained azimuth data does not indicate the azimuth, but even in such a case, the terminal device 7 moves. Since the orientation data changes, the change in the attitude of the terminal device 7 can be calculated.

加速度センサ73は、ハウジング50の内部に設けられ、3軸(図8の(a)図に示すxyz軸)方向に沿った直線加速度の大きさを検出する。具体的には、加速度センサ73は、ハウジング50の長辺方向をx軸、ハウジング50の表面に対して垂直な方向をy軸、ハウジング50の短辺方向をz軸として、各軸の直線加速度の大きさを検出する。検出された加速度を表す加速度データはUIコントローラ75へ出力される。また、UIコントローラ75から加速度センサ73へは、加速度センサ73に対する制御指示が出力される。加速度センサ73は、本実施形態では例えば静電容量式のMEMS型加速度センサであるとするが、他の実施形態においては他の方式の加速度センサを用いるようにしてもよい。また、加速度センサ73は1軸または2軸方向を検出する加速度センサであってもよい。   The acceleration sensor 73 is provided inside the housing 50 and detects the magnitude of linear acceleration along the direction of three axes (xyz axes shown in FIG. 8A). Specifically, the acceleration sensor 73 has a linear acceleration of each axis with the long side direction of the housing 50 as the x axis, the direction perpendicular to the surface of the housing 50 as the y axis, and the short side direction of the housing 50 as the z axis. Detect the size of. Acceleration data representing the detected acceleration is output to the UI controller 75. A control instruction for the acceleration sensor 73 is output from the UI controller 75 to the acceleration sensor 73. The acceleration sensor 73 is, for example, a capacitive MEMS acceleration sensor in the present embodiment, but other types of acceleration sensors may be used in other embodiments. Further, the acceleration sensor 73 may be an acceleration sensor that detects a uniaxial or biaxial direction.

ジャイロセンサ74は、ハウジング50の内部に設けられ、上記x軸、y軸およびz軸の3軸周りの角速度を検出する。検出された角速度を表す角速度データは、UIコントローラ75へ出力される。また、UIコントローラ75からジャイロセンサ74へは、ジャイロセンサ74に対する制御指示が出力される。なお、3軸の角速度を検出するために用いられるジャイロセンサの数および組み合わせはどのようなものであってもよく、ジャイロセンサ74はジャイロセンサ48と同様、2軸ジャイロセンサと1軸ジャイロセンサとで構成されてもよい。また、ジャイロセンサ74は1軸または2軸方向を検出するジャイロセンサであってもよい。   The gyro sensor 74 is provided inside the housing 50 and detects angular velocities around the three axes of the x axis, the y axis, and the z axis. Angular velocity data representing the detected angular velocity is output to the UI controller 75. Further, a control instruction for the gyro sensor 74 is output from the UI controller 75 to the gyro sensor 74. Any number and combination of gyro sensors may be used to detect the three-axis angular velocity, and the gyro sensor 74 is similar to the gyro sensor 48 in that a two-axis gyro sensor, a one-axis gyro sensor, It may be constituted by. Further, the gyro sensor 74 may be a gyro sensor that detects a uniaxial or biaxial direction.

UIコントローラ75は、上記の各構成要素から受け取ったタッチ位置データ、スティックデータ、操作ボタンデータ、方位データ、加速度データ、および角速度データを含む操作データをコーデックLSI76へ出力する。なお、拡張コネクタ58を介して端末装置7に他の装置が接続される場合には、当該他の装置に対する操作を表すデータが上記操作データにさらに含まれていてもよい。   The UI controller 75 outputs operation data including touch position data, stick data, operation button data, azimuth data, acceleration data, and angular velocity data received from each of the above components to the codec LSI 76. When another device is connected to the terminal device 7 via the extension connector 58, the operation data may further include data representing an operation on the other device.

コーデックLSI76は、ゲーム装置3へ送信するデータに対する圧縮処理、および、ゲーム装置3から送信されたデータに対する伸張処理を行う回路である。コーデックLSI76には、LCD51、カメラ56、サウンドIC78、無線モジュール80、フラッシュメモリ83、および赤外線通信モジュール82が接続される。また、コーデックLSI76はCPU87と内部メモリ88を含む。端末装置7はゲーム処理自体を行なわない構成であるが、端末装置7の管理や通信のための最小限のプログラムを実行する必要がある。電源投入時にフラッシュメモリ83に格納されたプログラムを内部メモリ88に読み出してCPU87が実行することで、端末装置7が起動する。また、内部メモリ88の一部の領域はLCD51のためのVRAMとして使用される。   The codec LSI 76 is a circuit that performs compression processing on data transmitted to the game apparatus 3 and expansion processing on data transmitted from the game apparatus 3. The codec LSI 76 is connected to the LCD 51, the camera 56, the sound IC 78, the wireless module 80, the flash memory 83, and the infrared communication module 82. The codec LSI 76 includes a CPU 87 and an internal memory 88. Although the terminal device 7 is configured not to perform the game process itself, it is necessary to execute a minimum program for management and communication of the terminal device 7. When the power is turned on, the program stored in the flash memory 83 is read into the internal memory 88 and executed by the CPU 87, whereby the terminal device 7 is activated. A part of the internal memory 88 is used as a VRAM for the LCD 51.

カメラ56は、ゲーム装置3からの指示に従って画像を撮像し、撮像した画像データをコーデックLSI76へ出力する。また、コーデックLSI76からカメラ56へは、画像の撮像指示等、カメラ56に対する制御指示が出力される。なお、カメラ56は動画の撮影も可能である。すなわち、カメラ56は、繰り返し撮像を行って画像データをコーデックLSI76へ繰り返し出力することも可能である。   The camera 56 captures an image in accordance with an instruction from the game apparatus 3 and outputs the captured image data to the codec LSI 76. Control instructions for the camera 56 such as an image capturing instruction are output from the codec LSI 76 to the camera 56. Note that the camera 56 can also capture moving images. That is, the camera 56 can repeatedly capture images and repeatedly output image data to the codec LSI 76.

サウンドIC78は、スピーカ77およびマイク79に接続され、スピーカ77およびマイク79への音声データの入出力を制御する回路である。すなわち、コーデックLSI76から音声データを受け取った場合、サウンドIC78は当該音声データに対してD/A変換を行って得られる音声信号をスピーカ77へ出力し、スピーカ77から音を出力させる。また、マイク79は、端末装置7に伝わる音(ユーザの音声等)を検知して、当該音を示す音声信号をサウンドIC78へ出力する。サウンドIC78は、マイク79からの音声信号に対してA/D変換を行い、所定の形式の音声データをコーデックLSI76へ出力する。   The sound IC 78 is a circuit that is connected to the speaker 77 and the microphone 79 and controls input / output of audio data to and from the speaker 77 and the microphone 79. That is, when audio data is received from the codec LSI 76, the sound IC 78 outputs an audio signal obtained by performing D / A conversion on the audio data to the speaker 77, and outputs sound from the speaker 77. The microphone 79 detects a sound (such as a user's voice) transmitted to the terminal device 7 and outputs a sound signal indicating the sound to the sound IC 78. The sound IC 78 performs A / D conversion on the audio signal from the microphone 79 and outputs audio data in a predetermined format to the codec LSI 76.

赤外線通信モジュール82は、赤外線信号を発光し、他の装置との間で赤外線通信を行う。ここでは、赤外線通信モジュール82は、例えばIrDAの規格に従った赤外線通信を行う機能と、テレビ2を制御するための赤外線信号(制御信号)を出力する機能とを備える。   The infrared communication module 82 emits an infrared signal and performs infrared communication with other devices. Here, the infrared communication module 82 includes, for example, a function of performing infrared communication according to the IrDA standard and a function of outputting an infrared signal (control signal) for controlling the television 2.

コーデックLSI76は、カメラ56からの画像データ、マイク79からの音声データ、および、UIコントローラ75からの操作データを、端末操作データとして無線モジュール80を介してゲーム装置3へ送信する。本実施形態では、コーデックLSI76は、画像データおよび音声データに対して、コーデックLSI27と同様の圧縮処理を行う。上記端末操作データ、ならびに、圧縮された画像データおよび音声データは、送信データとして無線モジュール80へ出力される。無線モジュール80にはアンテナ81が接続されており、無線モジュール80はアンテナ81を介してゲーム装置3へ上記送信データを送信する。無線モジュール80は、ゲーム装置3の端末通信モジュール28と同様の機能を有している。すなわち、無線モジュール80は、例えばIEEE802.11nの規格に準拠した方式により、無線LANに接続する機能を有する。送信されるデータは必要に応じて暗号化されていてもよいし、されていなくともよい。   The codec LSI 76 transmits the image data from the camera 56, the audio data from the microphone 79, and the operation data from the UI controller 75 to the game apparatus 3 via the wireless module 80 as terminal operation data. In the present embodiment, the codec LSI 76 performs the same compression processing as the codec LSI 27 on the image data and the audio data. The terminal operation data and the compressed image data and audio data are output to the wireless module 80 as transmission data. An antenna 81 is connected to the wireless module 80, and the wireless module 80 transmits the transmission data to the game apparatus 3 via the antenna 81. The wireless module 80 has the same function as the terminal communication module 28 of the game apparatus 3. That is, the wireless module 80 has a function of connecting to a wireless LAN by a method compliant with, for example, the IEEE 802.11n standard. The data to be transmitted may or may not be encrypted as necessary.

以上のように、端末装置7からゲーム装置3へ送信される送信データには、操作データ(端末操作データ)、画像データ、および音声データが含まれる。なお、拡張コネクタ58を介して端末装置7に他の装置が接続される場合には、当該他の装置から受け取ったデータが上記送信データにさらに含まれていてもよい。コーデックLSI76は、赤外線通信モジュール82による赤外線通信によって受信したデータを、必要に応じて上記送信データに含めてゲーム装置3へ送信してもよい。   As described above, the transmission data transmitted from the terminal device 7 to the game apparatus 3 includes operation data (terminal operation data), image data, and audio data. When another device is connected to the terminal device 7 via the extension connector 58, the data received from the other device may be further included in the transmission data. The codec LSI 76 may transmit the data received by the infrared communication by the infrared communication module 82 to the game apparatus 3 by including the data in the transmission data as necessary.

また、上述のように、ゲーム装置3から端末装置7へは、圧縮された画像データおよび音声データが送信される。これらのデータはアンテナ81(受信部)で受信され、無線モジュール80を介してコーデックLSI76に送られる。コーデックLSI76は、受信された画像データおよび音声データを伸張する。伸張された画像データはLCD51へ出力され、画像がLCD51に表示される。つまり、コーデックLSI76(CPU87)は、受信された画像データを表示部に表示させる。また、伸張された音声データはサウンドIC78へ出力され、サウンドIC78はスピーカ77から音を出力させる。   Further, as described above, compressed image data and audio data are transmitted from the game apparatus 3 to the terminal apparatus 7. These data are received by the antenna 81 (receiving unit) and sent to the codec LSI 76 via the wireless module 80. The codec LSI 76 decompresses the received image data and audio data. The expanded image data is output to the LCD 51, and the image is displayed on the LCD 51. That is, the codec LSI 76 (CPU 87) displays the received image data on the display unit. The expanded audio data is output to the sound IC 78, and the sound IC 78 outputs sound from the speaker 77.

また、ゲーム装置3から受信されるデータに制御データが含まれる場合、コーデックLSI76およびUIコントローラ75は、制御データに従った制御指示を各部に行う。上述のように、制御データは、端末装置7が備える各構成要素(本実施形態では、カメラ56、タッチパネルコントローラ71、マーカ部55、各センサ62〜64、および赤外線通信モジュール82)に対する制御指示を表すデータである。本実施形態では、制御データが表す制御指示としては、上記各構成要素を動作させたり、動作を休止(停止)させたりする指示が考えられる。すなわち、ゲームで使用しない構成要素については電力消費を抑えるために休止させてもよく、その場合、端末装置7からゲーム装置3へ送信される送信データには、休止した構成要素からのデータが含まれないようにする。なお、マーカ部55は赤外LEDであるので、制御は単に電力の供給のON/OFFでよい。   When the control data is included in the data received from the game apparatus 3, the codec LSI 76 and the UI controller 75 issue a control instruction to each unit according to the control data. As described above, the control data is a control instruction for each component (in this embodiment, the camera 56, the touch panel controller 71, the marker unit 55, the sensors 62 to 64, and the infrared communication module 82) included in the terminal device 7. It is data to represent. In the present embodiment, as the control instruction represented by the control data, an instruction to operate each of the above components or to stop (stop) the operation can be considered. That is, components that are not used in the game may be paused in order to reduce power consumption. In that case, the transmission data transmitted from the terminal device 7 to the game device 3 includes data from the paused components. Do not let it. In addition, since the marker part 55 is infrared LED, control may just be ON / OFF of supply of electric power.

また、ゲーム装置3は、上記赤外線通信モジュール82の出力を制御することによって、テレビ2の動作を制御することが可能である。すなわち、ゲーム装置3は、テレビ2を制御するための制御指令に対応する赤外線信号を赤外線通信モジュール82に出力させるための指示(上記制御データ)を端末装置7へ出力する。この指示に応じて、コーデックLSI76は、上記制御指令に対応する赤外線信号を赤外線通信モジュール82に出力させる。ここで、テレビ2は赤外線信号を受光可能な赤外線受光部を備えている。赤外線通信モジュール82から出力された赤外線信号が赤外線受光部によって受光されることで、テレビ2は当該赤外線信号に応じた動作を行う。なお、ゲーム装置3からの上記指示は、赤外線信号のパターンを示すものであってもよいし、端末装置7が赤外線信号のパターンを記憶している場合には、当該パターンを示す指示であってもよい。   The game apparatus 3 can control the operation of the television 2 by controlling the output of the infrared communication module 82. That is, the game apparatus 3 outputs an instruction (the control data) for causing the infrared communication module 82 to output an infrared signal corresponding to a control command for controlling the television 2 to the terminal apparatus 7. In response to this instruction, the codec LSI 76 causes the infrared communication module 82 to output an infrared signal corresponding to the control command. Here, the television 2 includes an infrared light receiving unit capable of receiving an infrared signal. When the infrared signal output from the infrared communication module 82 is received by the infrared light receiving unit, the television 2 performs an operation according to the infrared signal. The instruction from the game apparatus 3 may indicate an infrared signal pattern, or when the terminal device 7 stores an infrared signal pattern, the instruction indicates the pattern. Also good.

以上のように、端末装置7は、タッチパネル52、アナログスティック53、および操作ボタン54といった操作手段を備えるが、他の実施形態においては、これらの操作手段に代えて、または、これらの操作手段とともに、他の操作手段を備える構成であってもよい。   As described above, the terminal device 7 includes operation means such as the touch panel 52, the analog stick 53, and the operation button 54. However, in other embodiments, instead of these operation means or together with these operation means. The configuration may include other operation means.

また、端末装置7は、端末装置7の動き(位置や姿勢、あるいは、位置や姿勢の変化を含む)を算出するためのセンサとして、磁気センサ72、加速度センサ73、およびジャイロセンサ74を備えるが、他の実施形態においては、これらのセンサのうち1つまたは2つのみを備える構成であってもよい。また、他の実施形態においては、これらのセンサに代えて、または、これらのセンサとともに、他のセンサを備える構成であってもよい。   In addition, the terminal device 7 includes a magnetic sensor 72, an acceleration sensor 73, and a gyro sensor 74 as sensors for calculating the movement of the terminal device 7 (including changes in position and posture, or position and posture). In other embodiments, the configuration may include only one or two of these sensors. Moreover, in other embodiment, it may replace with these sensors or the structure provided with another sensor with these sensors may be sufficient.

また、端末装置7は、カメラ56およびマイク79を備える構成であるが、他の実施形態においては、カメラ56およびマイク79を備えていなくてもよく、また、いずれか一方のみを備えていてもよい。   The terminal device 7 includes the camera 56 and the microphone 79. However, in other embodiments, the terminal device 7 may not include the camera 56 and the microphone 79, or may include only one of them. Good.

また、端末装置7は、端末装置7とコントローラ5との位置関係(コントローラ5から見た端末装置7の位置および/または姿勢等)を算出するための構成としてマーカ部55を備える構成であるが、他の実施形態ではマーカ部55を備えていない構成としてもよい。また、他の実施形態では、端末装置7は、上記位置関係を算出するための構成として他の手段を備えていてもよい。例えば、他の実施形態においては、コントローラ5がマーカ部を備え、端末装置7が撮像素子を備える構成としてもよい。さらにこの場合、マーカ装置6は赤外LEDに代えて、撮像素子を備える構成としてもよい。   Further, the terminal device 7 is configured to include the marker unit 55 as a configuration for calculating the positional relationship between the terminal device 7 and the controller 5 (the position and / or orientation of the terminal device 7 viewed from the controller 5). In other embodiments, the marker unit 55 may not be provided. In another embodiment, the terminal device 7 may include other means as a configuration for calculating the positional relationship. For example, in another embodiment, the controller 5 may include a marker unit, and the terminal device 7 may include an image sensor. Furthermore, in this case, the marker device 6 may be configured to include an imaging element instead of the infrared LED.

(ゲームシステムと外部装置との接続構成)
図12は、ゲームシステム1と外部装置との接続関係と示すブロック図である。図12に示すように、ゲームシステム1におけるゲーム装置3は、ネットワーク90を介して外部装置91と通信可能である。ネットワーク90は、インターネット等の任意の通信ネットワークである。外部装置91は、Webサーバや、ゲーム装置3と通信を行う他の端末装置(例えば、通信ゲームを行う場合における相手先のゲーム装置等)である。なお、外部装置91は1つである必要はなく、ゲーム装置3は、複数の外部装置と通信を行ってもよい。ゲーム装置3は、ネットワーク90と通信を行い、ネットワーク90を介して外部装置91からウェブページや、各種アプリケーションや、ゲームデータ等を取得する。取得され画像情報、あるいは、取得された情報に基づいて生成される画像等は、ゲーム装置3から端末装置7および/またはテレビ2へ出力される。ゲームシステム1は、2つの表示装置に各種の画像を表示することができる。
(Connection configuration between game system and external device)
FIG. 12 is a block diagram showing a connection relationship between the game system 1 and an external device. As shown in FIG. 12, the game device 3 in the game system 1 can communicate with an external device 91 via a network 90. The network 90 is an arbitrary communication network such as the Internet. The external device 91 is a Web server or another terminal device that communicates with the game device 3 (for example, a counterpart game device in the case of performing a communication game). Note that the number of external devices 91 is not necessarily one, and the game apparatus 3 may communicate with a plurality of external devices. The game apparatus 3 communicates with the network 90 and acquires web pages, various applications, game data, and the like from the external apparatus 91 via the network 90. The acquired image information or an image generated based on the acquired information is output from the game device 3 to the terminal device 7 and / or the television 2. The game system 1 can display various images on two display devices.

[5.ゲームシステムにおける動作の概要]
次に、ゲームシステム1において実行される動作の概要について説明する。本実施形態においては、ゲームシステム1は、ゲームプログラム(ゲームアプリケーション)を含む各種のアプリケーションの実行と、テレビ2に対する操作(およびテレビの番組表の表示)と、ウェブページの表示とを行うことができる。また、ゲームシステム1は、以下に示す動作によって、ゲームシステム1においてテレビを用いる状態(ゲームシステム1において生成された画像がテレビ2に表示される状態)と、ゲームシステム1以外の用途でテレビを用いる状態(ゲームシステム1において生成された画像とは別の画像がテレビ2に表示される状態)との間の切り替え操作を操作性良く行うことを可能とするものである。
[5. Outline of operation in game system]
Next, an outline of operations executed in the game system 1 will be described. In the present embodiment, the game system 1 can execute various applications including a game program (game application), perform operations on the television 2 (and display a TV program guide), and display a web page. it can. In addition, the game system 1 operates in the state where the television is used in the game system 1 (a state where an image generated in the game system 1 is displayed on the television 2) and the television for other purposes than the game system 1 by the following operations. It is possible to perform a switching operation between the state to be used (a state in which an image different from the image generated in the game system 1 is displayed on the television 2) with good operability.

図13は、ゲームシステム1における動作状態の遷移を表す状態遷移図である。図13に示すように、ゲームシステム1(ゲーム装置3)が起動すると、まず、ゲームシステム1は開始状態となる。開始状態とは、ゲームシステム1の起動後において端末装置7に所定の操作画像が表示される状態である。ここで、所定の操作画像は、端末装置7を用いるユーザが操作を行うための画像であればどのようなものであってもよい。本実施形態においては、後述するアプリケーション選択画像(以下、「アプリ選択画像」と記載する)、装置制御画像、およびブラウザ画像のいずれかが所定の操作画像として端末装置7に表示される。なお、他の実施形態においては、3種類の画像のうち複数の画像が同時に(例えば、表示領域が複数に分割されることによって)端末装置7に表示されてもよい。また、以下では、開始状態において表示される操作画像を、後述する中断状態において表示される操作画像と区別する目的で「メイン操作画像」と呼ぶことがある。   FIG. 13 is a state transition diagram showing the transition of the operation state in the game system 1. As shown in FIG. 13, when the game system 1 (game device 3) is activated, first, the game system 1 enters a start state. The start state is a state in which a predetermined operation image is displayed on the terminal device 7 after the game system 1 is activated. Here, the predetermined operation image may be any image as long as the user using the terminal device 7 performs an operation. In the present embodiment, any of an application selection image (hereinafter referred to as “application selection image”), a device control image, and a browser image, which will be described later, is displayed on the terminal device 7 as a predetermined operation image. In another embodiment, a plurality of images of the three types of images may be displayed on the terminal device 7 simultaneously (for example, by dividing the display area into a plurality of images). Hereinafter, the operation image displayed in the start state may be referred to as a “main operation image” for the purpose of distinguishing it from an operation image displayed in the interruption state described later.

なお、上記「開始状態」は、ゲーム装置3の起動後、アプリケーションの選択が可能となった状態のことであり、起動直後に限られない。たとえば、起動直後には所定時間所定の画像を表示し、その後に開始状態となってもよいし、所定のアプリケーションを実行し、その終了後に再度開始状態に戻ってもよい。   Note that the “start state” is a state in which an application can be selected after the game apparatus 3 is activated, and is not limited to immediately after activation. For example, a predetermined image may be displayed for a predetermined time immediately after activation, and then may be in a start state, or a predetermined application may be executed and then returned to the start state after the end.

上記開始状態では、所定のメイン操作画像が端末装置7に表示され、また、ゲームシステムにおける操作は端末装置7を用いて行われる。すなわち、操作装置である端末装置7は、操作装置に対する操作を表す操作データ(端末操作データ)を出力する操作部を備えている。また、端末装置7は、ゲーム装置3から出力される画像を受信する受信部(アンテナ81および無線モジュール80)と、受信された画像を表示する表示部(LCD51)とを備えている。一方、ゲーム装置3は、上記操作データを取得する取得部を備えており、上記開始状態において、上記メイン操作画像を生成する。さらに、ゲーム装置3は、メイン操作画像を端末装置7へ出力する。   In the start state, a predetermined main operation image is displayed on the terminal device 7, and operations in the game system are performed using the terminal device 7. That is, the terminal device 7 that is an operation device includes an operation unit that outputs operation data (terminal operation data) representing an operation on the operation device. The terminal device 7 also includes a receiving unit (antenna 81 and wireless module 80) that receives an image output from the game device 3, and a display unit (LCD 51) that displays the received image. On the other hand, the game apparatus 3 includes an acquisition unit that acquires the operation data, and generates the main operation image in the start state. Furthermore, the game apparatus 3 outputs the main operation image to the terminal device 7.

なお、本実施形態においては、図13に示すように、開始状態は、メニュー状態、第1テレビ操作状態、およびブラウザ状態を含む。メニュー状態は、各種のアプリケーションを選択して実行することが可能な状態(モード)である。第1テレビ操作状態は、テレビ2に対する操作を行うことが可能な状態(モード)である。ブラウザ状態は、ウェブページを表示することが可能な状態(モード)である。詳細は後述するが、メニュー状態においてはアプリ選択画像(図17)が、第1テレビ操作状態においては装置制御画像(図19)が、ブラウザ状態においてはブラウザ画像(図21)が、それぞれ端末装置7に表示される。なお、アプリ選択画像は、ゲーム装置3が実行可能なアプリケーションを選択するための操作画像である。装置制御画像は、テレビ2に対する操作(制御)を行うための操作画像である。ブラウザ画像は、ネットワーク90を介して取得されるウェブページを含む操作画像である。なお、開始状態においては、端末装置7に所定の操作画像(メイン操作画像)が表示されればよく、他の実施形態においては、開始状態においては1種類の画像のみが常に表示される構成であってもよい。   In the present embodiment, as shown in FIG. 13, the start state includes a menu state, a first television operation state, and a browser state. The menu state is a state (mode) in which various applications can be selected and executed. The first television operation state is a state (mode) in which an operation on the television 2 can be performed. The browser state is a state (mode) in which a web page can be displayed. Although details will be described later, the application selection image (FIG. 17) in the menu state, the device control image (FIG. 19) in the first television operation state, and the browser image (FIG. 21) in the browser state are respectively terminal devices. 7 is displayed. The application selection image is an operation image for selecting an application that can be executed by the game apparatus 3. The device control image is an operation image for performing an operation (control) on the television 2. The browser image is an operation image including a web page acquired via the network 90. In the start state, a predetermined operation image (main operation image) may be displayed on the terminal device 7, and in another embodiment, only one type of image is always displayed in the start state. There may be.

また、ゲームシステム1が起動して開始状態となる場合、ゲームシステム1は上記3つの状態(メニュー状態、第1テレビ操作状態、およびブラウザ状態)のうちのいずれかの状態となる。なお、ゲームシステム1の起動直後の状態はどのように決定されてもよい。本実施形態においては、前回にゲームシステム1の電源がオフにされた時点における状態が、起動直後の状態として設定される。また、詳細は後述するが、ゲームシステム1は、上記3つの状態のうちのいずれかの状態から他の2つの状態へ、所定の変更操作に応じて遷移することが可能である(図13参照)。つまり、ユーザは、アプリ選択画像と、装置制御画像と、ブラウザ画像とのうちで端末装置7に表示させる操作画像を、変更操作によって容易に切り替えることができる。   Further, when the game system 1 is activated and enters a start state, the game system 1 is in any one of the above three states (menu state, first television operation state, and browser state). Note that the state immediately after the game system 1 is activated may be determined in any way. In the present embodiment, the state at the time when the power of the game system 1 was turned off last time is set as the state immediately after startup. Although details will be described later, the game system 1 can transition from one of the three states to the other two states according to a predetermined change operation (see FIG. 13). ). That is, the user can easily switch the operation image to be displayed on the terminal device 7 among the application selection image, the device control image, and the browser image by the change operation.

ここで、上記開始状態のうちのメニュー状態では、ユーザは、端末装置7を用いて、ゲームプログラムを含む各種のアプリケーションのうちから1つを選択して実行することができる。また、上記開始状態のうちの第1テレビ操作状態では、ユーザは、テレビ2に対する操作を端末装置7を用いて行うことができる。すなわち、ゲーム装置3は、開始状態において、選択指示があったか否か、および、制御指示があったか否かを端末操作データに基づいて判定する(後述するステップS14およびS23)。選択指示とは、ゲームアプリケーションを含み、ゲーム装置3が実行可能な1以上のアプリケーションのうちから1つを選択する指示である。また、制御指示とは、テレビ2に対する制御を行う指示である。上記選択指示があった場合、ゲーム装置3は、選択されたアプリケーションを実行し、アプリケーションの実行によって生成された画像を、端末装置7およびテレビ2の少なくとも一方へ出力する(後述するステップS15)。また、上記制御指示があった場合、ゲーム装置3は、当該制御指示に応じた制御をテレビ2に対して行う(後述するステップS24)。   Here, in the menu state in the start state, the user can select and execute one of various applications including the game program using the terminal device 7. In the first television operation state in the start state, the user can perform an operation on the television 2 using the terminal device 7. That is, the game apparatus 3 determines whether or not there has been a selection instruction and whether or not there has been a control instruction in the start state (steps S14 and S23 to be described later). The selection instruction is an instruction to select one of one or more applications that can be executed by the game apparatus 3 including a game application. The control instruction is an instruction to perform control on the television 2. When there is the selection instruction, the game apparatus 3 executes the selected application and outputs an image generated by executing the application to at least one of the terminal device 7 and the television 2 (step S15 described later). Further, when there is the control instruction, the game apparatus 3 performs control according to the control instruction on the television 2 (step S24 described later).

以上より、本実施形態においては、開始状態においては、端末装置7に操作画像(メイン操作画像)が表示されるので、ユーザは端末装置7の画面を見ることでゲームシステム1に対する操作を行うことが可能であり、また、テレビ2にはテレビ番組等、他の画像を表示することが可能である。したがって、ユーザは、テレビ番組を見ながらゲームシステム1を使用することができる。例えば、ユーザは、テレビ2の画面でテレビ番組を見ながら、端末装置7の操作画像を見て実行したいアプリケーションを選択することも可能である。また、開始状態において、ユーザは、端末装置7を用いてテレビ2に対する操作を行うことが可能である。ユーザは、端末装置7を用いてゲームシステム1に対する操作とテレビ2に対する操作とを行うことができるので、ゲームシステム1においてテレビを用いる状態と、ゲームシステム1以外の用途でテレビを用いる状態との間の切り替え操作を容易に行うことができる。例えば、本実施形態においては装置制御画像としてテレビの番組表(電子番組表)が表示されるので、ユーザは、ゲームシステム1を起動して番組表を端末装置7に表示させ、表示された番組表から見たいテレビ番組を選んでテレビ2に表示させる一連の操作を、端末装置7のみで行うことができる。以上のように、本実施形態においては、端末装置7によって、上記の切り替え操作の操作性を向上することができる。   As described above, in the present embodiment, since the operation image (main operation image) is displayed on the terminal device 7 in the start state, the user performs an operation on the game system 1 by looking at the screen of the terminal device 7. In addition, the TV 2 can display other images such as a TV program. Therefore, the user can use the game system 1 while watching a television program. For example, the user can select an application to be executed while viewing the operation image of the terminal device 7 while watching the television program on the screen of the television 2. In the start state, the user can operate the television 2 using the terminal device 7. Since the user can perform an operation on the game system 1 and an operation on the television 2 using the terminal device 7, a state where the television is used in the game system 1 and a state where the television is used for purposes other than the game system 1 Switching operation between them can be easily performed. For example, in the present embodiment, a television program guide (electronic program guide) is displayed as a device control image. Therefore, the user activates the game system 1 to display the program guide on the terminal device 7 and displays the displayed program. A series of operations for selecting a television program to be viewed from the table and displaying it on the television 2 can be performed only by the terminal device 7. As described above, in the present embodiment, the terminal device 7 can improve the operability of the switching operation.

なお、本実施形態においては、ゲーム装置3は、上記アプリ選択画像と装置制御画像とを切り替えて端末装置7に表示させるようにしているが、他の実施形態においては、アプリ選択画像と装置制御画像とを同時に端末装置7に表示させるようにしてもよい。これによれば、ユーザは、上記選択指示が可能な状態(メニュー状態)と、制御指示が可能な状態(第1テレビ操作状態)との間で状態を遷移させるための操作(上記変更操作)を行わずに、これら2つの指示を自由に行うことができる。また、他の実施形態においては、ゲーム装置3は、上記アプリ選択画像が表示されるメニュー状態においてユーザが上記制御指示を行うことができるようにしてもよいし、上記装置制御画像が表示される第1テレビ操作状態においてユーザが上記選択指示を行うことができるようにしてもよい。これによっても、ユーザは、上記変更操作を行うことなく、上記2つの指示を自由に行うことができる。   In the present embodiment, the game apparatus 3 switches the application selection image and the device control image to be displayed on the terminal device 7. However, in other embodiments, the game apparatus 3 displays the application selection image and the device control image. The image may be displayed on the terminal device 7 at the same time. According to this, the user performs an operation (the change operation) for changing the state between a state where the selection instruction can be made (menu state) and a state where the control instruction can be made (first television operation state). These two instructions can be performed freely without performing the above. In another embodiment, the game apparatus 3 may allow a user to issue the control instruction in a menu state where the application selection image is displayed, or the apparatus control image is displayed. The user may be able to give the selection instruction in the first television operation state. Also by this, the user can freely give the two instructions without performing the changing operation.

また、ゲーム装置3は、開始状態において、ウェブページを表示する表示指示があったか否かをさらに判定する(後述するステップS17,S26)。表示指示があった場合、ゲームシステム1はブラウザ状態へ遷移する(図13参照)。この場合、ゲーム装置3は、ネットワーク90と通信を行う外部通信部(ネットワーク通信モジュール18)を介してネットワーク90から取得されるデータに基づいて生成されるブラウザ画像を、端末装置7およびテレビ2の少なくとも一方へ出力する(後述するステップS31,S35)。つまり、ゲーム装置3は、上記表示指示があったことに応じて、ウェブページを含むブラウザ画像を端末装置7および/またはテレビ2に表示させる。このように、本実施形態においては、ユーザは開始状態においてウェブページを閲覧することも可能である。   In addition, the game apparatus 3 further determines whether or not there is a display instruction for displaying a web page in the start state (steps S17 and S26 described later). When there is a display instruction, the game system 1 transitions to a browser state (see FIG. 13). In this case, the game apparatus 3 generates a browser image generated based on data acquired from the network 90 via an external communication unit (network communication module 18) that communicates with the network 90 on the terminal device 7 and the television 2. Output to at least one (steps S31 and S35 described later). That is, the game device 3 displays a browser image including a web page on the terminal device 7 and / or the television 2 in response to the display instruction. Thus, in this embodiment, the user can also browse the web page in the start state.

また、メニュー状態において、アプリケーションを選択する操作が端末装置7を用いて行われると、ゲーム装置3は、選択されたアプリケーションを実行する。すなわち、ゲーム装置3は、ゲーム装置3が実行可能なアプリケーションを表す画像(アイコン等)を含むメイン操作画像(上記アプリ選択画像)を生成して端末装置7へ出力する。そして、メイン操作画像が表示される状態において、実行すべきアプリケーションが選択された場合、選択されたアプリケーションを実行する。これによって、図13に示すように、ゲームシステム1はアプリ実行状態へ遷移する。さらに、ゲーム装置3は、アプリケーションの実行によって生成された画像を、端末装置7およびテレビ2の少なくとも一方へ出力する。なお、2つの表示装置のうちでのどちらに(あるいは両方に)画像を出力するかは、実行されるアプリケーションによって異なり、どのように決められてもよい。   In addition, when an operation for selecting an application is performed using the terminal device 7 in the menu state, the game apparatus 3 executes the selected application. That is, the game apparatus 3 generates a main operation image (the application selection image) including an image (an icon or the like) representing an application that can be executed by the game apparatus 3 and outputs the main operation image to the terminal device 7. Then, when an application to be executed is selected in a state where the main operation image is displayed, the selected application is executed. Thereby, as shown in FIG. 13, the game system 1 transits to the application execution state. Furthermore, the game device 3 outputs an image generated by executing the application to at least one of the terminal device 7 and the television 2. It should be noted that which of the two display devices (or both) outputs the image depends on the application to be executed and may be determined in any way.

上記アプリ実行状態において、端末装置7に対して所定の中断操作が行われると、ゲームシステム1は中断状態へ遷移する(図13参照)。中断状態は、実行中のアプリケーションの利用が中断された状態である。ゲーム装置3は、アプリケーションの実行中において端末装置7に対して所定の中断操作が行われた場合、所定の操作画像を生成して端末装置7へ出力する(後述するステップS44)。この所定の操作画像は、端末装置7を用いるユーザが操作を行うための画像であればどのようなものであってもよい。本実施形態においては、後述する設定画像(図23)あるいはリモコン画像(図24)が所定の操作画像として端末装置7に表示される。なお、他の実施形態においては、1種類の操作画像のみが端末装置7に表示されてもよいし、上記2種類の画像が同時に端末装置7に表示されてもよい。また、以下では、中断状態において表示される操作画像を「サブ操作画像」と呼ぶ。   When a predetermined interruption operation is performed on the terminal device 7 in the application execution state, the game system 1 transitions to the interruption state (see FIG. 13). The suspended state is a state in which use of a running application is suspended. When a predetermined interruption operation is performed on the terminal device 7 during the execution of the application, the game device 3 generates a predetermined operation image and outputs it to the terminal device 7 (step S44 described later). The predetermined operation image may be any image as long as the user using the terminal device 7 performs an operation. In the present embodiment, a setting image (FIG. 23) or a remote control image (FIG. 24) described later is displayed on the terminal device 7 as a predetermined operation image. In another embodiment, only one type of operation image may be displayed on the terminal device 7 or the two types of images may be displayed on the terminal device 7 at the same time. Hereinafter, the operation image displayed in the suspended state is referred to as a “sub-operation image”.

上記中断状態は、設定状態と、第2テレビ操作状態を含む。本実施形態においては、アプリ実行状態から中断状態へと遷移した場合、ゲームシステム1はまず設定状態へ遷移する。設定状態は、上記設定画像が表示される状態である。詳細は後述するが、設定画像は、ゲームシステム1に関する各種の設定操作を行うための操作画像である。なお、中断状態においては、端末装置7に所定のサブ操作画像が表示されればよく、他の実施形態においては、中断状態においては上記2種類の画像のうち1種類の画像のみが常に表示される構成であってもよい。   The interruption state includes a setting state and a second television operation state. In the present embodiment, when the application execution state transitions to the suspended state, the game system 1 first transitions to the set state. The setting state is a state in which the setting image is displayed. Although the details will be described later, the setting image is an operation image for performing various setting operations related to the game system 1. In the interrupted state, it is only necessary to display a predetermined sub-operation image on the terminal device 7. In other embodiments, only one type of the two types of images is always displayed in the interrupted state. It may be a configuration.

本実施形態においては、設定状態において所定の操作が行われると、ゲームシステム1は第2テレビ操作状態へ遷移する。第2テレビ操作状態は、上記リモコン画像が表示される状態である。詳細は後述するが、リモコン画像は、テレビ2に対する操作を行うための操作画像であり、テレビ2に対する操作を表すボタン画像等を含む操作画像である。第2テレビ操作状態は、端末装置7を用いてテレビ2に対する操作が可能となる状態である。なお、第2テレビ操作状態において所定の操作が行われると、ゲームシステム1は第2テレビ操作状態から設定状態へ遷移する。つまり、ユーザは、設定状態と第2テレビ操作状態とを所定の操作によって自由に遷移させることができる(図13参照)。   In the present embodiment, when a predetermined operation is performed in the set state, the game system 1 transitions to the second television operation state. The second television operation state is a state in which the remote control image is displayed. Although details will be described later, the remote control image is an operation image for performing an operation on the television 2, and is an operation image including a button image representing an operation on the television 2. The second television operation state is a state in which an operation on the television 2 can be performed using the terminal device 7. Note that when a predetermined operation is performed in the second television operation state, the game system 1 transitions from the second television operation state to the setting state. That is, the user can freely transition between the setting state and the second television operation state by a predetermined operation (see FIG. 13).

以上のように、本実施形態においては、中断状態において、ユーザはテレビ2に対する操作を行うことができる。すなわち、ゲーム装置3は、上記サブ操作画像が端末装置7に表示される状態において、テレビ2に対する制御を行う制御指示があったか否かを端末操作データに基づいて判定する。そして、制御指示があった場合、当該制御指示に応じた制御をテレビ2に対して行う。したがって、本実施形態においては、ユーザは、ゲームシステム1においてアプリケーションを用いている際に、アプリケーションの実行を終了しなくても、テレビ2に対する操作を行うことができる。これによれば、ゲームシステム1においてテレビを用いる状態と、ゲームシステム1以外の用途でテレビを用いる状態との間の切り替え操作がより容易になる。例えば、ユーザは、アプリケーションの実行途中でテレビ番組を視聴したり、その後アプリケーションを再開したりする操作を、端末装置7を用いて容易に行うことができる。   As described above, in the present embodiment, the user can perform an operation on the television 2 in the interrupted state. That is, the game apparatus 3 determines whether there is a control instruction for controlling the television 2 in a state where the sub operation image is displayed on the terminal apparatus 7 based on the terminal operation data. When there is a control instruction, the television 2 is controlled according to the control instruction. Therefore, in the present embodiment, when the application is used in the game system 1, the user can perform an operation on the television 2 without ending the execution of the application. According to this, the switching operation between the state in which the television is used in the game system 1 and the state in which the television is used for purposes other than the game system 1 becomes easier. For example, the user can easily perform an operation of watching a television program during the execution of the application or restarting the application thereafter using the terminal device 7.

また、本実施形態においては、上記中断状態において、実行中のアプリケーションを終了する終了指示と、アプリケーションの実行を再開する再開指示とが可能である。すなわち、中断状態において再開指示があった場合、ゲーム装置3はアプリケーションの実行を再開する。これによって、ゲームシステム1はアプリ実行状態へ遷移する(図13参照)。また、中断状態において終了指示があった場合、ゲーム装置3はアプリケーションの実行を終了する。これによって、ゲームシステム1は開始状態へ遷移する(図13参照)。なお、本実施形態においては、上記の場合、ゲームシステムは図13に示すようにメニュー状態へ遷移するものとするが、他の実施形態においては、ゲームシステム1は第1テレビ操作状態あるいはブラウザ状態へ遷移してもよい。また、他の実施形態においては、中断状態においてアプリケーションを終了する場合、開始状態に含まれる3つの状態のうちいずれの状態へ遷移するかを、ユーザが選択することができるようにしてもよい。以上のように、本実施形態においては、ユーザは、中断状態からアプリケーションの実行を再開することも終了することも可能である。   In the present embodiment, in the interrupted state, an end instruction for ending an application being executed and a restart instruction for resuming the execution of the application can be performed. That is, when there is a resume instruction in the suspended state, the game apparatus 3 resumes execution of the application. Thereby, the game system 1 transits to the application execution state (see FIG. 13). If there is an end instruction in the interrupted state, the game apparatus 3 ends the execution of the application. As a result, the game system 1 transitions to the start state (see FIG. 13). In the present embodiment, the game system transitions to the menu state as shown in FIG. 13 in the above case. However, in other embodiments, the game system 1 is in the first television operation state or the browser state. You may transition to. In another embodiment, when the application is terminated in the suspended state, the user may be able to select which of the three states included in the start state is to be changed. As described above, in the present embodiment, the user can resume or end the execution of the application from the suspended state.

[6.ゲームシステムにおける処理の詳細]
次に、本ゲームシステムにおいて実行される情報処理の詳細を説明する。まず、情報処理において用いられる各種データについて説明する。図14は、ゲーム装置3のメインメモリ(外部メインメモリ12または内部メインメモリ11e)における記憶領域を示す図である。図14に示すように、ゲーム装置3のメインメモリには、メインプログラム領域100、アプリケーションプログラム領域101、取得データ領域103、および処理用データ107領域が設けられる。なお、メインメモリには、図14に示すデータの他、情報処理に用いられる画像データや音声データ等、処理に必要なデータが記憶される。また、図14に示す記憶領域の一部は、ゲーム装置3がアクセス可能な他の記憶装置(フラッシュメモリ17等)に設けられてもよい。
[6. Details of processing in game system]
Next, details of information processing executed in the game system will be described. First, various data used in information processing will be described. FIG. 14 is a diagram showing a storage area in the main memory (the external main memory 12 or the internal main memory 11e) of the game apparatus 3. As shown in FIG. 14, the main memory of the game apparatus 3 is provided with a main program area 100, an application program area 101, an acquisition data area 103, and processing data 107 area. The main memory stores data necessary for processing such as image data and audio data used for information processing in addition to the data shown in FIG. A part of the storage area shown in FIG. 14 may be provided in another storage device (flash memory 17 or the like) accessible by the game apparatus 3.

メインプログラム領域100には、ゲームシステム1における上述の各種状態の遷移を管理するメインプログラムが記憶される。本実施形態においては、CPU10がメインプログラムを実行することによって、図15等に示すフローチャートの各ステップが実行される。メインプログラムは、後述するメニュー処理、テレビ処理、ブラウザ処理、および中断時処理の各処理を実行するためのプログラムであるが、他の実施形態においては、これらの各処理を実行するための各プログラムが別々に(別のプログラムとして)メインメモリに記憶されてもよい。メインプログラムは、ゲーム装置3に電源が投入された後の適宜のタイミングで所定の記憶装置からその一部または全部が読み込まれてメインメモリに記憶される。なお、上記所定の記憶装置は、ゲーム装置3がアクセス可能な記憶手段であればどのようなものであってもよいが、本実施形態においてはフラッシュメモリ17であるとする。なお、メインプログラムは、フラッシュメモリ17に代えて、光ディスク4やゲーム装置3の外部の他の装置から(例えばインターネットを介して)取得されてもよい。   The main program area 100 stores a main program for managing the transition of the various states described above in the game system 1. In the present embodiment, each step of the flowchart shown in FIG. 15 and the like is executed by the CPU 10 executing the main program. The main program is a program for executing each processing of menu processing, television processing, browser processing, and interruption processing, which will be described later. In other embodiments, each program for executing these processings. May be stored separately (as a separate program) in the main memory. A part or all of the main program is read from a predetermined storage device and stored in the main memory at an appropriate timing after the game apparatus 3 is powered on. The predetermined storage device may be any storage means that can be accessed by the game apparatus 3, but is assumed to be the flash memory 17 in the present embodiment. The main program may be acquired from the optical disk 4 or another device outside the game apparatus 3 (for example, via the Internet) instead of the flash memory 17.

アプリケーションプログラム領域101には、ゲーム装置3において実行可能な各種のアプリケーション(プログラム)が記憶される。アプリケーションプログラム領域101には、1以上のアプリケーションが記憶され、本実施形態においては、当該1以上のアプリケーションにはゲームプログラム102が含まれる。ゲームプログラム102は、ゲーム装置3に電源が投入された後の適宜のタイミングで光ディスク4からその一部または全部が読み込まれてメインメモリに記憶される。なお、ゲームプログラム102は、光ディスク4に代えて、フラッシュメモリ17やゲーム装置3の外部装置から(例えばインターネットを介して)取得されてもよい。なお、アプリケーションプログラム領域101に含まれる他のアプリケーションもゲームプログラム102と同様、ゲーム装置3がアクセス可能な任意の記憶手段から取得されてもよい。   The application program area 101 stores various applications (programs) that can be executed by the game apparatus 3. One or more applications are stored in the application program area 101. In the present embodiment, the one or more applications include a game program 102. A part or all of the game program 102 is read from the optical disc 4 and stored in the main memory at an appropriate timing after the game apparatus 3 is turned on. Note that the game program 102 may be obtained from the flash memory 17 or an external device of the game apparatus 3 (for example, via the Internet) instead of the optical disc 4. Note that other applications included in the application program area 101 may also be acquired from any storage means accessible by the game apparatus 3, as with the game program 102.

取得データ領域103には、ゲーム装置3が端末装置7等から取得する各種のデータが記憶される。本実施形態においては、取得データ領域103には、端末操作データ104、カメラ画像データ105、および、マイク音データ106が記憶される。なお、図14に示すデータの他、取得データ領域103には、コントローラ5から取得されるコントローラ操作データ等が記憶されてもよい。   In the acquisition data area 103, various data acquired by the game apparatus 3 from the terminal apparatus 7 and the like are stored. In the present embodiment, terminal operation data 104, camera image data 105, and microphone sound data 106 are stored in the acquisition data area 103. In addition to the data shown in FIG. 14, controller operation data acquired from the controller 5 may be stored in the acquisition data area 103.

端末操作データ104は、端末装置7に対するプレイヤの操作を表すデータである。端末操作データ104は、端末装置7から送信されてゲーム装置3において取得され、メインメモリに記憶される。なお、ゲーム装置3は、複数の端末装置と通信可能であり、各端末装置から操作データをそれぞれ取得することが可能である。端末装置が複数である場合、各端末装置からそれぞれ送信されてくる各端末操作データがメインメモリにそれぞれ記憶される。メインメモリには、端末装置毎に最新の(最後に取得された)ものから順に所定個数の端末操作データが記憶されてもよい。   The terminal operation data 104 is data representing a player's operation on the terminal device 7. The terminal operation data 104 is transmitted from the terminal device 7, acquired by the game device 3, and stored in the main memory. Note that the game apparatus 3 can communicate with a plurality of terminal devices, and can acquire operation data from each terminal device. When there are a plurality of terminal devices, each terminal operation data respectively transmitted from each terminal device is stored in the main memory. A predetermined number of terminal operation data may be stored in the main memory in order from the latest (last acquired) for each terminal device.

端末操作データ104は、角速度データ、加速度データ、操作ボタンデータ、スティックデータ、タッチ位置データ、および方位データを含む。角速度データは、ジャイロセンサ74によって検出された角速度を表すデータである。本実施形態では、角速度データは、図8に示すxyzの3軸回りのそれぞれの角速度を表すものであるが、他の実施形態においては、任意の1軸以上の軸回り角速度を表すものであればよい。加速度データは、加速度センサ73によって検出された加速度(加速度ベクトル)を表すデータである。本実施形態では、加速度データは、図9に示すxyzの3軸の方向に関する加速度を各成分とする3次元の加速度を表すものであるが、他の実施形態においては、任意の1以上の方向に関する加速度を表すものであればよい。上記ジャイロセンサ74および加速度センサ73は、慣性センサの一例である。ゲーム装置3は、慣性センサの検出結果(角速度データおよび加速度データ)に基づいて端末装置7の姿勢を算出することができる。   The terminal operation data 104 includes angular velocity data, acceleration data, operation button data, stick data, touch position data, and azimuth data. The angular velocity data is data representing the angular velocity detected by the gyro sensor 74. In the present embodiment, the angular velocity data represents the angular velocities around the three axes xyz shown in FIG. 8, but in other embodiments, the angular velocity data may represent any one or more axial angular velocities. That's fine. The acceleration data is data representing the acceleration (acceleration vector) detected by the acceleration sensor 73. In the present embodiment, the acceleration data represents a three-dimensional acceleration whose components are accelerations in the xyz three-axis directions shown in FIG. 9, but in other embodiments, any one or more directions are used. Any acceleration can be used. The gyro sensor 74 and the acceleration sensor 73 are examples of inertial sensors. The game apparatus 3 can calculate the attitude of the terminal device 7 based on the detection results (angular velocity data and acceleration data) of the inertia sensor.

また、操作ボタンデータは、端末装置7に設けられる各操作ボタン54A〜54Lに対する入力状態を表すデータである。具体的には、操作ボタンデータは、各操作ボタン54A〜54Lが押下されているか否かを表す。スティックデータは、アナログスティック53(アナログスティック53Aおよび53B)のスティック部がスライドした(または傾倒した)方向および量を表すデータである。上記方向および量は、例えば2次元座標や2次元ベクトルとして表されてもよい。タッチ位置データは、タッチパネル52の入力面において入力が行われた位置(タッチ位置)を表すデータである。本実施形態では、タッチ位置データは、上記入力面上の位置を示すための2次元座標系の座標値を表す。なお、タッチパネル52がマルチタッチ方式である場合には、タッチ位置データは複数のタッチ位置を表すこともある。方位データは、磁気センサ72によって検出された方位を表すデータである。本実施形態では、方位データは、端末装置7を基準として所定の方位(例えば北)の向きを表す。なお、地磁気以外の磁界が発生している場合においては、方位データは厳密には絶対的な方位(北等)を示さないことになる。ただし、その場所における磁界の方向に対する端末装置7の相対的な方向が方位データによって示されるので、そのような場合であっても方位データに基づいて端末装置7の姿勢または姿勢の変化を算出することが可能である。   The operation button data is data representing an input state for each of the operation buttons 54 </ b> A to 54 </ b> L provided on the terminal device 7. Specifically, the operation button data represents whether or not each of the operation buttons 54A to 54L is pressed. The stick data is data representing the direction and amount in which the stick portion of the analog stick 53 (analog sticks 53A and 53B) has slid (or tilted). The direction and amount may be expressed as, for example, a two-dimensional coordinate or a two-dimensional vector. The touch position data is data representing a position (touch position) where an input is performed on the input surface of the touch panel 52. In the present embodiment, the touch position data represents a coordinate value of a two-dimensional coordinate system for indicating a position on the input surface. When the touch panel 52 is a multi-touch method, the touch position data may represent a plurality of touch positions. The azimuth data is data representing the azimuth detected by the magnetic sensor 72. In the present embodiment, the azimuth data represents the direction of a predetermined azimuth (for example, north) with reference to the terminal device 7. When a magnetic field other than geomagnetism is generated, the azimuth data does not strictly indicate an absolute azimuth (north, etc.). However, since the relative direction of the terminal device 7 with respect to the direction of the magnetic field at the place is indicated by the orientation data, even in such a case, the orientation of the terminal device 7 or a change in the orientation is calculated based on the orientation data. It is possible.

なお、端末操作データ104は、端末装置7に対する操作を表すものであればよく、本実施形態において端末操作データ104が含む上記各データのいずれか1つのみを含むものであってもよい。また、端末装置7が他の入力手段(例えば、タッチパッドや、コントローラ5の撮像手段等)を有する場合には、端末操作データ104は、当該他の入力手段に対する操作を表すデータを含んでいてもよい。なお、本実施形態のように端末装置7自体の動きをゲーム操作として用いる場合には、端末操作データ104は、加速度データ、角速度データ、または方位データのように、端末装置7の動きに関する情報を表すデータ(動きに応じて値が変化するデータ)を含むことが好ましい。なお、端末装置7の動きに関する情報とは、例えば、端末装置7の位置、姿勢、位置の変化(速度)、姿勢の変化(角速度)、加速度、角加速度等の情報である。   Note that the terminal operation data 104 only needs to represent an operation on the terminal device 7 and may include only one of the above-described data included in the terminal operation data 104 in the present embodiment. Further, when the terminal device 7 has other input means (for example, a touch pad, an imaging means of the controller 5, etc.), the terminal operation data 104 includes data representing an operation on the other input means. Also good. When the movement of the terminal device 7 itself is used as a game operation as in the present embodiment, the terminal operation data 104 includes information related to the movement of the terminal device 7 such as acceleration data, angular velocity data, or azimuth data. It is preferable to include data to be expressed (data whose value changes according to movement). Note that the information related to the movement of the terminal device 7 is, for example, information such as the position, posture, position change (velocity), posture change (angular velocity), acceleration, and angular acceleration of the terminal device 7.

また、カメラ画像データ105は、端末装置7のカメラ56によって撮像された画像(撮像画像)を表すデータである。カメラ画像データ105は、端末装置7から送信されてくる圧縮された画像データがコーデックLSI27によって伸張された画像データであり、入出力プロセッサ11aによってメインメモリに記憶される。また、マイク音データ106は、端末装置7のマイク79によって検出された音声(マイク音)を表すデータである。マイク音データ106は、端末装置7から送信されてくる圧縮された音声データがコーデックLSI27によって伸張された音声データであり、入出力プロセッサ11aによってメインメモリに記憶される。   The camera image data 105 is data representing an image (captured image) captured by the camera 56 of the terminal device 7. The camera image data 105 is image data obtained by decompressing compressed image data transmitted from the terminal device 7 by the codec LSI 27, and is stored in the main memory by the input / output processor 11a. The microphone sound data 106 is data representing the sound (microphone sound) detected by the microphone 79 of the terminal device 7. The microphone sound data 106 is sound data obtained by decompressing the compressed sound data transmitted from the terminal device 7 by the codec LSI 27, and is stored in the main memory by the input / output processor 11a.

処理用データ領域107は、ゲーム装置3における情報処理(図15等)において用いられる各種のデータが記憶される。本実施形態においては、処理用データ領域107には、初期状態データ108、番組表データ109、ホームページデータ110、および、セーブデータ111等が記憶される。なお、図14に示すデータの他、処理用データ領域107は、各アプリケーションの実行時において用いられる各種のデータが記憶される。   The processing data area 107 stores various data used in information processing (FIG. 15 and the like) in the game apparatus 3. In the present embodiment, the processing data area 107 stores initial state data 108, program guide data 109, home page data 110, save data 111, and the like. In addition to the data shown in FIG. 14, the processing data area 107 stores various data used when executing each application.

初期状態データ108は、開始状態に含まれる3種類の状態のうちで、ゲームシステム1が起動された直後に遷移される初期状態を表すデータである。初期状態データ108はどのように設定されてもよいが、本実施形態においては、ゲームシステム1が終了される場合(電源がオフにされる、あるいはスリープ状態にされる場合)、その時点における状態に基づいて決定される。   The initial state data 108 is data representing an initial state that is transitioned immediately after the game system 1 is activated among the three types of states included in the start state. The initial state data 108 may be set in any way, but in the present embodiment, when the game system 1 is terminated (when the power is turned off or put into the sleep state), the state at that time To be determined.

番組表データ109は、上述の第1テレビ操作状態への遷移時において端末装置7に表示されるテレビの番組表を生成するためのデータである。本実施形態においては、番組表のデータが適宜のタイミングでネットワーク90を介して所定のサーバから取得され、当該データが番組表データ109としてメインメモリに記憶される。本実施形態においては、ゲームシステム1が第1テレビ操作状態へ遷移した場合、番組表データ109に基づいて生成される番組表が端末装置7にまず表示される。   The program guide data 109 is data for generating a TV program guide displayed on the terminal device 7 at the time of transition to the first television operation state. In the present embodiment, program guide data is acquired from a predetermined server via the network 90 at an appropriate timing, and the data is stored in the main memory as program guide data 109. In the present embodiment, when the game system 1 transitions to the first television operation state, a program guide generated based on the program guide data 109 is first displayed on the terminal device 7.

ホームページデータ110は、上述のブラウザ状態への遷移時において端末装置7に表示されるホームページ(ブラウザ機能の開始時に表示されるウェブページ)を生成するためのデータである。本実施形態においては、予め設定されたホームページのデータが適宜のタイミングでネットワーク90を介して所定のサーバから取得され、当該データがホームページデータ110としてメインメモリに記憶される。本実施形態においては、ゲームシステム1がブラウザ状態へ遷移した場合、ホームページデータ110に基づいて生成されるウェブページの画像が端末装置7にまず表示される。   The homepage data 110 is data for generating a homepage (web page displayed at the start of the browser function) displayed on the terminal device 7 at the time of transition to the browser state described above. In the present embodiment, preset homepage data is acquired from a predetermined server via the network 90 at an appropriate timing, and the data is stored in the main memory as homepage data 110. In the present embodiment, when the game system 1 transitions to the browser state, an image of a web page generated based on the home page data 110 is first displayed on the terminal device 7.

セーブデータ111は、ゲームプログラム102等のアプリケーションのセーブデータである。詳細は後述するが、アプリケーションの実行が終了される場合、ゲームの内容を表し、ゲームの再開に必要なゲームパラメータを表すデータがセーブデータ111としてメインメモリに記憶される。   The save data 111 is save data of an application such as the game program 102. Although details will be described later, when the execution of the application is terminated, data representing the contents of the game and representing the game parameters necessary for restarting the game is stored as save data 111 in the main memory.

次に、図15〜図24を参照して、ゲームシステム1(ゲーム装置3)において実行される情報処理の流れを詳細に説明する。図15は、ゲーム装置3で実行される開始処理の流れを示すフローチャートである。開始処理は、ゲームシステム1(ゲーム装置3)の起動に応じて実行される処理である。すなわち、ゲーム装置3の電源が投入されると、ゲーム装置3のCPU10は、図示しないブートROMに記憶されている起動プログラムを実行し、これによってメインメモリ等の各ユニットが初期化される。その後、フラッシュメモリ17に記憶されたメインプログラムがメインメモリに読み込まれ、CPU10によって当該メインプログラムの実行が開始される。図15に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。   Next, the flow of information processing executed in the game system 1 (game device 3) will be described in detail with reference to FIGS. FIG. 15 is a flowchart showing a flow of start processing executed by the game apparatus 3. The start process is a process executed in response to the activation of the game system 1 (game device 3). That is, when the power of the game apparatus 3 is turned on, the CPU 10 of the game apparatus 3 executes a startup program stored in a boot ROM (not shown), thereby initializing each unit such as the main memory. Thereafter, the main program stored in the flash memory 17 is read into the main memory, and the CPU 10 starts executing the main program. The flowchart shown in FIG. 15 is a flowchart showing a process performed after the above process is completed.

なお、図面に示す各フローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよい。また、変数の値や、判断ステップで利用される閾値も、単なる一例に過ぎず、必要に応じて他の値が採用されてもよい。また、本明細書では、各フローチャートの各ステップの処理をCPU10が実行するものとして説明するが、各フローチャートにおける一部のステップの処理を、CPU10以外のプロセッサや専用回路が実行するようにしてもよい。   In addition, the process of each step in each flowchart shown to drawing is only an example, and if the same result is obtained, you may replace the process order of each step. Moreover, the value of the variable and the threshold value used in the determination step are merely examples, and other values may be adopted as necessary. Further, in this specification, the processing of each step of each flowchart is described as being executed by the CPU 10, but the processing of some steps in each flowchart may be executed by a processor or a dedicated circuit other than the CPU 10. Good.

まずステップS1において、CPU10は、開始状態に含まれる3つの状態(メニュー状態、第1テレビ操作状態、およびブラウザ状態)のうちで、最初に遷移すべき初期状態を決定する。ここで、初期状態はどのように決定されてもよく、本実施形態においては、前回のゲームシステム1の終了時における状態に基づいて次回の起動時における初期状態が決定される。すなわち、ゲームシステム1が終了される場合(電源がオフにされる、あるいはスリープ状態にされる場合)、その時点における状態を表すデータがフラッシュメモリ17に記憶される。そして、ステップS1において、CPU10は、フラッシュメモリ17から上記データを読み出し、当該データが表す状態に基づいて初期状態を決定する。具体的には、開始状態に含まれる3つの状態のうちのいずれかを上記データが表す場合、当該データが表す状態が初期状態として決定される。また、上記データがアプリ実行状態あるいは中断状態を表す場合、メニュー状態が初期状態として決定される。以上のようにして決定された初期状態を表すデータは初期状態データとしてメインメモリに記憶される。以上のように、本実施形態においては、前回のゲームシステム1の終了時における状態が初期状態となるので、前回ゲームシステム1を使用したユーザは、適切な状態でゲームシステム1の使用を開始することができる。ステップS1の次にステップS2の処理が実行される。   First, in step S1, the CPU 10 determines an initial state to be changed first among the three states included in the start state (menu state, first television operation state, and browser state). Here, the initial state may be determined in any way, and in the present embodiment, the initial state at the next activation is determined based on the state at the end of the previous game system 1. That is, when the game system 1 is terminated (when the power is turned off or in the sleep state), data representing the state at that time is stored in the flash memory 17. In step S1, the CPU 10 reads the data from the flash memory 17, and determines an initial state based on the state represented by the data. Specifically, when the data represents one of three states included in the start state, the state represented by the data is determined as the initial state. If the data represents an application execution state or an interruption state, the menu state is determined as the initial state. Data representing the initial state determined as described above is stored in the main memory as initial state data. As described above, in the present embodiment, since the state at the end of the previous game system 1 is the initial state, the user who used the previous game system 1 starts using the game system 1 in an appropriate state. be able to. Following step S1, the process of step S2 is executed.

なお、他の実施形態においては、初期状態は、他の方法で決定されてもよい。例えば、初期状態は、ユーザによって予め指定された状態に決定されてもよい。これによっても本実施形態と同様、ユーザにとって適切な状態でゲームシステム1の使用を開始することができる。また例えば、ゲーム装置3がユーザを識別可能な場合には、ゲームシステム1を利用する各ユーザに応じた状態となるように初期状態が決定されてもよい。これによれば、1つのゲームシステム1を複数人のユーザが使用する場合においても、各ユーザがそれぞれ自分に適した状態でゲームシステム1の使用を開始することができる。なお、「各ユーザに応じた状態」とは、そのユーザが前回にゲームシステム1を使用した際における終了時の状態に基づいて決定された状態であってもよいし、ユーザが指定した状態であってもよい。また、ユーザを識別する方法はどのような方法であってもよい。例えば、CPU10は、IDおよび/またはパスワードを起動時にユーザに入力させることによってユーザを識別してもよい。また例えば、CPU10は、端末装置7のカメラ56によってユーザの顔を撮像し、撮像画像を用いてユーザを識別してもよい。具体的には、ユーザの顔を撮像した画像を予め登録しておき、カメラ56による撮像画像と登録された画像とを比較することによって、ユーザを識別することができる。   In other embodiments, the initial state may be determined by other methods. For example, the initial state may be determined as a state specified in advance by the user. Also by this, like the present embodiment, the use of the game system 1 can be started in a state appropriate for the user. Further, for example, when the game apparatus 3 can identify the user, the initial state may be determined so as to be in a state corresponding to each user who uses the game system 1. According to this, even when a plurality of users use one game system 1, each user can start using the game system 1 in a state suitable for him / herself. The “state corresponding to each user” may be a state determined based on a state at the end when the user used the game system 1 last time, or a state designated by the user. There may be. In addition, any method may be used for identifying the user. For example, the CPU 10 may identify the user by causing the user to input an ID and / or password at startup. For example, CPU10 may image a user's face with the camera 56 of the terminal device 7, and may identify a user using a captured image. Specifically, the user can be identified by registering in advance an image of the user's face and comparing the image captured by the camera 56 with the registered image.

ステップS2およびS3においては、番組表およびホームページのデータが予め取得される。ここで、これらのデータは、どのようなタイミングで取得されてもよく、本実施形態においては、ゲームシステム1の起動時に取得される。なお、他の実施形態においては、これらのデータは、番組表またはホームページを表示すべき状態(すなわち、第1テレビ操作状態またはブラウザ状態)へ遷移する時点で取得されてもよい。また、ホームページのデータに関しては、一般的なブラウザにおけるキャッシュ機能を用いて、以前にゲームシステム1が使用された際に取得されたデータが保存されてもよい。   In steps S2 and S3, program guide and homepage data are acquired in advance. Here, these data may be acquired at any timing. In the present embodiment, these data are acquired when the game system 1 is activated. In other embodiments, these data may be acquired at the time of transition to a state in which the program guide or homepage is to be displayed (that is, the first television operation state or the browser state). As for homepage data, data acquired when the game system 1 was previously used may be stored using a cache function in a general browser.

ステップS2において、CPU10は、所定のサーバ(外部装置91)からネットワーク90を介して番組表を取得する。すなわち、CPU10はまず、番組表の取得要求を生成し、ネットワーク90を介して上記サーバへ取得要求を送信する。このサーバは、番組表のデータを記憶するウェブサーバ等、番組表のデータを提供することが可能なものであればどのようなものであってもよい。上記取得要求に応じて、サーバはネットワーク90を介して番組表のデータをゲーム装置3へ送信する。サーバから送信されてくる番組表のデータはフラッシュメモリ17(またはメインメモリ)に記憶される。なお、他の実施形態においては、上記サーバから取得されたデータに代えて、当該データから生成される番組表の画像データが番組表データ109として記憶されてもよい。ステップS2の次にステップS3の処理が実行される。   In step S <b> 2, the CPU 10 acquires a program guide from a predetermined server (external device 91) via the network 90. That is, the CPU 10 first generates a program guide acquisition request and transmits the acquisition request to the server via the network 90. This server may be any server that can provide program guide data, such as a web server that stores program guide data. In response to the acquisition request, the server transmits program guide data to the game apparatus 3 via the network 90. Program guide data transmitted from the server is stored in the flash memory 17 (or main memory). In another embodiment, instead of the data acquired from the server, program guide image data generated from the data may be stored as the program guide data 109. Following step S2, the process of step S3 is executed.

ステップS3において、CPU10は、ブラウザ機能の開始時にアクセスされるウェブページ(ホームページ)のデータを取得する。すなわち、CPU10はまず、上記ウェブページの取得要求を生成し、ネットワーク90を介して所定のサーバへ取得要求を送信する。このサーバは、予め設定された上記ウェブページを提供する情報処理装置であればどのようなものであってもよい。上記取得要求に応じて、サーバはネットワーク90を介してウェブページのデータをゲーム装置3へ送信する。サーバから送信されてくるウェブページのデータはフラッシュメモリ17(またはメインメモリ)に記憶される。なお、他の実施形態においては、上記サーバから取得されたデータに代えて、当該データから生成されるウェブページの画像データがホームページデータ110として記憶されてもよい。ステップS3の後、CPU10は開始処理を終了する。   In step S3, the CPU 10 acquires data of a web page (homepage) accessed at the start of the browser function. That is, the CPU 10 first generates an acquisition request for the web page and transmits the acquisition request to a predetermined server via the network 90. This server may be any information processing device that provides the preset web page. In response to the acquisition request, the server transmits web page data to the game apparatus 3 via the network 90. Web page data transmitted from the server is stored in the flash memory 17 (or main memory). In other embodiments, instead of the data acquired from the server, image data of a web page generated from the data may be stored as the home page data 110. After step S3, the CPU 10 ends the start process.

開始処理の終了後は、ステップS1で決定された初期状態に応じた処理が実行される。すなわち、初期状態がメニュー状態である場合には後述するメニュー処理が実行され、初期状態が第1テレビ操作状態である場合には後述するテレビ処理が実行され、初期状態がブラウザ状態である場合には後述するブラウザ処理が実行される。以下、メニュー処理、テレビ処理、およびブラウザ処理の詳細について説明する。   After the start process is completed, a process corresponding to the initial state determined in step S1 is executed. That is, when the initial state is the menu state, menu processing described later is executed, when the initial state is the first television operation state, TV processing described later is executed, and when the initial state is the browser state. The browser process described later is executed. Hereinafter, details of the menu process, the television process, and the browser process will be described.

(メニュー処理)
図16は、ゲーム装置3で実行されるメニュー処理の流れを示すフローチャートである。まずステップS11において、CPU10は端末装置7から各種データを取得する。ここで、端末装置7からは、少なくとも端末操作データが取得され、本実施形態においては、カメラ画像データおよびマイク音データがさらに取得される。端末装置7は、上記各データ(端末操作データ、カメラ画像データ、およびマイク音データ)をゲーム装置3へ繰り返し送信するので、ゲーム装置3は各データを逐次受信する。ゲーム装置3においては、端末通信モジュール28が各データを逐次受信し、カメラ画像データおよびマイク音データについてはコーデックLSI27によって伸張処理が逐次施される。そして、入出力プロセッサ11aが端末操作データとカメラ画像データとマイク音データとをメインメモリに逐次記憶する。CPU10は、適宜のタイミングで上記各データをメインメモリから読み出す。ステップS11の次にステップS12の処理が実行される。
(Menu processing)
FIG. 16 is a flowchart showing the flow of menu processing executed by the game apparatus 3. First, in step S <b> 11, the CPU 10 acquires various data from the terminal device 7. Here, at least terminal operation data is acquired from the terminal device 7, and in this embodiment, camera image data and microphone sound data are further acquired. Since the terminal device 7 repeatedly transmits the above data (terminal operation data, camera image data, and microphone sound data) to the game device 3, the game device 3 sequentially receives the data. In the game apparatus 3, the terminal communication module 28 sequentially receives each data, and the camera image data and the microphone sound data are sequentially decompressed by the codec LSI 27. Then, the input / output processor 11a sequentially stores terminal operation data, camera image data, and microphone sound data in the main memory. The CPU 10 reads the data from the main memory at an appropriate timing. Following step S11, the process of step S12 is executed.

ステップS12において、CPU10はアプリ選択画像を端末装置7に表示させる。すなわち、CPU10は、アプリ選択画像を生成し、生成されたアプリ選択画像を端末装置7へ出力(送信)する。アプリ選択画像は、ゲーム装置3が実行可能なアプリケーションをユーザが選択することができる画像であればどのようなものであってもよい。以下、図17を参照して、本実施形態におけるアプリ選択画像について説明する。   In step S <b> 12, the CPU 10 displays an application selection image on the terminal device 7. That is, the CPU 10 generates an application selection image and outputs (transmits) the generated application selection image to the terminal device 7. The application selection image may be any image as long as the user can select an application executable by the game apparatus 3. Hereinafter, with reference to FIG. 17, an application selection image according to the present embodiment will be described.

図17は、端末装置7に表示されるアプリ選択画像の一例を示す図である。図17に示すように、アプリ選択画像は、アプリ領域121、通知領域123、テレビアイコン125、ブラウザアイコン126を含む。図17に示すアプリ選択画像は、ゲーム装置3において実行すべきアプリケーションを選択するためのメニュー画像である。   FIG. 17 is a diagram illustrating an example of an application selection image displayed on the terminal device 7. As illustrated in FIG. 17, the application selection image includes an application area 121, a notification area 123, a television icon 125, and a browser icon 126. The application selection image shown in FIG. 17 is a menu image for selecting an application to be executed on the game apparatus 3.

図17において、アプリ領域121は、1以上のアプリアイコン122を表示する領域である。アプリアイコン122は、ゲーム装置3が実行可能なアプリケーションを表す画像(アイコン)である。本実施形態においてはアプリアイコン122を選択する操作によって、アプリアイコン122によって表されるアプリケーションが実行される。なお、図17においては、アプリ領域121は所定のスクロール操作に応じて左右にスクロールすることが可能であり、左右にスクロールすることによって、表示されるアプリアイコン122が変更される。また、通知領域123は、ユーザに対する通知事項を表示する領域である。通知領域123には、どのような情報が表示されてもよく、例えば、新しいアプリケーションの紹介や、ゲームシステム1を用いた各種のサービスに関する通知等が表示される。なお、ゲーム装置3は、適宜のタイミングでネットワーク90を介して所定のサーバにアクセスして通知事項の情報を取得することによって、通知事項の内容を更新するようにしてもよい。   In FIG. 17, an application area 121 is an area for displaying one or more application icons 122. The application icon 122 is an image (icon) representing an application executable by the game apparatus 3. In the present embodiment, an application represented by the application icon 122 is executed by an operation of selecting the application icon 122. In FIG. 17, the application area 121 can be scrolled left and right in accordance with a predetermined scroll operation, and the displayed application icon 122 is changed by scrolling left and right. The notification area 123 is an area for displaying notification items for the user. Any information may be displayed in the notification area 123. For example, introduction of a new application, notifications regarding various services using the game system 1, and the like are displayed. Note that the game apparatus 3 may update the content of the notification item by accessing a predetermined server via the network 90 and acquiring the notification item information at an appropriate timing.

また、テレビアイコン125は、上記第1テレビ操作状態へ遷移する指示を表す画像である。詳細は後述するが、本実施形態においてはテレビアイコン125を選択する操作(上記変更操作)によって、ゲームシステム1は第1テレビ操作状態へ遷移する。また、ブラウザアイコン126は、上記ブラウザ状態へ遷移する指示を表す画像である。詳細は後述するが、本実施形態においてはブラウザアイコン126を選択する操作(上記変更操作)によって、ゲームシステム1はブラウザ状態へ遷移する。つまり、メニュー状態においては、テレビアイコン125またはブラウザアイコン126を選択する操作を行うことによって、ユーザは、第1テレビ操作状態またはブラウザ状態へゲームシステム1を容易に遷移させることができる。   The television icon 125 is an image representing an instruction to transition to the first television operation state. Although details will be described later, in the present embodiment, the game system 1 transitions to the first television operation state by an operation of selecting the television icon 125 (the change operation described above). The browser icon 126 is an image representing an instruction to transition to the browser state. Although details will be described later, in the present embodiment, the game system 1 transitions to the browser state by an operation of selecting the browser icon 126 (the change operation described above). That is, in the menu state, by performing an operation of selecting the television icon 125 or the browser icon 126, the user can easily transition the game system 1 to the first television operation state or the browser state.

上記ステップS12において、CPU10およびGPU11bは、各種アイコンの画像データ等、アプリ選択画像を生成するために必要なデータをVRAM11dから読み出し、読み出したデータを用いてアプリ選択画像を生成する。生成されたアプリ選択画像はVRAM11dに記憶される。さらに、CPU10は、アプリ選択画像を端末装置7へ出力する。具体的には、VRAM11dに記憶されたアプリ選択画像の画像データは、CPU10によってコーデックLSI27に送られ、コーデックLSI27によって所定の圧縮処理が行われる。圧縮処理が施された画像のデータは、端末通信モジュール28によってアンテナ29を介して端末装置7へ送信される。端末装置7は、ゲーム装置3から送信されてくる画像のデータを無線モジュール80によって受信し、受信された画像データに対してコーデックLSI76によって所定の伸張処理が行われる。伸張処理が行われた画像データはLCD51に出力される。これによって、アプリ選択画像がLCD51に表示される。また、ステップS12においては、画像のデータと共に音声のデータが端末装置7へ送信され、端末装置7のスピーカ77から音声が出力されてもよい。ステップS12の次にステップS13の処理が実行される。   In step S12, the CPU 10 and the GPU 11b read data necessary for generating an application selection image such as image data of various icons from the VRAM 11d, and generate an application selection image using the read data. The generated application selection image is stored in the VRAM 11d. Further, the CPU 10 outputs an application selection image to the terminal device 7. Specifically, the image data of the application selection image stored in the VRAM 11d is sent to the codec LSI 27 by the CPU 10, and a predetermined compression process is performed by the codec LSI 27. The compressed image data is transmitted to the terminal device 7 through the antenna 29 by the terminal communication module 28. The terminal device 7 receives the image data transmitted from the game device 3 by the wireless module 80, and a predetermined decompression process is performed on the received image data by the codec LSI 76. The image data that has undergone the decompression process is output to the LCD 51. As a result, the application selection image is displayed on the LCD 51. In step S <b> 12, sound data may be transmitted to the terminal device 7 together with the image data, and the sound may be output from the speaker 77 of the terminal device 7. Following step S12, the process of step S13 is executed.

ステップS13において、テレビ用画像をテレビ2に表示させる。すなわち、CPU10は、所定のテレビ用画像を生成し、生成されたテレビ用画像をテレビ2へ出力する。メニュー状態において表示されるテレビ用画像は、どのような内容であってもよい。テレビ用画像は、例えば、ゲーム装置3が実行可能なアプリケーションに関する画像(例えば、ゲームアプリケーションのタイトル画像やデモ動画)であってもよいし、上記通知領域123に表示される画像であってもよい。なお、メニュー状態においてはテレビ2がゲームシステム1以外の用途(例えばテレビ番組を表示する用途)で利用される態様も想定されるので、テレビ用画像は、上記のような補助的な内容であることが好ましい。   In step S13, the television image is displayed on the television 2. That is, the CPU 10 generates a predetermined television image and outputs the generated television image to the television 2. The television image displayed in the menu state may have any content. The television image may be, for example, an image related to an application that can be executed by the game apparatus 3 (for example, a title image or demo video of a game application) or an image displayed in the notification area 123. . In the menu state, it is assumed that the television 2 is used for purposes other than the game system 1 (for example, for displaying television programs), so the television image has the auxiliary content as described above. It is preferable.

上記ステップS13においては、CPU10およびGPU11bは、テレビ用画像を生成するために必要なデータをVRAM11dから読み出し、テレビ用画像を生成する。生成されたテレビ用画像はVRAM11dに記憶される。さらに、CPU10は、テレビ2へゲーム画像を出力する。具体的には、CPU10は、VRAM11dに記憶されたテレビ用画像のデータをAV−IC15へ送る。これに応じて、AV−IC15はテレビ用画像のデータを、AVコネクタ16を介してテレビ2へ出力する。これによって、テレビ用画像がテレビ2に表示される。また、ステップS13においては、画像のデータと共に音声のデータがテレビ2へ出力され、テレビ2のスピーカ2aから音声が出力されてもよい。ステップS13の次にステップS14の処理が実行される。   In step S13, the CPU 10 and the GPU 11b read data necessary for generating a television image from the VRAM 11d, and generate a television image. The generated television image is stored in the VRAM 11d. Further, the CPU 10 outputs a game image to the television 2. Specifically, the CPU 10 sends TV image data stored in the VRAM 11 d to the AV-IC 15. In response, the AV-IC 15 outputs television image data to the television 2 via the AV connector 16. As a result, the television image is displayed on the television 2. In step S13, sound data may be output to the television 2 together with image data, and sound may be output from the speaker 2a of the television 2. Following step S13, the process of step S14 is executed.

ステップS14において、CPU10は、選択指示があったか否かを判定する。選択指示は、実行すべきアプリケーションを選択する指示である。選択指示を行うための操作はどのような操作であってもよく、本実施形態においては、端末装置7に表示されるアプリアイコン122をタッチする操作によって選択指示が行われる。すなわち、CPU10は、端末操作データ104のタッチデータをメインメモリから読み出し、タッチデータに基づいて、端末装置7に表示されるアプリアイコン122のいずれかがタッチされたか否かを判定する。なお、他の実施形態においては、例えば端末装置7に表示されるカーソルを用いて選択指示が行われてもよい。すなわち、CPU10は、端末装置7に対する方向入力操作(例えばアナログスティック53に対する方向入力操作)に応じてカーソルを移動させ、カーソルがアプリアイコン122を指し示す状態で所定の操作が行われた場合に、当該アプリアイコン122が指定されたと判定するようにしてもよい。上記ステップS14の判定結果が肯定である場合、ステップS15の処理が実行される。一方、上記ステップS14の判定結果が否定である場合、ステップS16の処理が実行される。   In step S14, the CPU 10 determines whether or not there has been a selection instruction. The selection instruction is an instruction for selecting an application to be executed. The operation for performing the selection instruction may be any operation. In this embodiment, the selection instruction is performed by an operation of touching the application icon 122 displayed on the terminal device 7. That is, the CPU 10 reads the touch data of the terminal operation data 104 from the main memory, and determines whether any of the application icons 122 displayed on the terminal device 7 is touched based on the touch data. In other embodiments, for example, a selection instruction may be performed using a cursor displayed on the terminal device 7. That is, the CPU 10 moves the cursor according to a direction input operation on the terminal device 7 (for example, a direction input operation on the analog stick 53), and when a predetermined operation is performed in a state where the cursor points to the application icon 122, You may make it determine with the application icon 122 having been designated. If the determination result of step S14 is affirmative, the process of step S15 is executed. On the other hand, if the determination result of step S14 is negative, the process of step S16 is executed.

ステップS15において、CPU10は、上記選択指示によって選択されたアプリケーションを実行する。すなわち、CPU10は、選択されたアプリケーションが記憶されている記憶部(光ディスク4やフラッシュメモリ17等)から当該アプリケーションを読み出し、メインメモリに記憶する。そして、メインメモリに記憶されたアプリケーションの実行を開始する。ステップS15の後、CPU10はメニュー処理を終了し、アプリ実行処理を実行する。これによってゲームシステム1はアプリ実行状態へ遷移することとなる。   In step S15, the CPU 10 executes the application selected by the selection instruction. That is, the CPU 10 reads the application from a storage unit (such as the optical disk 4 or the flash memory 17) in which the selected application is stored, and stores the application in the main memory. Then, execution of the application stored in the main memory is started. After step S15, the CPU 10 ends the menu process and executes an application execution process. As a result, the game system 1 transitions to the application execution state.

なお、図示しないが、アプリ実行処理においては、アプリケーションに応じた情報処理が実行される。実行されるアプリケーションはどのような内容であってもよく、アプリケーションの実行による情報処理もどのような処理であってもよい。CPU10は、アプリケーションの実行によって生成された画像を、端末装置7およびテレビ2の少なくとも一方へ出力する。なお、生成された画像を端末装置7に表示するか、テレビ2に表示するか、それとも、端末装置7とテレビ2に表示するかの判断は、どのように行われてもよい。上記の判断は、例えばアプリケーションによって行われてもよいし、ユーザによって行われてもよい。生成された画像が端末装置7のみに表示される場合には、テレビ2にはテレビ番組を表示することができ、ユーザは、テレビ番組を視聴しながらゲームシステム1のアプリケーションを利用することができる。   Although not shown, in the application execution process, information processing according to the application is executed. The application to be executed may have any content, and the information processing by executing the application may be any process. The CPU 10 outputs an image generated by executing the application to at least one of the terminal device 7 and the television 2. Note that the determination of whether the generated image is displayed on the terminal device 7, the television 2, or the terminal device 7 and the television 2 may be performed in any manner. The above determination may be made by, for example, an application or a user. When the generated image is displayed only on the terminal device 7, the television program can be displayed on the television 2, and the user can use the application of the game system 1 while viewing the television program. .

一方、ステップS16において、CPU10は、第1テレビ操作状態へ遷移するか否かを判定する。すなわち、CPU10は、メニュー状態から第1テレビ操作状態へと遷移させる変更操作が行われたか否かを判定する。この変更操作はどのような操作であってもよく、本実施形態においては、端末装置7に表示されるテレビアイコン125をタッチする操作である。すなわち、CPU10は、端末操作データ104のタッチデータをメインメモリから読み出し、タッチデータに基づいて、端末装置7に表示されるテレビアイコン125がタッチされたか否かを判定する。上記ステップS16の判定結果が肯定である場合、CPU10はメニュー処理を終了し、後述するテレビ処理を実行する。一方、上記ステップS16の判定結果が否定である場合、ステップS17の処理が実行される。   On the other hand, in step S16, the CPU 10 determines whether or not to transit to the first television operation state. That is, the CPU 10 determines whether or not a change operation for changing from the menu state to the first television operation state has been performed. This change operation may be any operation, and in the present embodiment, is an operation of touching the television icon 125 displayed on the terminal device 7. That is, the CPU 10 reads the touch data of the terminal operation data 104 from the main memory, and determines whether or not the television icon 125 displayed on the terminal device 7 is touched based on the touch data. If the determination result of step S16 is affirmative, the CPU 10 ends the menu process and executes a TV process described later. On the other hand, when the determination result of step S16 is negative, the process of step S17 is executed.

なお、本実施形態においては、ステップS14,S16,S17,S23,S25,S26,S33,S34,S43,S45,S47,S50,およびS52等における各種の指示(操作)はタッチパネル52を用いて行われる。すなわち、CPU10(およびGPU11b)は、各種の指示(上記選択指示および制御指示や、上記変更操作の指示等)を表す画像を生成可能であり、当該画像を端末装置7に出力して表示させる。そして、タッチパネル52において上記画像が選択された(タッチされた)場合に上記指示があったと判定する。これによれば、ユーザはタッチパネルを用いて容易かつ直感的な操作で各種の指示を行うことができる。   In this embodiment, various instructions (operations) in steps S14, S16, S17, S23, S25, S26, S33, S34, S43, S45, S47, S50, and S52 are performed using the touch panel 52. Is called. That is, the CPU 10 (and the GPU 11b) can generate an image representing various instructions (the selection instruction and the control instruction, the change operation instruction, etc.), and the image is output to the terminal device 7 for display. Then, when the image is selected (touched) on the touch panel 52, it is determined that the instruction has been given. According to this, the user can give various instructions by an easy and intuitive operation using the touch panel.

なお、他の実施形態においては、各種の指示は、他の操作によって行われてもよい。例えば、各指示のうちの全部または一部の指示は、端末装置7に表示されるカーソルを用いる操作によって行われてもよい。すなわち、端末装置7に対する方向入力操作に応じてカーソルを移動させ、所定の指示を表す画像(アイコン等)をカーソルが指し示す状態で所定の操作を行うことで当該所定の指示が行われてもよい。また例えば、各指示のうちの全部または一部の指示は、端末装置7のボタン54A〜54Mのいずれかを押下する操作によって行われてもよい。より具体的には、開始状態における3つの状態を遷移する指示(上記変更操作)は、端末装置7の所定のボタン(例えば第2Lボタン54Kおよび第2Rボタン54L)を押下する操作によって行われてもよい。すなわち、端末装置7の所定のボタンを押下することに応じて、アプリ選択画像と装置制御画像とブラウザ画像とが順に切り替わるようにしてもよい。また例えば、各指示のうちの全部または一部の指示は、端末装置7を動かす操作によって行われてもよい。なお、端末装置7の動きは、慣性センサ(加速度センサ73およびジャイロセンサ74)や磁気センサ72の検出結果を用いて算出(推測)することができる。   In other embodiments, various instructions may be performed by other operations. For example, all or some of the instructions may be performed by an operation using a cursor displayed on the terminal device 7. That is, the predetermined instruction may be performed by moving the cursor according to a direction input operation on the terminal device 7 and performing a predetermined operation in a state where the cursor indicates an image (icon or the like) representing the predetermined instruction. . Further, for example, all or some of the instructions may be performed by an operation of pressing any of the buttons 54 </ b> A to 54 </ b> M of the terminal device 7. More specifically, the instruction to change the three states in the start state (the change operation) is performed by an operation of pressing a predetermined button (for example, the second L button 54K and the second R button 54L) of the terminal device 7. Also good. That is, the application selection image, the device control image, and the browser image may be sequentially switched in response to pressing a predetermined button on the terminal device 7. For example, all or some of the instructions may be performed by an operation of moving the terminal device 7. The movement of the terminal device 7 can be calculated (estimated) using the detection results of the inertial sensor (the acceleration sensor 73 and the gyro sensor 74) and the magnetic sensor 72.

ステップS17において、CPU10は、ブラウザ状態へ遷移するか否かを判定する。具体的には、CPU10は、ウェブページを表示する表示指示があったか否か、換言すれば、メニュー状態からブラウザ状態へと遷移させる変更操作が行われたか否かを判定する。この変更操作はどのような操作であってもよく、本実施形態においては、端末装置7に表示されるブラウザアイコン126をタッチする操作である。すなわち、CPU10は、端末操作データ104のタッチデータをメインメモリから読み出し、タッチデータに基づいて、端末装置7に表示されるブラウザアイコン126がタッチされたか否かを判定する。上記ステップS17の判定結果が肯定である場合、CPU10はメニュー処理を終了し、後述するブラウザ処理を実行する。一方、上記ステップS17の判定結果が否定である場合、ステップS11の処理が再度実行される。以降ステップS14,S16,およびS17のいずれかの判定における判定結果が肯定となるまで、メニュー処理が繰り返し実行される。   In step S17, the CPU 10 determines whether or not to transition to the browser state. Specifically, the CPU 10 determines whether or not there is a display instruction to display a web page, in other words, whether or not a change operation for changing from the menu state to the browser state is performed. This change operation may be any operation, and in this embodiment, is an operation of touching the browser icon 126 displayed on the terminal device 7. That is, the CPU 10 reads the touch data of the terminal operation data 104 from the main memory, and determines whether or not the browser icon 126 displayed on the terminal device 7 is touched based on the touch data. If the determination result in step S17 is affirmative, the CPU 10 ends the menu process and executes a browser process described later. On the other hand, when the determination result of step S17 is negative, the process of step S11 is executed again. Thereafter, the menu process is repeatedly executed until the determination result in any one of steps S14, S16, and S17 becomes affirmative.

(テレビ処理)
図18は、ゲーム装置3で実行されるテレビ処理の流れを示すフローチャートである。テレビ処理は、初期状態が第1テレビ操作状態に決定された場合、または、メニュー状態あるいはブラウザ状態から第1テレビ操作状態へと遷移する変更操作が行われた場合に実行される。まずステップS21において、CPU10は端末装置7から各種データを取得する。ステップS21の処理は上述のステップS11と同様である。ステップS21の次にステップS22の処理が実行される。
(TV processing)
FIG. 18 is a flowchart showing a flow of television processing executed by the game apparatus 3. The television processing is executed when the initial state is determined to be the first television operation state, or when a change operation for changing from the menu state or the browser state to the first television operation state is performed. First, in step S <b> 21, the CPU 10 acquires various data from the terminal device 7. The process of step S21 is the same as that of the above-mentioned step S11. Following step S21, the process of step S22 is executed.

ステップS22において、CPU10は、装置制御画像を端末装置7に表示する。すなわち、CPU10は、装置制御画像を生成し、生成された装置制御画像を端末装置7へ出力(送信)する。装置制御画像は、テレビ2に対する操作を表す操作画像であればどのようなものであってもよい。本実施形態においては、ネットワーク90を介して外部装置91から取得されるテレビの番組表の画像が装置制御画像として表示される。以下、図19を参照して、本実施形態における装置制御画像について説明する。   In step S <b> 22, the CPU 10 displays a device control image on the terminal device 7. That is, the CPU 10 generates a device control image and outputs (transmits) the generated device control image to the terminal device 7. The device control image may be any operation image that represents an operation on the television 2. In the present embodiment, an image of a television program guide acquired from the external device 91 via the network 90 is displayed as a device control image. Hereinafter, with reference to FIG. 19, an apparatus control image in the present embodiment will be described.

図19は、端末装置7に表示される装置制御画像の一例を示す図である。図19に示すように、装置制御画像は、番組表領域130、各種の操作ボタン画像136〜138、メニューアイコン124、および、ブラウザアイコン126を含む。図19に示す装置制御画像は、テレビ2に対する制御指示を表す画像を含む、番組表の画像である。   FIG. 19 is a diagram illustrating an example of a device control image displayed on the terminal device 7. As shown in FIG. 19, the device control image includes a program guide area 130, various operation button images 136 to 138, a menu icon 124, and a browser icon 126. The device control image shown in FIG. 19 is a program guide image including an image representing a control instruction to the television 2.

図19において、番組表領域130は、ネットワーク90を介して所定のサーバから取得されるデータに基づいて生成される番組表を表示する領域である。ここでは、番組表領域130には、チャンネル画像131、番組情報領域132、選局指示ボタン133、および、スクロールバー134が含まれる。チャンネル画像131は、テレビのチャンネルと番組名とを表す画像である。図19では、チャンネル画像131が縦に並んで配置され、ユーザは、スクロールバー134のつまみ135を移動させることによって、チャンネル画像131を上下にスクロールして表示させることができる。番組情報領域132は、表示されるチャンネル画像131のうちの所定のチャンネル画像131が表すテレビ番組の番組情報(番組の内容や出演者等)が表示される領域である。ここでは、所定のチャンネル画像131とは、ユーザがタッチしたチャンネル画像131である。   In FIG. 19, a program guide area 130 is an area for displaying a program guide generated based on data acquired from a predetermined server via the network 90. Here, the program guide area 130 includes a channel image 131, a program information area 132, a channel selection instruction button 133, and a scroll bar 134. The channel image 131 is an image representing a television channel and a program name. In FIG. 19, channel images 131 are arranged vertically, and the user can scroll and display the channel image 131 by moving the knob 135 of the scroll bar 134. The program information area 132 is an area where program information (program contents, performers, etc.) of a television program represented by a predetermined channel image 131 among the displayed channel images 131 is displayed. Here, the predetermined channel image 131 is the channel image 131 touched by the user.

また、選局指示ボタン133は、テレビ2に対する制御指示を表す画像であり、具体的には、上記所定のチャンネル画像が表すチャンネルを選局する旨の制御指示を表す。なお、制御指示を表す画像は選局指示ボタン133に限らず、例えば、テレビ2の電源をオンまたはオフする制御指示を表すボタン、テレビ2の音量を変更する制御指示を表すボタン、あるいは、テレビ2に対する入力切替の制御指示を表すボタン等が装置制御画像に含まれていてもよい。   The channel selection instruction button 133 is an image representing a control instruction for the television 2, and specifically represents a control instruction for selecting a channel represented by the predetermined channel image. Note that the image indicating the control instruction is not limited to the channel selection instruction button 133, for example, a button indicating a control instruction for turning on or off the TV 2, a button indicating a control instruction for changing the volume of the TV 2, or a TV 2 may be included in the device control image.

また、日付操作ボタン136は、表示すべき番組表の日付(および時刻)を変更する指示を行うためのボタンである。詳細表示ボタン137は、上記番組情報領域132に表示される内容よりも詳細な情報を表示する指示を行うためのボタンである。設定ボタン138は、番組表や端末装置7に関する設定画面を表示する指示を行うためのボタンである。なお、上記の他、例えば番組表を検索するための画像や、お気に入りの番組リストを表示するための画像等が端末装置7に表示されてもよい。以上の番組表の画像を用いて、ユーザは、テレビ番組の内容を閲覧したり、所望のチャンネルを選局するようにテレビ2を操作したりすることが可能である。本実施形態においては、第1テレビ操作状態においてテレビの番組表が表示されるので、ユーザは番組表を見てテレビ2のチャンネル操作を行うことができ、便利である。   The date operation button 136 is a button for giving an instruction to change the date (and time) of the program guide to be displayed. The detail display button 137 is a button for instructing to display more detailed information than the content displayed in the program information area 132. The setting button 138 is a button for giving an instruction to display a setting screen related to the program guide and the terminal device 7. In addition to the above, for example, an image for searching a program guide, an image for displaying a favorite program list, and the like may be displayed on the terminal device 7. The user can browse the contents of the television program or operate the television 2 so as to select a desired channel using the image of the above program guide. In the present embodiment, since the TV program guide is displayed in the first TV operation state, the user can conveniently operate the channel of the TV 2 by viewing the program guide.

また、メニューアイコン124は、上記メニュー状態へ遷移する指示を表す画像である。詳細は後述するが、本実施形態においてはメニューアイコン124を選択する操作(上記変更操作)によって、ゲームシステム1はメニュー状態へ遷移する。また、ブラウザアイコン126は、図16に示すものと同じである。したがって、第1テレビ操作状態においては、メニューアイコン124またはブラウザアイコン126を選択する操作を行うことによって、ユーザは、メニュー状態またはブラウザ状態へゲームシステム1を容易に遷移させることができる。   The menu icon 124 is an image representing an instruction to transition to the menu state. Although details will be described later, in the present embodiment, the game system 1 transitions to the menu state by an operation of selecting the menu icon 124 (the change operation described above). The browser icon 126 is the same as that shown in FIG. Therefore, in the first television operation state, by performing an operation of selecting the menu icon 124 or the browser icon 126, the user can easily transition the game system 1 to the menu state or the browser state.

上記ステップS22において、CPU10およびGPU11bは、装置制御画像を生成するために必要なデータをメインメモリおよびVRAM11dから読み出し、読み出したデータを用いて装置制御画像を生成する。本実施形態においては、上記番組表領域130内に表示される画像は、メインメモリに記憶される番組表データ109を用いて生成される。したがって、本実施形態においては、第1テレビ操作状態へ遷移した直後であっても装置制御画像を端末装置7に迅速に表示することができる。また、生成された装置制御画像はVRAM11dに記憶される。さらに、CPU10は、装置制御画像を端末装置7へ出力する。画像を端末装置7へ出力することによって端末装置7に当該画像を表示させる処理については上記ステップS12と同様である。これによって、装置制御画像はLCD51に表示される。また、ステップS22においては、画像のデータと共に音声のデータが端末装置7へ送信され、端末装置7のスピーカ77から音声が出力されてもよい。ステップS22の次にステップS23の処理が実行される。   In step S22, the CPU 10 and the GPU 11b read data necessary for generating a device control image from the main memory and the VRAM 11d, and generate a device control image using the read data. In the present embodiment, the image displayed in the program guide area 130 is generated using the program guide data 109 stored in the main memory. Therefore, in this embodiment, the device control image can be quickly displayed on the terminal device 7 even immediately after the transition to the first television operation state. The generated device control image is stored in the VRAM 11d. Further, the CPU 10 outputs a device control image to the terminal device 7. The process of displaying the image on the terminal device 7 by outputting the image to the terminal device 7 is the same as in step S12. As a result, the device control image is displayed on the LCD 51. In step S <b> 22, sound data may be transmitted to the terminal device 7 together with the image data, and the sound may be output from the speaker 77 of the terminal device 7. Following step S22, the process of step S23 is executed.

ステップS23において、制御指示があったか否かを判定する。制御指示は、テレビ2に対する制御を行う指示である。制御指示を行うための操作はどのような操作であってもよく、本実施形態においては、端末装置7に表示される、制御指示を表すボタン(選局指示ボタン133)をタッチする操作によって制御指示が行われる。すなわち、CPU10は、端末操作データ104のタッチデータをメインメモリから読み出し、タッチデータに基づいて、端末装置7に表示される上記ボタンがタッチされたか否かを判定する。上記ステップS23の判定結果が肯定である場合、ステップS24の処理が実行される。一方、上記ステップS23の判定結果が否定である場合、ステップS24の処理がスキップされてステップS25の処理が実行される。   In step S23, it is determined whether or not there is a control instruction. The control instruction is an instruction to perform control on the television 2. The operation for performing the control instruction may be any operation. In the present embodiment, the operation is performed by touching a button (tuning instruction button 133) representing the control instruction displayed on the terminal device 7. Instruction is given. That is, the CPU 10 reads the touch data of the terminal operation data 104 from the main memory, and determines whether or not the button displayed on the terminal device 7 is touched based on the touch data. If the determination result of step S23 is affirmative, the process of step S24 is executed. On the other hand, if the determination result of step S23 is negative, the process of step S24 is skipped and the process of step S25 is executed.

ステップS24において、CPU10は、上記制御指示に応じた制御をテレビ2に対して行う。ここで、ゲームシステム1がテレビ2を制御する方法はどのような方法であってもよい。本実施形態においては、ゲーム装置3が端末装置7を介してテレビ2へ制御信号を出力する第1の方法と、ゲーム装置3が直接テレビ2へ制御信号を出力する第2の方法とによってテレビ2を制御する。   In step S <b> 24, the CPU 10 performs control on the television 2 in accordance with the control instruction. Here, the method by which the game system 1 controls the television 2 may be any method. In the present embodiment, a television is obtained by a first method in which the game device 3 outputs a control signal to the television 2 via the terminal device 7 and a second method in which the game device 3 directly outputs a control signal to the television 2. 2 is controlled.

第1の方法では、CPU10は、上記制御指示に応じた制御内容を示す制御信号を送信する旨の指示を端末装置7に対して行う。この指示に従って、端末装置7は、テレビ2を制御するための制御信号を出力する。具体的には、CPU10は、上記の指示を表す制御データを端末装置7へ出力する。なお、本実施形態においては、テレビ2に対して各種の動作を行わせるための各種の制御信号を表すデータがフラッシュメモリ17あるいはメインメモリに記憶されている。CPU10は、上記各種の制御信号のうちから、上記制御指示に応じた制御信号を表すデータを選出し、制御データとして端末装置7へ出力する。制御データを受信した端末装置7は、上記制御データが表す制御信号を出力する。本実施形態においては、制御信号として赤外線信号が出力される。すなわち、端末装置7のコーデックLSI76は、上記制御データが表す制御信号に対応する赤外線信号を赤外線通信モジュール82に出力させる。この赤外線信号がテレビ2の赤外線受光部によって受光されることで、テレビ2が制御指示に応じた動作を行う。   In the first method, the CPU 10 instructs the terminal device 7 to transmit a control signal indicating the control content according to the control instruction. In accordance with this instruction, the terminal device 7 outputs a control signal for controlling the television 2. Specifically, the CPU 10 outputs control data representing the above instruction to the terminal device 7. In the present embodiment, data representing various control signals for causing the television 2 to perform various operations is stored in the flash memory 17 or the main memory. CPU10 selects the data showing the control signal according to the said control instruction from the said various control signals, and outputs it to the terminal device 7 as control data. The terminal device 7 that has received the control data outputs a control signal represented by the control data. In the present embodiment, an infrared signal is output as the control signal. That is, the codec LSI 76 of the terminal device 7 causes the infrared communication module 82 to output an infrared signal corresponding to the control signal represented by the control data. The infrared signal is received by the infrared light receiving unit of the television 2, so that the television 2 performs an operation according to the control instruction.

第2の方法では、CPU10は、制御指示に応じた制御内容を示す制御信号をテレビ2へ出力する。すなわち、CPU10は、テレビ2に対して各種の動作を行わせるための各種の制御信号のうちから、上記制御指示に応じた制御信号(例えば、HDMI規格に則った形式の信号)を選出する。そして、選出した制御信号をAVコネクタ16を介してテレビ2に出力する。これによっても、テレビ2は制御指示に応じた動作を行うこととなる。   In the second method, the CPU 10 outputs a control signal indicating the control content according to the control instruction to the television 2. That is, the CPU 10 selects a control signal (for example, a signal conforming to the HDMI standard) according to the control instruction from various control signals for causing the television 2 to perform various operations. Then, the selected control signal is output to the television 2 via the AV connector 16. Also by this, the television 2 performs an operation according to the control instruction.

なお、テレビ2を制御するための上記制御信号(赤外線信号)の形式は、テレビ2の機種によって異なる場合がある。したがって、ゲーム装置3は、複数の機種に対応する各形式の制御信号を予め記憶しておくようにしてもよい。このとき、ゲーム装置3は、所定のタイミングで(例えば初期設定時に)テレビ2に応じた形式を選択し、以降は、選択された形式の制御信号を用いるようにしてもよい。これによって、ゲーム装置3は、複数種類の機種のテレビに対応することができる。   The format of the control signal (infrared signal) for controlling the television 2 may differ depending on the model of the television 2. Therefore, the game apparatus 3 may store in advance control signals of various types corresponding to a plurality of models. At this time, the game apparatus 3 may select a format corresponding to the television 2 at a predetermined timing (for example, at the time of initial setting), and thereafter, a control signal of the selected format may be used. As a result, the game apparatus 3 can support a plurality of types of televisions.

なお、本実施形態においては、ゲーム装置3は、上記2つの方法のうち少なくとも一方を用いてテレビ2を制御してもよいし、両方の方法を用いてテレビ2を制御してもよい。上記ステップS24の後、ステップS25の処理が実行される。   In the present embodiment, the game apparatus 3 may control the television 2 using at least one of the above two methods, or may control the television 2 using both methods. After step S24, the process of step S25 is executed.

ステップS25において、CPU10は、メニュー状態へ遷移するか否かを判定する。すなわち、CPU10は、第1テレビ操作状態からメニュー状態へと遷移させる変更操作が行われたか否かを判定する。この変更操作はどのような操作であってもよく、本実施形態においては、端末装置7に表示されるメニューアイコン124をタッチする操作である。すなわち、CPU10は、端末操作データ104のタッチデータをメインメモリから読み出し、タッチデータに基づいて、端末装置7に表示されるメニューアイコン124がタッチされたか否かを判定する。上記ステップS25の判定結果が肯定である場合、CPU10はテレビ処理を終了し、上述のメニュー処理を実行する。一方、上記ステップS25の判定結果が否定である場合、ステップS26の処理が実行される。   In step S25, the CPU 10 determines whether or not to transit to the menu state. That is, the CPU 10 determines whether or not a change operation for changing from the first television operation state to the menu state has been performed. This change operation may be any operation, and in this embodiment, is an operation of touching the menu icon 124 displayed on the terminal device 7. That is, the CPU 10 reads the touch data of the terminal operation data 104 from the main memory, and determines whether or not the menu icon 124 displayed on the terminal device 7 is touched based on the touch data. If the determination result of step S25 is affirmative, the CPU 10 ends the television process and executes the menu process described above. On the other hand, if the determination result of step S25 is negative, the process of step S26 is executed.

ステップS26において、CPU10は、ブラウザ状態へ遷移するか否かを判定する。ステップS26の処理は上述のステップS17の処理と同様である。ステップS26の判定結果が肯定である場合、CPU10はテレビ処理を終了し、後述するブラウザ処理を実行する。一方、上記ステップS26の判定結果が否定である場合、ステップS27の処理が実行される。   In step S26, the CPU 10 determines whether or not to transition to the browser state. The process in step S26 is the same as the process in step S17 described above. When the determination result of step S26 is affirmative, the CPU 10 ends the television process and executes a browser process described later. On the other hand, if the determination result of step S26 is negative, the process of step S27 is executed.

ステップS27において、CPU10は、その他のテレビ処理を実行する。その他のテレビ処理とは、上記ステップS21〜S26の処理以外にテレビ処理において実行される処理である。例えば、CPU10は、上記操作ボタン画像136〜138に対する選択操作に応じて番組表領域130の表示内容を変更する処理や、スクロールバー134に対するスクロール操作に応じてチャンネル画像131をスクロールさせて表示する処理等を実行する。また、本実施形態においては、第1テレビ操作状態においてはテレビ2がテレビ番組を表示する用途で用いられることを想定して、ステップS27においてCPU10はテレビ用画像を生成・出力しないものとする。ただし、他の実施形態においては、テレビ用画像が生成・出力されてもよい。例えば、上記番組表を表す装置制御画像がテレビ用画像としてテレビ2へ出力されて表示されてもよい。これによれば、ユーザは、より大きな画面で番組表を閲覧することができる。   In step S27, the CPU 10 performs other television processing. The other television processing is processing executed in television processing other than the processing in steps S21 to S26. For example, the CPU 10 changes the display content of the program guide area 130 in accordance with the selection operation on the operation button images 136 to 138, or the process of scrolling and displaying the channel image 131 in accordance with the scroll operation on the scroll bar 134. Etc. In the present embodiment, assuming that the television 2 is used for displaying a television program in the first television operation state, the CPU 10 does not generate or output a television image in step S27. However, in other embodiments, television images may be generated and output. For example, the device control image representing the program guide may be output to the television 2 and displayed as a television image. According to this, the user can browse the program guide on a larger screen.

上記ステップS27の次に、ステップS21の処理が再度実行される。以降、ステップS25およびS26のいずれかの判定における判定結果が肯定となるまで、テレビ処理が繰り返し実行される。   Following step S27, the process of step S21 is executed again. Thereafter, the television processing is repeatedly executed until the determination result in any one of steps S25 and S26 becomes affirmative.

以上のテレビ処理によれば、ユーザは、番組表を端末装置7によって閲覧することができる(ステップS22)とともに、テレビ2に対する操作を行うことができる(ステップS23,S24)。また、ユーザは、第1テレビ操作状態からメニュー状態あるいはブラウザ状態への遷移を変更操作によって容易に行うことができる(ステップS25,S26)。   According to the above television processing, the user can browse the program guide by the terminal device 7 (step S22) and can operate the television 2 (steps S23 and S24). In addition, the user can easily change from the first television operation state to the menu state or the browser state by a change operation (steps S25 and S26).

なお、他の実施形態においては、メニュー状態あるいはブラウザ状態から第1テレビ操作状態への遷移時に、(テレビ放送を表示するように)テレビ2の入力が切り替えられてもよい。すなわち、テレビ2が、ゲーム装置3から入力される画像を表示する第1モードと、テレビ放送の画像を表示する第2モードとを切り替え可能である場合において、CPU10は、端末装置7においてアプリ選択画像(あるいはブラウザ画像)から装置制御画像への表示の切り替えが行われることに応じて、テレビ2のモードを第2モードへ切り替える制御を行ってもよい。具体的には、テレビ処理の開始時において、CPU10は、テレビ放送を表示する第2モードとなるようにテレビ2に対して入力切替の制御を行うようにしてもよい。これによれば、第1テレビ操作状態への遷移時にユーザはテレビ2の入力切替の操作を行う必要がないので、ユーザの操作をより簡易にすることができる。なお、入力切替の制御は、上記ステップS24における第1の方法で行われてもよいし第2の方法で行われてもよい。   In other embodiments, the input of the television 2 may be switched at the transition from the menu state or the browser state to the first television operation state (so as to display a television broadcast). That is, when the television 2 can switch between the first mode in which an image input from the game device 3 is displayed and the second mode in which an image of television broadcasting is displayed, the CPU 10 selects an application in the terminal device 7. Control of switching the mode of the television 2 to the second mode may be performed in response to switching of the display from the image (or browser image) to the device control image. Specifically, at the start of the television processing, the CPU 10 may control the input switching for the television 2 so as to be in the second mode for displaying the television broadcast. According to this, since the user does not need to perform the input switching operation of the television 2 at the time of transition to the first television operation state, the user's operation can be simplified. The input switching control may be performed by the first method or the second method in step S24.

また、他の実施形態においては、第1テレビ操作状態からメニュー状態あるいはブラウザ状態への遷移時に、(ゲーム装置3からの画像を表示するように)テレビ2の入力が切り替えられてもよい。すなわち、テレビ2が、ゲーム装置3から入力される画像を表示する第1モードと、テレビ放送の画像を表示する第2モードとを切り替え可能である場合において、CPU10は、端末装置7において装置制御画像からアプリ選択画像(あるいはブラウザ画像)への表示の切り替えが行われることに応じて、テレビ2のモードを第1モードへ切り替える制御を行ってもよい。具体的には、ステップS16の判定結果が肯定となる場合、CPU10は、ゲーム装置3からの画像を表示する第1モードとなるようにテレビ2に対して入力切替の制御を行うようにしてもよい。また、ステップS17の判定結果が肯定となる場合、CPU10は、上記第1モードとなるようにテレビ2に対して入力切替の制御を行うようにしてもよい。これによれば、第1テレビ操作状態から他の状態への遷移時にユーザはテレビ2の入力切替の操作を行う必要がないので、ユーザの操作をより簡易にすることができる。なお、入力切替の制御は、上記ステップS24における第1の方法で行われてもよいし第2の方法で行われてもよい。   In another embodiment, the input of the television 2 may be switched (so as to display an image from the game apparatus 3) at the transition from the first television operation state to the menu state or the browser state. That is, when the television 2 can switch between the first mode for displaying an image input from the game apparatus 3 and the second mode for displaying an image of the television broadcast, the CPU 10 controls the terminal device 7 to perform device control. Control may be performed to switch the mode of the television 2 to the first mode in response to switching of the display from the image to the application selection image (or browser image). Specifically, if the determination result in step S16 is affirmative, the CPU 10 may control input switching for the television 2 so as to be in the first mode in which an image from the game apparatus 3 is displayed. Good. If the determination result in step S17 is affirmative, the CPU 10 may perform input switching control on the television 2 so as to be in the first mode. According to this, since it is not necessary for the user to perform input switching operation of the television 2 at the time of transition from the first television operation state to another state, the user operation can be simplified. The input switching control may be performed by the first method or the second method in step S24.

なお、テレビ2の機種によっては、複数種類の入力を順に切り替える指示(例えば、入力番号が「入力1」から「入力5」までの5種類の入力を順に1つずつ切り替える指示)のみが可能であり、テレビ放送を表示する第2モードを指定して入力を切り替える指示を行うことができない場合がある。その場合には、第1モードと第2モードとの間の切り替えに必要となる入力切替の指示回数を予め登録しておき、CPU10は、登録しておいた回数だけ入力切替の指示を行うようにしてもよい。例えば、テレビ放送を表示するのが「入力1」で、ゲーム装置3からの画像を表示するのが「入力3」であり、「入力1」から「入力3」へ切り替えるために入力切替の指示が2回必要である場合、ゲーム装置3は、入力切替の指示回数として“2”を記憶しておく。なお、ゲームシステム1の初期設定時において、ゲーム装置3に対応する入力の番号をユーザに登録させることによって、ゲーム装置3が上記の回数を算出することも可能である。   Note that, depending on the model of the television 2, only an instruction for sequentially switching a plurality of types of inputs (for example, an instruction for sequentially switching five types of inputs from “input 1” to “input 5” one by one) is possible. In some cases, it is impossible to designate the second mode for displaying the television broadcast and to switch the input. In that case, the number of input switching instructions required for switching between the first mode and the second mode is registered in advance, and the CPU 10 instructs the input switching for the registered number of times. It may be. For example, “input 1” is to display a television broadcast, “input 3” is to display an image from the game apparatus 3, and an input switching instruction is used to switch from “input 1” to “input 3”. Is necessary twice, the game apparatus 3 stores “2” as the input switching instruction count. When the game system 1 is initially set, the game apparatus 3 can calculate the above number of times by causing the user to register an input number corresponding to the game apparatus 3.

(ブラウザ処理)
図20は、ゲーム装置3で実行されるブラウザ処理の流れを示すフローチャートである。まずステップS21において、ブラウザ画像として上記ホームページの画像を端末装置7に表示する。すなわち、CPU10は、ブラウザ画像を生成し、生成されたブラウザ画像を端末装置7へ出力(送信)する。ブラウザ画像は、ネットワーク90を介して取得されるウェブページを含む画像であればどのようなものであってもよい。以下、図21を参照して、本実施形態におけるブラウザ画像について説明する。
(Browser processing)
FIG. 20 is a flowchart showing the flow of browser processing executed by the game apparatus 3. First, in step S21, the homepage image is displayed on the terminal device 7 as a browser image. That is, the CPU 10 generates a browser image and outputs (transmits) the generated browser image to the terminal device 7. The browser image may be any image as long as the image includes a web page acquired through the network 90. Hereinafter, the browser image in the present embodiment will be described with reference to FIG.

図21は、端末装置7に表示されるブラウザ画像の一例を示す図である。図21に示すように、ブラウザ画像は、ウェブページ表示領域141、スクロールバー142、戻るボタン143、進むボタン144、キーワード領域145、検索ボタン146、リモコン表示ボタン147を含む。さらに、ブラウザ画像には、上述のメニューアイコン124およびテレビアイコン125が含まれる。図21に示すブラウザ画像は、ウェブページを表示するとともにウェブページに対する操作を行うための操作画像である。   FIG. 21 is a diagram illustrating an example of a browser image displayed on the terminal device 7. As shown in FIG. 21, the browser image includes a web page display area 141, a scroll bar 142, a back button 143, a forward button 144, a keyword area 145, a search button 146, and a remote control display button 147. Further, the browser image includes the menu icon 124 and the television icon 125 described above. The browser image shown in FIG. 21 is an operation image for displaying a web page and performing an operation on the web page.

図21において、ウェブページ表示領域141は、ネットワーク90から取得されるデータに基づいて生成されるウェブページの画像が表示される領域である。ウェブページ表示領域141に表示されるウェブページは、スクロールバー142のつまみを上下に移動させることによって上下にスクロールして表示させることができる。戻るボタン143は、現在表示されているウェブページの1つ前に表示したウェブページを表示させる指示を表す画像である。進むボタン144は、現在表示されているウェブページの1つ後に表示したウェブページを表示させる指示を表す画像である。キーワード領域145は、入力された検索キーワードが表示される領域である。検索ボタン146は、検索キーワードを用いてウェブページの検索を行う指示を表す画像である。上記ボタン143〜146は、従来の一般的なブラウザにおけるボタンと同様の機能であってもよい。   In FIG. 21, a web page display area 141 is an area in which an image of a web page generated based on data acquired from the network 90 is displayed. The web page displayed in the web page display area 141 can be scrolled up and down by moving the knob of the scroll bar 142 up and down. The return button 143 is an image representing an instruction to display the web page displayed immediately before the currently displayed web page. The forward button 144 is an image that represents an instruction to display the web page displayed after the web page currently displayed. The keyword area 145 is an area where the input search keyword is displayed. The search button 146 is an image representing an instruction to search a web page using a search keyword. The buttons 143 to 146 may have the same function as buttons in a conventional general browser.

リモコン表示ボタン147は、リモコン画像(図24)を表示させる指示を表す画像である。リモコン画像の詳細については、後述する中断時処理において説明する。また、メニューアイコン124およびテレビアイコン125は、図16および図18に示すものと同じである。したがって、ブラウザ状態においては、メニューアイコン124またはテレビアイコン125を選択する操作を行うことによって、ユーザは、メニュー状態または第1テレビ操作状態へゲームシステム1を容易に遷移させることができる。   The remote control display button 147 is an image representing an instruction to display a remote control image (FIG. 24). Details of the remote control image will be described in the interruption processing described later. The menu icon 124 and the television icon 125 are the same as those shown in FIGS. Therefore, in the browser state, by performing an operation of selecting the menu icon 124 or the television icon 125, the user can easily transition the game system 1 to the menu state or the first television operation state.

上記ステップS31において、CPU10およびGPU11bは、ブラウザ画像を生成するために必要なデータをメインメモリおよびVRAM11dから読み出し、読み出したデータを用いてブラウザ画像を生成する。なお、本実施形態におけるステップS1においては、上記ウェブページ表示領域141内に表示される画像は、メインメモリに記憶されるホームページデータ110を用いて生成される。したがって、本実施形態においては、ブラウザ状態へ遷移した直後であってもブラウザ画像を端末装置7に迅速に表示することができる。また、生成されたブラウザ画像はVRAM11dに記憶される。さらに、CPU10は、ブラウザ画像を端末装置7へ出力する。画像を端末装置7へ出力することによって端末装置7に当該画像を表示させる処理については上記ステップS12と同様である。これによって、ブラウザ画像はLCD51に表示される。なお、CPU10は、ブラウザ画像の少なくとも一部の領域を端末装置7へ出力すればよい。例えば、CPU10は、ブラウザ画像のうちの一部の領域を拡大して端末装置7に表示させるようにしてもよい。これによれば、一般的にはテレビ2の画面よりも小さい画面を有する端末装置7においてもブラウザ画像を見やすく表示することができる。また、ステップS31においては、画像のデータと共に音声のデータが端末装置7へ送信され、端末装置7のスピーカ77から音声が出力されてもよい。ステップS31の次にステップS32の処理が実行される。   In step S31, the CPU 10 and the GPU 11b read data necessary for generating a browser image from the main memory and the VRAM 11d, and generate a browser image using the read data. In step S1 in the present embodiment, the image displayed in the web page display area 141 is generated using the home page data 110 stored in the main memory. Therefore, in this embodiment, the browser image can be quickly displayed on the terminal device 7 even immediately after the transition to the browser state. The generated browser image is stored in the VRAM 11d. Further, the CPU 10 outputs a browser image to the terminal device 7. The process of displaying the image on the terminal device 7 by outputting the image to the terminal device 7 is the same as in step S12. As a result, the browser image is displayed on the LCD 51. The CPU 10 may output at least a partial area of the browser image to the terminal device 7. For example, the CPU 10 may enlarge a part of the browser image to be displayed on the terminal device 7. According to this, it is possible to display the browser image in an easy-to-view manner even in the terminal device 7 having a screen smaller than that of the television 2 in general. In step S31, audio data may be transmitted to the terminal device 7 together with the image data, and the audio may be output from the speaker 77 of the terminal device 7. Following step S31, the process of step S32 is executed.

ステップS32において、CPU10は端末装置7から各種データを取得する。ステップS32の処理は上述のステップS11と同様である。ステップS32の次にステップS33の処理が実行される。   In step S <b> 32, the CPU 10 acquires various data from the terminal device 7. The process in step S32 is the same as that in step S11 described above. Following step S32, the process of step S33 is executed.

ステップS33において、CPU10は、メニュー状態へ遷移するか否かを判定する。ステップS33の処理は上述のステップS25の処理と同様である。ステップS33の判定結果が肯定である場合、CPU10はブラウザ処理を終了し、上記メニュー処理を実行する。一方、上記ステップS33の判定結果が否定である場合、ステップS34の処理が実行される。   In step S33, the CPU 10 determines whether or not to transit to the menu state. The process in step S33 is the same as the process in step S25 described above. If the determination result of step S33 is affirmative, the CPU 10 ends the browser process and executes the menu process. On the other hand, when the determination result of step S33 is negative, the process of step S34 is executed.

ステップS34において、CPU10は、第1テレビ操作状態へ遷移するか否かを判定する。ステップS34の処理は上述のステップS16の処理と同様である。ステップS34の判定結果が肯定である場合、CPU10はブラウザ処理を終了し、上記テレビ処理を実行する。一方、上記ステップS34の判定結果が否定である場合、ステップS35の処理が実行される。   In step S34, the CPU 10 determines whether or not to transit to the first television operation state. The process in step S34 is the same as the process in step S16 described above. If the determination result of step S34 is affirmative, the CPU 10 ends the browser process and executes the television process. On the other hand, if the determination result of step S34 is negative, the process of step S35 is executed.

ステップS35において、CPU10は、その他のブラウザ処理を実行する。その他のブラウザ処理とは、上記ステップS31〜S34の処理以外にブラウザ処理において実行される処理である。例えば、CPU10は、上記ボタン143〜146に対する選択操作に応じてボタンに応じた処理を実行したり、スクロールバー142に対するスクロール操作に応じてウェブページをスクロールさせて表示する処理等を実行したりする。その他、CPU10は、ステップS35ウェブページに含まれるリンク情報に対する選択操作が行われた場合にリンク先のウェブページを取得する処理や、ウェブページに動画が含まれる場合に当該動画を再生する処理等を実行する。上記ステップS35においては、一般的なブラウザにおいて実行される種々の処理が実行されてもよい。   In step S35, the CPU 10 executes other browser processing. The other browser process is a process executed in the browser process in addition to the processes in steps S31 to S34. For example, the CPU 10 executes a process corresponding to the button according to the selection operation for the buttons 143 to 146, or executes a process for scrolling and displaying the web page according to the scroll operation for the scroll bar 142. . In addition, the CPU 10 obtains a linked web page when a selection operation is performed on the link information included in the web page in step S35, a process of reproducing the moving image when the moving image is included in the web page, or the like. Execute. In step S35, various processes executed in a general browser may be executed.

また、CPU10は、テレビ用画像を生成してテレビ2へ出力する処理を実行してもよい。例えば、CPU10は、ウェブページの全部または一部の画像をテレビ2へ出力してもよい。具体的には、端末装置7に表示されるウェブページに動画が含まれる場合、CPU10は、動画を構成する画像をテレビ2へ逐次出力してもよい。これによれば、ユーザは、ウェブページの動画をより大きなテレビ2の画面で視聴することができる。   Further, the CPU 10 may execute a process of generating a television image and outputting it to the television 2. For example, the CPU 10 may output all or part of the image of the web page to the television 2. Specifically, when a moving image is included in the web page displayed on the terminal device 7, the CPU 10 may sequentially output images constituting the moving image to the television 2. According to this, the user can view the moving image of the web page on the larger screen of the television 2.

なお、本実施形態においてはブラウザ画像は少なくとも端末装置7に表示されるものとしたが、ブラウザ画像は端末装置7およびテレビ2の少なくとも一方に表示されればよい。ブラウザ画像が端末装置7に表示される場合には、テレビ2を他の用途に利用することができるというメリットがある。また、ブラウザ画像がテレビ2に表示される場合には、ブラウザ画像を大きな画面で見やすく表示することができ、例えばウェブページに含まれる動画をテレビ2に表示することも可能である。また、他の実施形態においては、ブラウザ画像を出力する対象となる表示装置をユーザが選択できるようにしてもよい。   In the present embodiment, the browser image is displayed at least on the terminal device 7, but the browser image may be displayed on at least one of the terminal device 7 and the television 2. When the browser image is displayed on the terminal device 7, there is an advantage that the television 2 can be used for other purposes. When the browser image is displayed on the television 2, the browser image can be displayed on a large screen in an easy-to-view manner. For example, a moving image included in a web page can be displayed on the television 2. In another embodiment, the user may be able to select a display device that is a target for outputting a browser image.

上記ステップS35の次に、ステップS32の処理が再度実行される。以降、ステップS33およびS34のいずれかの判定における判定結果が肯定となるまで、ブラウザ処理が繰り返し実行される。   Following step S35, the process of step S32 is executed again. Thereafter, browser processing is repeatedly executed until the determination result in any one of steps S33 and S34 is affirmative.

以上に説明した開始状態における処理(メニュー処理、テレビ処理、およびブラウザ処理)によれば、ゲーム装置3は、メイン操作画像として、アプリ選択画像と、装置制御画像と、ブラウザ画像とを生成可能である。そして、アプリ選択画像と装置制御画像とブラウザ画像とを所定の変更操作に応じて切り替えて端末装置7へ出力する。したがって、ユーザは、アプリケーションを選択する画面と、番組表を見てテレビを操作する画面と、ウェブページを閲覧する画面とを変更操作によって容易に切り替え、種々の用途でゲームシステム1を利用することができる。特に、本実施形態においては、開始状態における3種類の各状態のいずれかである場合、他の2つの状態へ遷移するための2つのアイコンが常に表示されるので、ユーザは、アイコンを選択する1回の操作で迅速に所望の他の状態へゲームシステム1を遷移させることができる。また、本実施形態によれば、ゲームシステム1を利用してアプリケーションの選択やウェブページの閲覧を行う状態からテレビ番組を視聴しようとする場合、ユーザは、変更操作を行って装置制御画像を端末装置7に表示させて制御指示の操作を行うだけでよく、端末装置7を用いて切り替え操作を容易に行うことができる。   According to the processing in the start state described above (menu processing, television processing, and browser processing), the game apparatus 3 can generate an application selection image, a device control image, and a browser image as the main operation image. is there. Then, the application selection image, the device control image, and the browser image are switched according to a predetermined change operation and output to the terminal device 7. Therefore, the user can easily switch between a screen for selecting an application, a screen for operating a television while watching a program guide, and a screen for browsing a web page by a change operation, and use the game system 1 for various purposes. Can do. In particular, in the present embodiment, in any of the three types of states in the start state, two icons for transitioning to the other two states are always displayed, so the user selects an icon. The game system 1 can be quickly transitioned to another desired state by one operation. In addition, according to the present embodiment, when a user wants to watch a TV program from the state of selecting an application or browsing a web page using the game system 1, the user performs a change operation to display the device control image on the terminal. It is only necessary to display the information on the device 7 and operate the control instruction, and the switching operation can be easily performed using the terminal device 7.

(中断時処理)
次に、中断時処理の詳細について説明する。図22は、ゲーム装置3で実行されるアプリ中断処理の流れを示すフローチャートである。上述のアプリ実行状態においては、アプリケーションに応じた処理内容でアプリ実行処理が実行される。ここで、アプリ実行状態において所定の中断操作が行われた場合、CPU10は、アプリ実行処理を中止(一時停止)し、図22に示すアプリ中断処理を実行する。上記所定の中断操作は、端末装置7に対するどのような操作であってもよいが、本実施形態においては、ホームボタン54Cを押下する操作である。なお、アプリケーションにおける操作のためにホームボタン54Cを用いないようにすることが好ましく、これによれば、ユーザは、アプリケーションの実行中における任意のタイミングで中断状態に遷移させることができる。
(Processing when interrupted)
Next, details of the interruption process will be described. FIG. 22 is a flowchart showing the flow of the application interruption process executed by the game apparatus 3. In the above-described application execution state, the application execution process is executed with the processing content corresponding to the application. Here, when a predetermined interruption operation is performed in the application execution state, the CPU 10 stops (temporarily stops) the application execution process and executes the application interruption process illustrated in FIG. The predetermined interruption operation may be any operation on the terminal device 7, but in the present embodiment, is an operation of pressing the home button 54C. In addition, it is preferable not to use the home button 54C for the operation in the application, and according to this, the user can transition to the suspended state at any timing during the execution of the application.

なお、本実施形態においては、中断状態においてはアプリケーションの実行自体が中断(一時停止)される。ただし、他の実施形態においては、アプリケーションの実行は継続されてもよい。CPU10は、例えばアプリケーションの内部処理の計算を実行する等、ユーザの使用に影響を与えない範囲でアプリケーションにおける情報処理を実行するようにしてもよい。   In the present embodiment, the execution of the application itself is suspended (suspended) in the suspended state. However, in other embodiments, execution of the application may be continued. The CPU 10 may execute information processing in the application within a range that does not affect the use of the user, for example, by executing calculation of internal processing of the application.

アプリ中断処理においては、まずステップS41において、CPU10は、設定画像を端末装置7に表示する。すなわち、CPU10は、設定画像を生成し、生成された設定画像を端末装置7へ出力(送信)する。したがって、本実施形態においては、中断状態への遷移時にはゲームシステム1はまず設定状態へと遷移する。なお、他の実施形態においては、中断状態への遷移時にはゲームシステム1はまず第2テレビ操作状態へと遷移してもよい。また、上記設定画像は、ゲームシステム1(端末装置7)に対する設定操作を表す操作画像であればどのようなものであってもよい。以下、図23を参照して、本実施形態における設定画像について説明する。   In the application interruption process, first, in step S41, the CPU 10 displays a setting image on the terminal device 7. That is, the CPU 10 generates a setting image and outputs (transmits) the generated setting image to the terminal device 7. Therefore, in the present embodiment, the game system 1 first transitions to the set state when transitioning to the suspended state. In other embodiments, the game system 1 may first transition to the second television operation state when transitioning to the interrupted state. Further, the setting image may be any operation image that represents a setting operation for the game system 1 (terminal device 7). Hereinafter, the setting image in the present embodiment will be described with reference to FIG.

図23は、端末装置7に表示される設定画像の一例を示す図である。図23に示すように、設定画像は、アプリ終了ボタン151、アプリ中止ボタン152、アプリ再開ボタン153、リモコン表示ボタン154、端末設定ボタン155、コントローラ設定ボタン156、リストボタン157、説明書ボタン158を含む。   FIG. 23 is a diagram illustrating an example of a setting image displayed on the terminal device 7. As shown in FIG. 23, the setting image includes an application end button 151, an application stop button 152, an application restart button 153, a remote control display button 154, a terminal setting button 155, a controller setting button 156, a list button 157, and an instruction button 158. Including.

アプリ終了ボタン151は、実行が中断されているアプリケーションを終了する指示を表す画像である。アプリ中止ボタン152は、上記アプリケーションを一時停止する指示を表す画像である。アプリ再開ボタン153は、上記アプリケーションを再開する指示である。これらのボタン151〜153によって、中断状態からアプリケーションを終了または一時停止してメニュー状態へ遷移することも可能であるし、中断状態からアプリケーションを再開することも可能である。   The application end button 151 is an image representing an instruction to end an application whose execution has been interrupted. The application stop button 152 is an image representing an instruction to temporarily stop the application. The application restart button 153 is an instruction to restart the application. With these buttons 151 to 153, it is possible to end or temporarily stop the application from the suspended state and transition to the menu state, or to resume the application from the suspended state.

リモコン表示ボタン154は、リモコン画像(図24)を端末装置7に表示させる指示を表す画像である。詳細は後述するが、リモコン画像は、テレビ2に対する操作を行うための操作画像であり、テレビ2に対する操作を表すボタン画像等を含む操作画像である。   The remote control display button 154 is an image representing an instruction to display a remote control image (FIG. 24) on the terminal device 7. Although details will be described later, the remote control image is an operation image for performing an operation on the television 2, and is an operation image including a button image representing an operation on the television 2.

端末設定ボタン155は、端末装置7に対する各種の設定を行うための画面を表示する指示を表す画像である。コントローラ設定ボタン156は、コントローラ5に対する各種の設定を行うための画面を表示する指示を表す画像である。リストボタン157は、予め登録されている他のユーザ(知人や友人)のリストを表示する指示を表す画像である。例えば、ユーザは、リストから選択した他のユーザとゲームの対戦を行ったり、通信を行ったりすることができる。説明書ボタン158は、ゲームシステム1(または端末装置7)の説明書を表示する指示を表す画像である。これらのボタン155〜158によって、ユーザは、ゲームシステム1に関する各種の設定の変更を行うことができる。   The terminal setting button 155 is an image representing an instruction to display a screen for performing various settings for the terminal device 7. The controller setting button 156 is an image representing an instruction to display a screen for performing various settings for the controller 5. The list button 157 is an image representing an instruction to display a list of other users (acquaintances and friends) registered in advance. For example, the user can play a game or communicate with another user selected from the list. The instruction button 158 is an image representing an instruction to display an instruction of the game system 1 (or the terminal device 7). With these buttons 155 to 158, the user can change various settings related to the game system 1.

上記ステップS41において、CPU10およびGPU11bは、上記各ボタン151〜158の画像等、設定画像を生成するために必要なデータをVRAM11dから読み出し、読み出したデータを用いて設定画像を生成する。また、生成された設定画像はVRAM11dに記憶される。さらに、CPU10は、設定画像を端末装置7へ出力する。画像を端末装置7へ出力することによって端末装置7に当該画像を表示させる処理については上記ステップS12と同様である。これによって、設定画像はLCD51に表示される。また、ステップS41においては、画像のデータと共に音声のデータが端末装置7へ送信され、端末装置7のスピーカ77から音声が出力されてもよい。ステップS41の次にステップS42の処理が実行される。   In step S41, the CPU 10 and the GPU 11b read from the VRAM 11d data necessary for generating a setting image, such as the images of the buttons 151 to 158, and generate a setting image using the read data. The generated setting image is stored in the VRAM 11d. Further, the CPU 10 outputs the setting image to the terminal device 7. The process of displaying the image on the terminal device 7 by outputting the image to the terminal device 7 is the same as in step S12. Thereby, the setting image is displayed on the LCD 51. Further, in step S41, audio data may be transmitted to the terminal device 7 together with the image data, and the audio may be output from the speaker 77 of the terminal device 7. Following step S41, the process of step S42 is executed.

ステップS42において、CPU10は端末装置7から各種データを取得する。ステップS42の処理は上述のステップS11と同様である。ステップS42の次にステップS43の処理が実行される。   In step S <b> 42, the CPU 10 acquires various data from the terminal device 7. The process of step S42 is the same as that of step S11 described above. Following step S42, the process of step S43 is executed.

ステップS43において、CPU10は、リモコン画像を表示するか否かを判定する。すなわち、CPU10は、設定状態から第2テレビ操作状態へと遷移させる操作が行われたか否かを判定する。この操作はどのような操作であってもよく、本実施形態においては、端末装置7に表示されるリモコン表示ボタン154をタッチする操作である。すなわち、CPU10は、端末操作データ104のタッチデータをメインメモリから読み出し、タッチデータに基づいて、端末装置7に表示されるリモコン表示ボタン154がタッチされたか否かを判定する。上記ステップS43の判定結果が肯定である場合、ステップS44の処理が実行される。一方、上記ステップS43の判定結果が否定である場合、ステップS44の処理がスキップされてステップS45の処理が実行される。   In step S43, the CPU 10 determines whether or not to display a remote control image. That is, the CPU 10 determines whether or not an operation for changing from the setting state to the second television operation state has been performed. This operation may be any operation, and in this embodiment, is an operation of touching the remote control display button 154 displayed on the terminal device 7. That is, the CPU 10 reads the touch data of the terminal operation data 104 from the main memory, and determines whether or not the remote control display button 154 displayed on the terminal device 7 is touched based on the touch data. If the determination result of step S43 is affirmative, the process of step S44 is executed. On the other hand, if the determination result of step S43 is negative, the process of step S44 is skipped and the process of step S45 is executed.

ステップS44において、CPU10は、リモコン画像を端末装置7に表示する。すなわち、CPU10は、リモコン画像を生成し、生成されたリモコン画像を端末装置7へ出力(送信)する。リモコン画像は、テレビ2に対する操作を表す操作画像であればどのようなものであってもよい。以下、図24を参照して、本実施形態におけるリモコン画像について説明する。   In step S <b> 44, the CPU 10 displays a remote control image on the terminal device 7. That is, the CPU 10 generates a remote control image and outputs (transmits) the generated remote control image to the terminal device 7. The remote control image may be any operation image that represents an operation on the television 2. Hereinafter, the remote control image in the present embodiment will be described with reference to FIG.

図24は、端末装置7に表示されるリモコン画像の一例を示す図である。図24に示すように、リモコン画像は、上記設定画像と同様のアプリ終了ボタン151およびアプリ中止ボタン152を含む。したがって、本実施形態においては、第2テレビ操作状態においても設定状態と同様、アプリケーションを終了または一時停止してメニュー状態へ遷移することが可能である。なお、他の実施形態においては、CPU10は、例えば上記設定画像と同様のアプリ再開ボタン153を端末装置7に表示させることによって、第2テレビ操作状態からアプリケーションを再開してアプリ実行状態へ遷移することが可能であるようにしてもよい。   FIG. 24 is a diagram illustrating an example of a remote control image displayed on the terminal device 7. As shown in FIG. 24, the remote control image includes an application end button 151 and an application stop button 152 similar to the setting image. Therefore, in the present embodiment, in the second television operation state, as in the setting state, it is possible to end or pause the application and transition to the menu state. In another embodiment, for example, the CPU 10 causes the terminal device 7 to display an application restart button 153 similar to the setting image, thereby restarting the application from the second television operation state and transitioning to the application execution state. May be possible.

また、戻るボタン167は、第2テレビ操作状態から設定状態へ遷移する(戻る)指示を表す画像である。つまり、本実施形態においては、ユーザは、上記リモコン表示ボタン154または戻るボタン167を選択する操作によって、設定画像とリモコン画像とを切り替えて表示することができる。   The return button 167 is an image representing an instruction to change (return) from the second television operation state to the setting state. That is, in the present embodiment, the user can switch between the setting image and the remote control image by an operation of selecting the remote control display button 154 or the return button 167.

また、リモコン画像は、電源ボタン161、入力切替ボタン162、音量増加ボタン163、音量減少ボタン164、チャンネル増加ボタン165、およびチャンネル減少ボタン166を含む。上記ボタン161〜166は、テレビ2に対する制御指示を表す画像である。電源ボタン161は、テレビ2の電源のオン/オフを切り替える指示を表す画像である。入力切替ボタン162は、テレビ2における入力を切り替える(すなわち、テレビ番組の映像を入力して表示するモードと、ゲーム装置3からの画像を入力して表示するモードとの間の切り替え)指示を表す画像である。音量増加ボタン163は、テレビ2の音量を上げる指示を表す画像である。音量減少ボタン164は、テレビ2の音量を上げる指示を表す画像である。チャンネル増加ボタン165は、テレビ2の選局を昇順に1つずつ変更する指示を表す画像である。チャンネル減少ボタン166は、テレビ2の選局を降順に1つずつ変更する指示を表す画像である。上記各ボタン161〜166によって、ユーザはテレビ2の電源、入力切替、音量、および選局を操作することができる。なお、他の実施形態においては、上記各ボタンの他、例えば、各チャンネルを表すボタンや、テレビ放送から取得される番組表を表示する指示を表すボタンや、(テレビ2が録画機能を有する場合)録画の指示を表すボタン等、一般的なテレビのリモコンが有するボタンが端末装置7に表示されてもよい。   The remote control image also includes a power button 161, an input switching button 162, a volume increase button 163, a volume decrease button 164, a channel increase button 165, and a channel decrease button 166. The buttons 161 to 166 are images representing control instructions for the television 2. The power button 161 is an image representing an instruction to switch on / off the power of the television 2. The input switching button 162 represents an instruction to switch input on the television 2 (that is, switching between a mode for inputting and displaying a video of a television program and a mode for inputting and displaying an image from the game apparatus 3). It is an image. The volume increase button 163 is an image representing an instruction to increase the volume of the television 2. The volume decrease button 164 is an image representing an instruction to increase the volume of the television 2. The channel increase button 165 is an image representing an instruction to change the channel selection of the television 2 one by one in ascending order. The channel decrease button 166 is an image representing an instruction to change the channel selection of the television 2 one by one in descending order. The buttons 161 to 166 allow the user to operate the power source, input switching, volume, and channel selection of the television 2. In other embodiments, in addition to the above buttons, for example, a button representing each channel, a button representing an instruction to display a program guide acquired from a television broadcast, or (when the television 2 has a recording function) ) A button of a general television remote controller, such as a button indicating a recording instruction, may be displayed on the terminal device 7.

以上のように、本実施形態においては、リモコン画像は、各種の制御指示を表す画像を含む画像である。なお、他の実施形態においては、リモコン画像は、制御指示の内容(例えば音量の増加)と、当該制御指示を行うためのボタン(例えば第2Rボタン54L)との割り当てを表す画像であってもよい。また、リモコン画像は、上記装置制御画像と同様、番組表を含んでもいてもよい。   As described above, in the present embodiment, the remote control image is an image including images representing various control instructions. In another embodiment, the remote control image may be an image representing assignment of the content of the control instruction (for example, increase in volume) and a button for performing the control instruction (for example, the second R button 54L). Good. In addition, the remote control image may include a program guide as with the device control image.

上記ステップS44において、CPU10およびGPU11bは、上記各ボタン151〜153および161〜166の画像等、リモコン画像を生成するために必要なデータをVRAM11dから読み出し、読み出したデータを用いてリモコン画像を生成する。また、生成されたリモコン画像はVRAM11dに記憶される。さらに、CPU10は、リモコン画像を端末装置7へ出力する。画像を端末装置7へ出力することによって端末装置7に当該画像を表示させる処理については上記ステップS12と同様である。これによって、リモコン画像はLCD51に表示される。ステップS44の処理によって、ゲームシステム1は設定状態から第2テレビ操作状態へと遷移する。また、ステップS44においては、画像のデータと共に音声のデータが端末装置7へ送信され、端末装置7のスピーカ77から音声が出力されてもよい。ステップS44の次にステップS45の処理が実行される。   In step S44, the CPU 10 and the GPU 11b read from the VRAM 11d data necessary for generating a remote control image, such as the images of the buttons 151 to 153 and 161 to 166, and generate a remote control image using the read data. . The generated remote control image is stored in the VRAM 11d. Further, the CPU 10 outputs a remote control image to the terminal device 7. The process of displaying the image on the terminal device 7 by outputting the image to the terminal device 7 is the same as in step S12. As a result, the remote control image is displayed on the LCD 51. By the process of step S44, the game system 1 transits from the set state to the second television operation state. In step S44, audio data may be transmitted to the terminal device 7 together with the image data, and the audio may be output from the speaker 77 of the terminal device 7. Following step S44, the process of step S45 is executed.

なお、他の実施形態においては、第2テレビ操作状態への遷移時に、(テレビ放送を表示するように)テレビ2の入力が切り替えられてもよい。すなわち、テレビ2が、ゲーム装置3から入力される画像を表示する第1モードと、テレビ放送の画像を表示する第2モードとを切り替え可能である場合において、CPU10は、端末装置7にサブ操作画像(より具体的にはリモコン画像)が表示されることに応じて、テレビ2のモードを第2モードへ切り替える制御を行ってもよい。具体的には、上記ステップS44において、CPU10は、テレビ放送を表示する第2モードとなるようにテレビ2に対して入力切替の制御を行うようにしてもよい。これによれば、第2テレビ操作状態への遷移時にユーザはテレビ2の入力切替の操作を行う必要がないので、ユーザの操作をより簡易にすることができる。なお、入力切替の制御は、上記ステップS24における第1の方法で行われてもよいし第2の方法で行われてもよい。   In other embodiments, the input of the television 2 may be switched (to display a television broadcast) at the time of transition to the second television operation state. That is, when the television 2 can switch between the first mode for displaying an image input from the game apparatus 3 and the second mode for displaying an image of the television broadcast, the CPU 10 performs a sub-operation on the terminal device 7. Control may be performed to switch the mode of the television 2 to the second mode in response to the display of an image (more specifically, a remote control image). Specifically, in step S44, the CPU 10 may perform input switching control on the television 2 so as to be in the second mode for displaying the television broadcast. According to this, since it is not necessary for the user to perform an input switching operation of the television 2 at the time of transition to the second television operation state, the user's operation can be further simplified. The input switching control may be performed by the first method or the second method in step S24.

ステップS45において、CPU10は、制御指示があったか否かを判定する。制御指示は、テレビ2に対する制御を行う指示である。制御指示を行うための操作はどのような操作であってもよい。本実施形態においては、上記ステップS23と同様、端末装置7に表示される、制御指示を表すボタン161〜166をタッチする操作によって制御指示が行われる。すなわち、CPU10は、端末操作データ104のタッチデータをメインメモリから読み出し、タッチデータに基づいて、端末装置7に表示される上記ボタン161〜166のいずれかがタッチされたか否かを判定する。上記ステップS45の判定結果が肯定である場合、ステップS46の処理が実行される。一方、上記ステップS45の判定結果が否定である場合、ステップS46の処理がスキップされてステップS47の処理が実行される。   In step S45, the CPU 10 determines whether or not there is a control instruction. The control instruction is an instruction to perform control on the television 2. The operation for performing the control instruction may be any operation. In the present embodiment, the control instruction is performed by touching the buttons 161 to 166 representing the control instruction displayed on the terminal device 7 as in step S23. That is, the CPU 10 reads the touch data of the terminal operation data 104 from the main memory, and determines whether any of the buttons 161 to 166 displayed on the terminal device 7 is touched based on the touch data. If the determination result of step S45 is affirmative, the process of step S46 is executed. On the other hand, if the determination result of step S45 is negative, the process of step S46 is skipped and the process of step S47 is executed.

ステップS46において、CPU10は、上記制御指示に応じた制御をテレビ2に対して行う。ステップS46の処理は上述のステップS24と同様である。すなわち、CPU10は、ゲーム装置3が端末装置7を介してテレビ2へ制御信号を出力する第1の方法、および/または、ゲーム装置3が直接テレビ2へ制御信号を出力する第2の方法によってテレビ2を制御する。ステップS46の次にステップS47の処理が実行される。   In step S46, the CPU 10 performs control on the television 2 in accordance with the control instruction. The processing in step S46 is the same as that in step S24 described above. That is, the CPU 10 uses a first method in which the game apparatus 3 outputs a control signal to the television 2 via the terminal device 7 and / or a second method in which the game apparatus 3 directly outputs a control signal to the television 2. The television 2 is controlled. Following step S46, the process of step S47 is executed.

ステップS47において、CPU10は、設定画像を表示するか否かを判定する。すなわち、CPU10は、第2テレビ操作状態から設定状態へと遷移させる操作が行われたか否かを判定する。この操作はどのような操作であってもよく、本実施形態においては、端末装置7に表示される戻るボタン167をタッチする操作である。すなわち、CPU10は、端末操作データ104のタッチデータをメインメモリから読み出し、タッチデータに基づいて、端末装置7に表示される戻るボタン167がタッチされたか否かを判定する。上記ステップS47の判定結果が肯定である場合、ステップS48の処理が実行される。一方、上記ステップS47の判定結果が否定である場合、ステップS48の処理がスキップされてステップS49の処理が実行される。   In step S47, the CPU 10 determines whether or not to display a setting image. That is, the CPU 10 determines whether or not an operation for making a transition from the second television operation state to the setting state has been performed. This operation may be any operation, and in this embodiment, is an operation of touching the return button 167 displayed on the terminal device 7. That is, the CPU 10 reads the touch data of the terminal operation data 104 from the main memory, and determines whether or not the return button 167 displayed on the terminal device 7 is touched based on the touch data. If the determination result of step S47 is affirmative, the process of step S48 is executed. On the other hand, if the determination result of step S47 is negative, the process of step S48 is skipped and the process of step S49 is executed.

ステップS48において、CPU10は設定画像を端末装置7に表示する。ステップS48の処理は上記ステップS41の処理と同じである。ステップS48の処理によって、ゲームシステム1は第2テレビ操作状態から設定状態へと遷移する。ステップS48の次にステップS49の処理が実行される。   In step S <b> 48, the CPU 10 displays the setting image on the terminal device 7. The process in step S48 is the same as the process in step S41. By the process of step S48, the game system 1 changes from the second television operation state to the setting state. Following step S48, the process of step S49 is executed.

ステップS49において、CPU10は各種の設定処理を実行する。すなわち、CPU10は、上述の端末設定ボタン155、コントローラ設定ボタン156、リストボタン157、および説明書ボタン158が選択された(タッチされた)か否かを判定する。そして、いずれかのボタンが選択された場合には、選択されたボタンに応じた処理を実行する。ステップS49における設定処理は、従来における一般的なゲームシステムにおいて実行される設定処理と同様であってもよい。ステップS49の次にステップS50の処理が実行される。   In step S49, the CPU 10 executes various setting processes. That is, the CPU 10 determines whether or not the above-described terminal setting button 155, controller setting button 156, list button 157, and instruction button 158 are selected (touched). If any button is selected, processing corresponding to the selected button is executed. The setting process in step S49 may be the same as the setting process executed in a conventional general game system. Following step S49, the process of step S50 is executed.

ステップS50において、CPU10は、メニュー状態へ遷移するか否かを判定する。すなわち、実行が中断されているアプリケーションを終了または一時中止するか否かを判定する。この判定は、上記アプリケーションを終了または一時中止する操作(中断状態からメニュー状態へと遷移させる操作)が行われたか否かを判定する。この操作はどのような操作であってもよく、本実施形態においては、端末装置7に表示されるアプリ終了ボタン151またはアプリ中止ボタン152をタッチする操作である。すなわち、CPU10は、端末操作データ104のタッチデータをメインメモリから読み出し、タッチデータに基づいて、端末装置7に表示されるアプリ終了ボタン151またはアプリ中止ボタン152がタッチされたか否かを判定する。上記ステップS50の判定結果が肯定である場合、ステップS51の処理が実行される。一方、上記ステップS50の判定結果が否定である場合、ステップS52の処理が実行される。   In step S50, the CPU 10 determines whether or not to transit to the menu state. That is, it is determined whether or not to terminate or suspend an application whose execution has been suspended. In this determination, it is determined whether or not an operation for ending or temporarily stopping the application (an operation for changing from the interrupted state to the menu state) has been performed. This operation may be any operation, and in this embodiment, is an operation of touching the application end button 151 or the application stop button 152 displayed on the terminal device 7. That is, the CPU 10 reads the touch data of the terminal operation data 104 from the main memory, and determines whether or not the application end button 151 or the application stop button 152 displayed on the terminal device 7 is touched based on the touch data. If the determination result of step S50 is affirmative, the process of step S51 is executed. On the other hand, if the determination result of step S50 is negative, the process of step S52 is executed.

ステップS51において、CPU10はアプリケーションの終了処理を行う。具体的には、アプリケーションで使用されるデータのうちで保存すべきデータをセーブデータ111としてメインメモリに記憶する。なお、セーブデータ111は、適宜のタイミングでフラッシュメモリ17や、アプリケーションが記憶される記憶媒体に記憶される。また、上記ステップS50においてアプリ終了ボタン151が選択された場合には、次回にアプリケーションが起動される場合には所定の初期状態からアプリケーションが開始される。一方、上記ステップS50においてアプリ中止ボタン152が選択された場合には、次回にアプリケーションが起動(再開)される場合には中断時の状態からアプリケーションが開始される。したがって、CPU10は、アプリ終了ボタン151が選択された場合とアプリ中止ボタン152が選択された場合とでセーブデータ111として記憶する内容が異なるようにしてもよい。ステップS51の後、CPU10は中断時処理を終了する。その後、ゲームシステム1は中断状態からメニュー状態へ遷移する。すなわち、CPU10はメニュー処理(図16)を実行する。   In step S51, the CPU 10 performs an application termination process. Specifically, the data to be saved among the data used in the application is stored in the main memory as save data 111. Note that the save data 111 is stored in the flash memory 17 or a storage medium in which the application is stored at an appropriate timing. If the application end button 151 is selected in step S50, the application is started from a predetermined initial state when the application is started next time. On the other hand, when the application cancel button 152 is selected in step S50, when the application is started (restarted) next time, the application is started from the state at the time of interruption. Therefore, the CPU 10 may make the contents stored as the save data 111 different when the application end button 151 is selected and when the application stop button 152 is selected. After step S51, the CPU 10 ends the interruption process. Thereafter, the game system 1 transitions from the interrupted state to the menu state. That is, the CPU 10 executes menu processing (FIG. 16).

以上のように、本実施形態においては、CPU10は、アプリケーションの実行中において端末装置7に対して所定の操作(中断操作)が行われた場合、実行中のアプリケーションを終了する指示を表す終了指示画像(アプリ終了ボタン151)を含むサブ操作画像を生成する(ステップS41)。そして、終了指示画像が指定されることによってアプリケーションを終了する指示が行われた場合、当該アプリケーションの実行を終了する(ステップS50)。さらに、アプリケーションの実行が終了された場合、CPU10は、メイン操作画像を生成する。このように、本実施形態によれば、実行中のアプリケーションが終了されるとメイン操作画像(より具体的にはアプリ選択画像)が端末装置7に表示される。したがって、ユーザは、アプリケーションを終了した後、次に実行したいアプリケーションを容易に選択することができる。   As described above, in the present embodiment, when a predetermined operation (interruption operation) is performed on the terminal device 7 during execution of the application, the CPU 10 terminates an instruction that terminates the application being executed. A sub operation image including an image (application end button 151) is generated (step S41). Then, when an instruction to end the application is given by specifying the end instruction image, the execution of the application is ended (step S50). Further, when the execution of the application is terminated, the CPU 10 generates a main operation image. Thus, according to the present embodiment, when the running application is terminated, the main operation image (more specifically, the application selection image) is displayed on the terminal device 7. Therefore, the user can easily select an application to be executed next after ending the application.

なお、本実施形態においては、アプリ中断処理においてアプリケーションが終了された場合、ゲームシステム1はメニュー状態へ遷移した。なお、他の実施形態においては、上記の場合、ゲームシステム1は第1テレビ操作状態またはブラウザ状態へ遷移してもよい。例えば、中断状態において所定の操作が行われたことに応じて、ゲームシステム1は第1テレビ操作状態またはブラウザ状態へ遷移することができるようにしてもよい。具体的には、CPU10は、上記設定画像およびリモコン画像において、テレビアイコン125および/またはブラウザアイコン126を表示するようにしてもよい。そして、テレビアイコン125を選択する操作が行われた場合、CPU10は、アプリケーションを終了して装置制御画像を端末装置7に表示する。これによって、ゲームシステム1は第1テレビ操作状態へ遷移する。また、ブラウザアイコン126を選択する操作が行われた場合、CPU10は、アプリケーションを終了してブラウザ画像を端末装置7に表示する。これによって、ゲームシステム1はブラウザ状態へ遷移する。以上によれば、ユーザは、中断状態から、開始状態の3つの状態のうちの所望の状態へゲームシステム1を遷移させることができる。また例えば、CPU10は、アプリケーションが終了された場合、上記3つの状態のうちから遷移すべき状態を所定の条件に応じて決定するようにしてもよい。具体的には、CPU10は、遷移すべき状態を上記初期状態としてもよい。   In the present embodiment, when the application is terminated in the application interruption process, the game system 1 transitions to the menu state. In other embodiments, in the above case, the game system 1 may transition to the first television operation state or the browser state. For example, the game system 1 may be able to transition to the first television operation state or the browser state in response to a predetermined operation being performed in the interrupted state. Specifically, the CPU 10 may display the television icon 125 and / or the browser icon 126 in the setting image and the remote control image. When an operation for selecting the TV icon 125 is performed, the CPU 10 ends the application and displays a device control image on the terminal device 7. Thereby, the game system 1 transits to the first television operation state. When an operation for selecting the browser icon 126 is performed, the CPU 10 ends the application and displays a browser image on the terminal device 7. Thereby, the game system 1 transits to the browser state. According to the above, the user can change the game system 1 from the suspended state to a desired state among the three states of the start state. Further, for example, when the application is terminated, the CPU 10 may determine a state to be transitioned from among the three states according to a predetermined condition. Specifically, the CPU 10 may set the state to be transitioned to the initial state.

ステップS52において、CPU10は、実行が中断されていたアプリケーションを再開するか否かを判定する。すなわち、CPU10は、上記アプリケーションを再開する操作(中断状態からアプリ実行状態へと遷移させる操作)が行われたか否かを判定する。この操作はどのような操作であってもよく、本実施形態においては、端末装置7に表示されるアプリ再開ボタン153をタッチする操作である。すなわち、CPU10は、端末操作データ104のタッチデータをメインメモリから読み出し、タッチデータに基づいて、端末装置7に表示されるアプリ再開ボタン153がタッチされたか否かを判定する。上記ステップS52の判定結果が肯定である場合、CPU10は中断時処理を終了し、アプリ実行処理を実行する。これによって、アプリケーションの実行が再開され、ゲームシステム1は中断状態からアプリ実行状態へ遷移する。一方、上記ステップS52の判定結果が否定である場合、ステップS42の処理が再度実行される。以降ステップS50およびS52のいずれかの判定における判定結果が肯定となるまで、中断時処理が繰り返し実行される。   In step S52, the CPU 10 determines whether or not to resume the application whose execution has been interrupted. That is, the CPU 10 determines whether or not an operation for resuming the application (an operation for making a transition from the suspended state to the application execution state) has been performed. This operation may be any operation, and in the present embodiment, is an operation of touching the application restart button 153 displayed on the terminal device 7. That is, the CPU 10 reads the touch data of the terminal operation data 104 from the main memory, and determines whether or not the application resume button 153 displayed on the terminal device 7 is touched based on the touch data. When the determination result of step S52 is affirmative, the CPU 10 ends the interruption process and executes an application execution process. Thereby, the execution of the application is resumed, and the game system 1 transitions from the suspended state to the application executing state. On the other hand, when the determination result of step S52 is negative, the process of step S42 is executed again. Thereafter, the interruption processing is repeatedly executed until the determination result in any one of steps S50 and S52 becomes affirmative.

また、他の実施形態においては、第2テレビ操作状態からアプリ実行状態への遷移時に、(ゲーム装置3からの画像を表示するように)テレビ2の入力が切り替えられてもよい。すなわち、テレビ2が、ゲーム装置3から入力される画像を表示する第1モードと、テレビ放送の画像を表示する第2モードとを切り替え可能である場合において、CPU10は、端末装置7において表示される画像がリモコン画像からアプリケーションの実行によって生成される画像へと切り替えられることに応じて、テレビ2のモードを第1モードへ切り替える制御を行ってもよい。具体的には、ステップS52の判定結果が肯定となる場合、CPU10は、ゲーム装置3からの画像を表示する第1モードとなるようにテレビ2に対して入力切替の制御を行うようにしてもよい。これによれば、第2テレビ操作状態からアプリ実行状態への遷移時にユーザはテレビ2の入力切替の操作を行う必要がないので、ユーザの操作をより簡易にすることができる。また、他の実施形態においては、CPU10は、第2テレビ操作状態から設定画像状態への遷移時、メニュー状態への遷移時、ブラウザ状態への遷移時においても、上記の制御を行うようにしてもよい。なお、入力切替の制御は、上記ステップS24における第1の方法で行われてもよいし第2の方法で行われてもよい。   In another embodiment, the input of the television 2 may be switched (so as to display an image from the game apparatus 3) at the time of transition from the second television operation state to the application execution state. That is, when the television 2 can switch between the first mode for displaying an image input from the game device 3 and the second mode for displaying a television broadcast image, the CPU 10 is displayed on the terminal device 7. Control may be performed to switch the mode of the television 2 to the first mode in response to switching from the remote control image to the image generated by executing the application. Specifically, if the determination result in step S52 is affirmative, the CPU 10 may control input switching for the television 2 so as to be in the first mode in which an image from the game apparatus 3 is displayed. Good. According to this, since it is not necessary for the user to perform an input switching operation of the television 2 at the time of transition from the second television operation state to the application execution state, the user operation can be simplified. In another embodiment, the CPU 10 performs the above-described control at the transition from the second television operation state to the setting image state, the transition to the menu state, and the transition to the browser state. Also good. The input switching control may be performed by the first method or the second method in step S24.

以上のように、本実施形態においては、CPU10は、アプリケーションの実行中において端末装置7に対して所定の操作(中断操作)が行われた場合、当該アプリケーションの実行を一時停止する。また、CPU10は、サブ操作画像が端末装置7に表示される状態(中断状態)において、アプリケーションの実行を再開する再開指示(アプリ再開ボタン153を選択する操作)があったか否かを端末操作データに基づいて判定する。そして、再開指示があった場合にはCPU10はアプリケーションの実行を再開する。このように、本実施形態においては、実行中のアプリケーションが中断された場合、ユーザは再開指示によってアプリケーションを容易に再開することができる。   As described above, in this embodiment, when a predetermined operation (interruption operation) is performed on the terminal device 7 during execution of the application, the CPU 10 temporarily stops the execution of the application. In addition, in the state where the sub operation image is displayed on the terminal device 7 (suspended state), the CPU 10 uses the terminal operation data to determine whether or not there has been a resumption instruction (operation for selecting the application resumption button 153) to resume execution of the application. Judgment based on. Then, when there is a restart instruction, the CPU 10 restarts the execution of the application. Thus, in the present embodiment, when an application being executed is interrupted, the user can easily restart the application by a restart instruction.

以上のように本実施形態においては、CPU10は、アプリケーションの実行中において端末装置7に対して所定の操作(中断操作)が行われた場合、所定のサブ操作画像を生成する。そして、サブ操作画像が端末装置7の表示部に表示される状態(中断状態)において、制御指示があったか否かを端末操作データに基づいて判定する(ステップS45)。したがって、本実施形態においては、ユーザは、端末装置7を用いてゲームシステム1のアプリケーションを利用している際、アプリケーションの利用を中断してテレビ2を操作することができる。これによれば、ユーザは、アプリケーションの実行を終了しなくてもテレビ2に対する操作を行うことができるので、ゲームシステム1においてテレビ2を用いる状態と、番組を表示するためのテレビ2を用いる状態との切り替え操作がより容易になる。例えば、ユーザは、アプリケーションの利用を一時中断してテレビ2の入力を切り替えてテレビ番組を視聴したり、テレビ番組の視聴を一時中断してアプリケーションを利用したりすることを、端末装置7を用いて容易に行うことができる。   As described above, in the present embodiment, the CPU 10 generates a predetermined sub-operation image when a predetermined operation (interruption operation) is performed on the terminal device 7 during execution of the application. And in the state (interruption state) in which a sub operation image is displayed on the display part of the terminal device 7, it is determined based on terminal operation data whether there was a control instruction (step S45). Therefore, in the present embodiment, when using the application of the game system 1 using the terminal device 7, the user can operate the television 2 by interrupting the use of the application. According to this, since the user can perform an operation on the television 2 without ending the execution of the application, the state in which the television 2 is used in the game system 1 and the state in which the television 2 for displaying a program is used. Switching operation is easier. For example, the user uses the terminal device 7 to suspend the use of the application and switch the input of the television 2 to view the television program, or to suspend the viewing of the television program and use the application. Can be done easily.

また、本実施形態においては、上述のブラウザ状態においても、リモコン画像が表示される。すなわち、ブラウザ処理(図20)におけるステップS32〜S35の処理ループにおいては、CPU10は、リモコン画像を表示する操作が行われたか否か、具体的には、リモコン表示ボタン147を選択する(タッチする)操作が行われた否かを判定する。そして、判定結果が肯定である場合、ステップS44と同様の処理が実行される。その結果、リモコン画像が端末装置7に表示される。なお、ブラウザ状態において表示されるリモコン画像においては、上記アプリ終了ボタン151およびアプリ中止ボタン152は含まれない。また、戻るボタン167が選択された場合には、CPU10はブラウザ画像を端末装置7に表示する。以上のように、本実施形態においては、ブラウザ状態においてもユーザはリモコン画像を表示させることができ、テレビ2を操作することができる。   In the present embodiment, the remote control image is displayed even in the browser state described above. That is, in the processing loop of steps S32 to S35 in the browser processing (FIG. 20), the CPU 10 selects (touches) the remote control display button 147 whether or not an operation for displaying a remote control image has been performed. ) Determine whether or not an operation has been performed. If the determination result is affirmative, the same processing as step S44 is executed. As a result, a remote control image is displayed on the terminal device 7. Note that the application end button 151 and the application stop button 152 are not included in the remote control image displayed in the browser state. When the return button 167 is selected, the CPU 10 displays a browser image on the terminal device 7. As described above, in the present embodiment, the user can display the remote control image even in the browser state, and can operate the television 2.

また、他の実施形態においては、開始状態における3種類の各状態から、サブ操作画像(設定画像およびリモコン画像)が表示される状態へと遷移可能としてもよい。すなわち、上記3種類の状態において所定の操作が行われた場合、CPU10は、上記中断時処理と同様の処理を実行するようにしてもよい。なお、このとき、設定画像およびリモコン画像においては、上記アプリ終了ボタン151およびアプリ中止ボタン152は含まれない。また、アプリ再開ボタン153に代えて、元の状態へと遷移する指示を表すボタンの画像が表示される。これによれば、開始状態においても上記サブ操作画像を容易に表示させることができるので、ユーザは、開始状態においてテレビ2に対する操作をより容易に行うことができる。   In another embodiment, the transition from the three types of states in the start state to a state in which the sub operation image (setting image and remote control image) is displayed may be possible. That is, when a predetermined operation is performed in the above three types of states, the CPU 10 may execute a process similar to the above interruption process. At this time, the application end button 151 and the application stop button 152 are not included in the setting image and the remote control image. Further, instead of the application restart button 153, an image of a button representing an instruction to transition to the original state is displayed. According to this, since the sub operation image can be easily displayed even in the start state, the user can more easily perform operations on the television 2 in the start state.

なお、他の実施形態においては、上記中断状態において、端末装置7にリモコン画像が表示される他、テレビ2に番組表の画像を表示してもよい。すなわち、サブ操作画像が端末装置7に表示される状態において、CPU10は、テレビの番組表を含む画像を生成してテレビ2へ出力してもよい。なお、この番組表の画像は、上記テレビ処理と同様、ネットワーク90を介して外部装置91から取得されてもよい。また、番組表がテレビ2に表示されるタイミングは、どのようなタイミングであってもよい。例えば、番組表がテレビ2に表示されるタイミングは、中断時処理が開始される時点であってもよいし、リモコン画像が端末装置7に表示される時点であってもよいし、ユーザによって所定の表示指示が行われた時点であってもよい。   In another embodiment, a remote control image is displayed on the terminal device 7 in the interrupted state, and a program guide image may be displayed on the television 2. That is, in a state where the sub operation image is displayed on the terminal device 7, the CPU 10 may generate an image including a television program guide and output the image to the television 2. The program guide image may be acquired from the external device 91 via the network 90 in the same manner as the television processing. Moreover, the timing at which the program guide is displayed on the television 2 may be any timing. For example, the timing at which the program guide is displayed on the television 2 may be the time when the interruption process starts, or the time when the remote control image is displayed on the terminal device 7, or may be predetermined by the user. May be the point in time when the display instruction is issued.

(ゲームシステム1の終了時の動作)
なお、本実施形態においては、上述の情報処理(開始処理、メニュー処理、テレビ処理、ブラウザ処理、アプリ実行処理、および中断時処理)における任意のタイミングで、ユーザはゲームシステム1を終了することが可能である。すなわち、所定の終了操作(端末装置7の電源ボタン54Mあるいはゲーム装置3の電源ボタン24を押下する等)が行われると、CPU10は所定の終了処理を実行し、ゲーム装置3および端末装置7の電源がオフにされる。なお、終了処理には、その時点におけるゲームシステム1の状態(上記メニュー状態等)を表すデータをフラッシュメモリ17に記憶する処理が含まれる。このデータによって、次回の起動時に初期状態を決定することができる。
(Operation at the end of the game system 1)
In the present embodiment, the user may end the game system 1 at an arbitrary timing in the above-described information processing (start processing, menu processing, television processing, browser processing, application execution processing, and interruption processing). Is possible. That is, when a predetermined end operation (such as pressing the power button 54M of the terminal device 7 or the power button 24 of the game apparatus 3) is performed, the CPU 10 executes a predetermined end process, and the game apparatus 3 and the terminal apparatus 7 The power is turned off. Note that the termination process includes a process of storing data representing the state of the game system 1 (the menu state and the like) at that time in the flash memory 17. With this data, the initial state can be determined at the next startup.

以上に説明した情報処理によれば、ユーザは、番組表の閲覧、ウェブページの閲覧、各種アプリケーションの利用等、種々の用途でゲームシステム1を利用することができる。また、端末装置7の画面を操作画面として用いることで、ゲームシステム1の利用中もテレビ番組を視聴する等、テレビ2を他の用途で利用することができるので、ゲームシステム1とテレビ2とを並行して利用することができる。これによって、ユーザは、ゲームシステム1の利用と(ゲームシステム1以外の用途での)テレビ2の利用との切り換えをスムーズに行うことができる。例えば、ユーザは、テレビ番組を視聴している合間にゲームシステム1を利用したり、ゲームシステム1を利用している合間にテレビ番組を視聴したりするといった利用態様を、よりスムーズに行うことができる。さらに、ゲームシステム1およびテレビ2のいずれに対する操作も端末装置7で行うことができるので、ゲームシステム1を利用する状態と、(ゲームシステム1以外の用途で)テレビを利用する状態との間の切り替え操作を容易に行うことができる。   According to the information processing described above, the user can use the game system 1 for various purposes such as viewing a program guide, browsing web pages, and using various applications. In addition, by using the screen of the terminal device 7 as an operation screen, the TV 2 can be used for other purposes such as watching TV programs while the game system 1 is used. Can be used in parallel. Thus, the user can smoothly switch between using the game system 1 and using the television 2 (for purposes other than the game system 1). For example, the user can use the game system 1 while watching a TV program, or can watch a TV program while using the game system 1 more smoothly. it can. Furthermore, since operations on both the game system 1 and the television 2 can be performed by the terminal device 7, between the state using the game system 1 and the state using the television (for purposes other than the game system 1). Switching operation can be easily performed.

[7.変形例]
上記実施形態は本発明を実施する一例であり、他の実施形態においては例えば以下に説明する構成で本発明を実施することも可能である。
[7. Modified example]
The above-described embodiment is an example for carrying out the present invention. In other embodiments, the present invention can be implemented with, for example, the configuration described below.

(開始状態に関する変形例)
上記実施形態においては、開始状態には3種類の状態が含まれるものとし、各状態において端末装置7に表示される画像が異なるものとした。ここで、他の実施形態においては、開始状態に含まれる状態はいくつであってもよい。また、開始状態に含まれる各状態においては、端末装置7に表示される画像が異なっていてもよいし、同じであってもよい。例えば、上記各状態においては、端末装置7に表示される画像が同じで、各状態において可能な操作が異なっていてもよい。
(Modification regarding start state)
In the above embodiment, the start state includes three types of states, and the images displayed on the terminal device 7 are different in each state. Here, in other embodiments, any number of states may be included in the start state. Further, in each state included in the start state, the images displayed on the terminal device 7 may be different or the same. For example, in each of the above states, the image displayed on the terminal device 7 may be the same, and possible operations in each state may be different.

(ゲームシステム1において用いられる所定の表示装置に関する変形例)
上記実施形態においては、ゲームシステム1において用いられる所定の表示装置として、テレビ放送を受信して番組を表示することが可能なテレビ2を例として説明した。ここで、所定の表示装置は、テレビ2に限らず、複数の入力を有し、画像を表示することが可能な装置であればどのようなものであってもよい。例えば、所定の表示装置は、(ゲーム装置3とは別の)パーソナルコンピュータのモニタとして用いられる表示装置であってもよいし、録画再生機器のモニタとして用いられる表示装置でもよい。
(Modification regarding a predetermined display device used in the game system 1)
In the above embodiment, the television 2 that can receive a television broadcast and display a program has been described as an example of the predetermined display device used in the game system 1. Here, the predetermined display device is not limited to the television 2 and may be any device as long as it has a plurality of inputs and can display an image. For example, the predetermined display device may be a display device used as a monitor of a personal computer (different from the game device 3) or a display device used as a monitor of a recording / playback device.

(ゲームシステム1の構成に関する変形例)
上記実施形態においては、ゲームシステム1は、ゲーム装置3と、表示部(LCD51)を備える端末装置7と、コントローラ5と、テレビ2とを備える構成であった。ここで、ゲームシステムは、ゲーム装置と操作装置とを含み、操作装置の表示部および所定の表示装置に画像を表示させることができる構成であればよい。例えば、ゲームシステムは、コントローラ5や所定の表示装置(テレビ2)を含まない形態で提供されてもよい。
(Modification regarding the configuration of the game system 1)
In the above embodiment, the game system 1 is configured to include the game device 3, the terminal device 7 including the display unit (LCD 51), the controller 5, and the television 2. Here, the game system includes a game device and an operation device, and may be configured to display an image on the display unit of the operation device and a predetermined display device. For example, the game system may be provided in a form that does not include the controller 5 or a predetermined display device (TV 2).

また、上記実施形態においては、ゲームプログラムを実行可能なゲーム装置を含むゲームシステムを例として説明したが、本発明は、任意のアプリケーションを実行する任意の情報処理システムおよび情報処理装置に適用することができる。すなわち、上記実施形態においては、ゲーム装置が実行可能な1以上のアプリケーションのうちにゲームアプリケーションが含まれたが、ゲームアプリケーションは含まれていなくてもよい。   Moreover, in the said embodiment, although demonstrated as an example the game system containing the game device which can run a game program, this invention is applied to the arbitrary information processing systems and information processing apparatuses which execute arbitrary applications. Can do. That is, in the above embodiment, the game application is included in one or more applications that can be executed by the game device, but the game application may not be included.

(ゲーム処理を実行する情報処理装置に関する変形例)
上記実施形態においては、ゲームシステム1において実行される一連の情報処理をゲーム装置3が実行したが、情報処理の一部は他の装置によって実行されてもよい。例えば、他の実施形態においては、情報処理の一部(例えば、端末用画像の生成処理やアプリケーションの実行処理)を端末装置7が実行するようにしてもよい。また、他の実施形態では、互いに通信可能な複数の情報処理装置を有する入力システムにおいて、当該複数の情報処理装置が情報処理を分担して実行するようにしてもよい。すなわち、ゲームシステムは、ゲーム装置と操作装置とを含み、(a)操作装置に対する操作を表す操作データを取得する取得部と、(b)ゲーム装置の起動後の開始状態において、操作装置の表示部に表示するための所定の第1操作画像を生成する第1操作画像生成部と、(c)第1操作画像を操作装置へ出力する操作画像出力部と、(d)開始状態において、ゲームアプリケーションを含み、ゲーム装置が実行可能な1以上のアプリケーションのうちから1つを選択する選択指示があったか否か、および、操作装置とは別体の所定の表示装置に対する制御を行う制御指示があったか否かを操作データに基づいて判定する指示判定部と、(e)選択指示があった場合、選択されたアプリケーションを実行し、アプリケーションの実行によって生成された画像を操作装置および所定の表示装置の少なくとも一方へ出力するアプリケーション実行部と、(f)制御指示があった場合、当該制御指示に応じた制御を所定の表示装置に対して行う装置制御部とを備えていてもよい。このとき、1つの装置が上記(a)〜(f)の各部を備える構成であってもよいし、複数の装置が上記(a)〜(f)の各部を備える構成であってもよい。
(Modification regarding information processing apparatus for executing game processing)
In the above embodiment, the game apparatus 3 executes a series of information processing executed in the game system 1, but part of the information processing may be executed by another apparatus. For example, in another embodiment, the terminal device 7 may execute part of information processing (for example, terminal image generation processing or application execution processing). In another embodiment, in an input system having a plurality of information processing apparatuses that can communicate with each other, the plurality of information processing apparatuses may share and execute information processing. That is, the game system includes a game device and an operation device, and (a) an acquisition unit that acquires operation data representing an operation on the operation device; A first operation image generation unit that generates a predetermined first operation image to be displayed on the unit; (c) an operation image output unit that outputs the first operation image to the operation device; and (d) a game in the start state. Whether there has been a selection instruction for selecting one of one or more applications that can be executed by the game device including the application, and whether there has been a control instruction for controlling a predetermined display device separate from the operation device An instruction determination unit that determines whether or not based on the operation data; and (e) when there is a selection instruction, the selected application is executed, and the execution of the application An application execution unit that outputs the generated image to at least one of the operation device and a predetermined display device; and (f) a device that performs control according to the control instruction to the predetermined display device when there is a control instruction. And a control unit. At this time, the structure provided with each part of said (a)-(f) may be sufficient as one apparatus, and the structure provided with each part of said (a)-(f) may be sufficient.

なお、複数の情報処理装置において上記の情報処理が実行される場合には、各情報処理装置で実行される処理を同期させる必要があり、情報処理が複雑になってしまう。これに対して、上記実施形態のように、情報処理が1つのゲーム装置3によって実行され、端末装置7が画像を受信して表示する処理を行う場合(つまり、端末装置7がシンクライアント端末として機能する場合)には、複数の情報処理装置間で情報処理の同期をとる必要がなく、情報処理を簡易化することができる。   In addition, when said information processing is performed in several information processing apparatus, it is necessary to synchronize the process performed by each information processing apparatus, and information processing will become complicated. On the other hand, as in the above embodiment, when information processing is executed by one game device 3 and the terminal device 7 receives and displays an image (that is, the terminal device 7 is a thin client terminal). In the case of functioning), it is not necessary to synchronize information processing among a plurality of information processing apparatuses, and information processing can be simplified.

上記のように、本明細書で説明した種々のシステム、方法、および技術は、デジタル電子回路、コンピュータハードウェア、ファームウェア、ソフトウェア、またはこれら要素の組み合わせによって提供されてもよい。上記の技術を実現するための装置は、プログラム可能なプロセッサによる実行のためのコンピュータ読み取り可能な非一時的な記憶装置において実体的に具体化されるコンピュータプログラムプロダクト、入出力装置、およびコンピュータプロセッサを含んでもよい。上記技術を実現するための処理は、入力データを処理して所望の出力を生成することによって、要求される機能を実行するためのプログラムを実行する、プログラム可能なプロセッサによって実行されてもよい。上記の技術は、入力装置、出力装置、および情報記憶装置といったハードウェア資源との間でデータや指示のやり取りを行うプログラム可能なプロセッサを含むコンピュータシステム上で実行可能な1以上のコンピュータプログラムによって実現されてもよい。また、各コンピュータプログラムは、手続型やオブジェクト指向型の高水準プログラミング言語、アセンブリ言語、または、機械語によって実現されてもよく、必要に応じてコンパイルまたはインタプリタされて実行されてもよい。また、上記のプロセッサは、汎用または専用のマイクロプロセッサであってもよい。プロセッサは、一般的に、ROMまたはRAMからデータおよび指示を受け取る。また、上記の記憶装置は、(a)EPROM、EEPROM、フラッシュメモリのような半導体メモリ装置を含む不揮発性のメモリ、(b)内部ハードディスクあるいは着脱可能な外部ディスクのような磁気ディスク、(c)光磁気ディスク、(d)CDROM、に限定されず、あらゆる種類のコンピュータメモリを含む。上記のプロセッサや記憶装置は、ASIC(Application Specific Integrated Circuit)によって補充される、あるいは、ASICに組み込まれる形で実現されてもよい。   As noted above, the various systems, methods, and techniques described herein may be provided by digital electronic circuitry, computer hardware, firmware, software, or a combination of these elements. An apparatus for implementing the above technique includes a computer program product, an input / output device, and a computer processor that are embodied in a computer-readable non-transitory storage device for execution by a programmable processor. May be included. The process for realizing the above technique may be executed by a programmable processor that executes a program for executing a required function by processing input data and generating a desired output. The above technique is realized by one or more computer programs that can be executed on a computer system including a programmable processor that exchanges data and instructions with hardware resources such as an input device, an output device, and an information storage device. May be. Each computer program may be realized by a procedural or object-oriented high-level programming language, assembly language, or machine language, and may be compiled or interpreted as necessary. The above processor may be a general-purpose or dedicated microprocessor. The processor typically receives data and instructions from ROM or RAM. The storage device includes (a) a nonvolatile memory including a semiconductor memory device such as an EPROM, an EEPROM, or a flash memory, (b) a magnetic disk such as an internal hard disk or a removable external disk, and (c). It is not limited to a magneto-optical disk (d) CDROM, but includes all kinds of computer memory. The processor and the storage device described above may be supplemented by an ASIC (Application Specific Integrated Circuit) or may be implemented in a form incorporated in the ASIC.

また、本明細書に記載の処理システム(回路)は、本明細書において記載された内容に応じたゲーム処理のような制御処理のためにプログラムされる。上記の内容に応じた指示を実行する少なくとも1つのCPUを含む処理システムが、上記の内容によって定義される処理動作を実行するための「プログラムされた論理回路」として作用するものであってもよい。   Further, the processing system (circuit) described in this specification is programmed for control processing such as game processing according to the contents described in this specification. A processing system including at least one CPU that executes an instruction according to the above contents may act as a “programmed logic circuit” for executing a processing operation defined by the above contents. .

以上のように、本発明は、ゲームシステムにおけるアプリケーションの実行中において、テレビ等の表示装置に対する操作を容易に行うこと等を目的として、ゲームシステムやゲーム装置や情報処理プログラムとして利用することが可能である。   As described above, the present invention can be used as a game system, a game device, or an information processing program for the purpose of easily performing operations on a display device such as a television during execution of an application in the game system. It is.

1 ゲームシステム
2 テレビ
3 ゲーム装置
4 光ディスク
7 端末装置
10 CPU
11e 内部メインメモリ
12 外部メインメモリ
51 LCD
52 タッチパネル
54 操作ボタン
122 アプリアイコン
124 メニューアイコン
125 テレビアイコン
126 ブラウザアイコン
133 選局指示ボタン
151 アプリ終了ボタン
153 アプリ再開ボタン
154 リモコン表示ボタン
161 電源ボタン
162 入力切替ボタン
163 音量増加ボタン
164 音量減少ボタン
165 チャンネル増加ボタン
166 チャンネル減少ボタン
DESCRIPTION OF SYMBOLS 1 Game system 2 Television 3 Game device 4 Optical disk 7 Terminal device 10 CPU
11e Internal main memory 12 External main memory 51 LCD
52 Touch panel 54 Operation button 122 Application icon 124 Menu icon 125 TV icon 126 Browser icon 133 Channel selection instruction button 151 Application end button 153 Application restart button 154 Remote control display button 161 Power button 162 Input switching button 163 Volume increase button 164 Volume decrease button 165 Channel increase button 166 Channel decrease button

Claims (26)

ゲーム装置と操作装置とを含むゲームシステムであって、
前記操作装置は、
前記操作装置に対する操作を表す操作データを出力する操作部と、
前記ゲーム装置から出力される画像を受信する受信部と、
前記受信された画像を表示する表示部とを備え、
前記ゲーム装置は、
前記操作データを取得する取得部と、
アプリケーションを実行し、実行によって生成された画像を、前記操作装置と前記操作装置とは別体の所定の表示装置との少なくとも一方へ出力するアプリケーション実行部とを備え
前記ゲームシステムは、
前記アプリケーションの実行中において前記操作装置に対して所定の操作が行われたか否かを前記操作データに基づいて判定し、当該所定の操作が行われた場合、所定の操作画像を生成して前記操作装置の前記表示部へ出力する操作画像生成部と、
前記操作画像が前記表示部に表示される状態において、前記所定の表示装置に対する制御を行う制御指示があったか否かを前記操作データに基づいて判定する指示判定部と、
前記制御指示があった場合、当該制御指示に応じた制御を前記所定の表示装置に対して行う装置制御部とを備える、ゲームシステム。
A game system including a game device and an operation device,
The operating device is:
An operation unit for outputting operation data representing an operation on the operation device;
A receiving unit for receiving an image output from the game device;
A display unit for displaying the received image,
The game device includes:
An acquisition unit for acquiring the operation data;
Run the application, the image generated by the execution, the operation device and the operating device and an application execution section to be output to at least one of the predetermined display device separate,
The game system includes:
Based on the operation data, it is determined whether or not a predetermined operation has been performed on the operating device during execution of the application . If the predetermined operation is performed , a predetermined operation image is generated. An operation image generation unit for outputting to the display unit of the operation device;
An instruction determination unit that determines, based on the operation data, whether or not there has been a control instruction to control the predetermined display device in a state in which the operation image is displayed on the display unit;
A game system comprising: a device control unit that performs control according to the control instruction to the predetermined display device when the control instruction is received.
前記指示判定部は、前記操作画像が前記表示部に表示される状態において、実行中のアプリケーションを終了する終了指示があったか否かを前記操作データに基づいて判定し、
前記アプリケーション実行部は、前記終了指示があった場合に前記アプリケーションの実行を終了する、請求項1に記載のゲームシステム。
The instruction determination unit determines whether or not there is an end instruction to end an application being executed in a state where the operation image is displayed on the display unit, and based on the operation data,
The game system according to claim 1, wherein the application execution unit ends the execution of the application when the end instruction is given.
前記アプリケーション実行部は、前記アプリケーションの実行中において前記操作装置に対して所定の操作が行われた場合、当該アプリケーションの実行を一時停止し、
前記指示判定部は、前記操作画像が前記表示部に表示される状態において、前記アプリケーションの実行を再開する再開指示があったか否かを前記操作データに基づいて判定し、
前記アプリケーション実行部は、前記再開指示があった場合に前記アプリケーションの実行を再開する、請求項1または請求項2に記載のゲームシステム。
When a predetermined operation is performed on the operating device during execution of the application, the application execution unit temporarily stops execution of the application,
The instruction determination unit determines whether or not there is a restart instruction to resume execution of the application in a state where the operation image is displayed on the display unit,
The game system according to claim 1, wherein the application execution unit resumes execution of the application when the restart instruction is issued.
前記所定の表示装置は、テレビ放送を受信して番組を表示することが可能であり、
前記操作画像生成部は、前記操作画像が前記表示部に表示される場合、テレビの番組表を含む画像を生成して前記所定の表示装置へ出力する、請求項1から請求項3のいずれか1項に記載のゲームシステム。
The predetermined display device is capable of receiving a television broadcast and displaying a program,
The operation image generation unit generates an image including a TV program guide and outputs the generated image to the predetermined display device when the operation image is displayed on the display unit. The game system according to item 1.
前記操作画像生成部は、前記操作画像として、前記制御指示を表す制御指示画像を含む画像を生成し、
前記指示判定部は、前記制御指示画像が選択された場合に前記制御指示があったと判定する、請求項1から請求項4のいずれか1項に記載のゲームシステム。
The operation image generation unit generates an image including a control instruction image representing the control instruction as the operation image,
The game system according to any one of claims 1 to 4, wherein the instruction determination unit determines that the control instruction has been given when the control instruction image is selected.
前記所定の表示装置は、テレビ放送を受信して番組を表示することが可能であり、
前記操作画像生成部は、前記操作画像として、テレビの番組表を含む画像を生成して前記操作装置へ出力する、請求項1から請求項4のいずれか1項に記載のゲームシステム。
The predetermined display device is capable of receiving a television broadcast and displaying a program,
The game system according to any one of claims 1 to 4, wherein the operation image generation unit generates an image including a television program guide as the operation image and outputs the image to the operation device.
前記所定の表示装置は、テレビ放送を受信して番組を表示することが可能であり、
前記所定の表示装置は、前記ゲーム装置から入力される画像を表示する第1モードと、前記テレビ放送の画像を表示する第2モードとを切り替え可能であり、
前記装置制御部は、前記操作装置に前記操作画像が表示されることに応じて、前記所定の表示装置のモードを前記第2モードへ切り替える制御を行う、請求項1から請求項6のいずれか1項に記載のゲームシステム。
The predetermined display device is capable of receiving a television broadcast and displaying a program,
The predetermined display device can switch between a first mode for displaying an image input from the game device and a second mode for displaying an image of the television broadcast,
The device control unit according to any one of claims 1 to 6, wherein the device control unit performs control to switch a mode of the predetermined display device to the second mode in response to the operation image being displayed on the operation device. The game system according to item 1.
前記所定の表示装置は、テレビ放送を受信して番組を表示することが可能であり、
前記所定の表示装置は、前記ゲーム装置から入力される画像を表示する第1モードと、前記テレビ放送の画像を表示する第2モードとを切り替え可能であり、
前記装置制御部は、前記操作装置において表示される画像が前記操作画像から前記アプリケーションの実行によって生成される画像へと切り替えられることに応じて、前記所定の表示装置のモードを前記第1モードへ切り替える制御を行う、請求項1から請求項7のいずれか1項に記載のゲームシステム。
The predetermined display device is capable of receiving a television broadcast and displaying a program,
The predetermined display device can switch between a first mode for displaying an image input from the game device and a second mode for displaying an image of the television broadcast,
The device control unit changes the mode of the predetermined display device to the first mode in response to switching of an image displayed on the operation device from the operation image to an image generated by execution of the application. The game system according to claim 1, wherein switching control is performed.
前記操作装置は、前記所定の表示装置を制御するための制御信号を出力する制御信号出力部をさらに備え、
前記装置制御部は、前記制御指示に応じた制御内容を示す制御信号を前記制御信号出力部に送信させる、請求項1から請求項8のいずれか1項に記載のゲームシステム。
The operation device further includes a control signal output unit that outputs a control signal for controlling the predetermined display device,
The device control unit, a control signal indicating the control contents corresponding to the control instruction Ru is transmitted to the control signal output section, the game system according to any one of claims 1 to 8.
前記制御信号出力部は、前記制御信号として赤外線信号を出力し、
前記所定の表示装置は、赤外線信号を受光可能な赤外線受光部を備える、請求項9に記載のゲームシステム。
The control signal output unit outputs an infrared signal as the control signal,
The game system according to claim 9, wherein the predetermined display device includes an infrared light receiving unit capable of receiving an infrared signal.
前記装置制御部は、前記制御指示に応じた制御内容を示す制御信号を前記所定の表示装置へ出力する、請求項1から請求項8のいずれか1項に記載のゲームシステム。   The game system according to any one of claims 1 to 8, wherein the device control unit outputs a control signal indicating a control content according to the control instruction to the predetermined display device. 前記操作装置は、前記表示部の画面上に設けられるタッチパネルをさらに備え、
前記操作画像生成部は、前記操作画像として、前記制御指示を表す制御指示画像を含む画像を生成し、
前記指示判定部は、前記タッチパネルにおいて前記制御指示画像が選択された場合に前記制御指示があったと判定する、請求項1から請求項11に記載のゲームシステム。
The operating device further includes a touch panel provided on the screen of the display unit,
The operation image generation unit generates an image including a control instruction image representing the control instruction as the operation image,
The game system according to any one of claims 1 to 11, wherein the instruction determination unit determines that the control instruction has been issued when the control instruction image is selected on the touch panel.
ゲーム装置と操作装置とを含むゲームシステムにおいて実行される情報処理方法であって、
前記操作装置に対する操作を表す操作データを取得する取得ステップと、
アプリケーションを実行し、実行によって生成された画像を、前記操作装置と前記操作装置とは別体の所定の表示装置との少なくとも一方へ出力するアプリケーション実行ステップと、
前記アプリケーションの実行中において前記操作装置に対して所定の操作が行われたか否かを前記操作データに基づいて判定し、当該所定の操作が行われた場合、所定の操作画像を生成して前記操作装置が備える表示部に表示させる操作画像生成ステップと、
前記操作画像が前記表示部に表示される状態において、前記所定の表示装置に対する制御を行う制御指示があったか否かを前記操作データに基づいて判定する指示判定ステップと、
前記制御指示があった場合、当該制御指示に応じた制御を前記所定の表示装置に対して行う装置制御ステップとを備える、情報処理方法。
An information processing method executed in a game system including a game device and an operation device,
An acquisition step of acquiring operation data representing an operation on the operation device;
An application execution step of executing an application and outputting an image generated by the execution to at least one of the operation device and a predetermined display device separate from the operation device;
Based on the operation data, it is determined whether or not a predetermined operation has been performed on the operating device during execution of the application . If the predetermined operation is performed , a predetermined operation image is generated. An operation image generation step to be displayed on a display unit included in the operation device;
An instruction determination step for determining, based on the operation data, whether or not there has been a control instruction for performing control on the predetermined display device in a state in which the operation image is displayed on the display unit;
An information processing method comprising: an apparatus control step of performing control according to the control instruction to the predetermined display device when the control instruction is received.
前記指示判定ステップにおいては、前記操作画像が前記表示部に表示される状態において、実行中のアプリケーションを終了する終了指示があったか否かが前記操作データに基づいて判定され、
前記アプリケーション実行ステップにおいては、前記終了指示があった場合に前記アプリケーションの実行が終了される、請求項13に記載の情報処理方法。
In the instruction determination step, it is determined based on the operation data whether or not there is an end instruction to end the running application in a state where the operation image is displayed on the display unit.
The information processing method according to claim 13, wherein in the application execution step, the execution of the application is terminated when the termination instruction is issued.
前記アプリケーション実行ステップにおいては、前記アプリケーションの実行中において前記操作装置に対して所定の操作が行われた場合、当該アプリケーションの実行が一時停止され、
前記指示判定ステップにおいては、前記操作画像が前記表示部に表示される状態において、前記アプリケーションの実行を再開する再開指示があったか否かが前記操作データに基づいて判定され、
前記アプリケーション実行ステップにおいては、前記再開指示があった場合に前記アプリケーションの実行が再開される、請求項13または請求項14に記載の情報処理方法。
In the application execution step, when a predetermined operation is performed on the operation device during the execution of the application, the execution of the application is temporarily stopped.
In the instruction determination step, in a state where the operation image is displayed on the display unit, it is determined based on the operation data whether or not there is a restart instruction to resume execution of the application,
The information processing method according to claim 13 or 14, wherein, in the application execution step, execution of the application is resumed when the restart instruction is issued.
前記所定の表示装置は、テレビ放送を受信して番組を表示することが可能であり、
前記操作画像生成ステップにおいては、前記操作画像が前記表示部に表示される場合、テレビの番組表を含む画像が生成されて前記所定の表示装置に表示される、請求項13から請求項15のいずれか1項に記載の情報処理方法。
The predetermined display device is capable of receiving a television broadcast and displaying a program,
16. In the operation image generation step, when the operation image is displayed on the display unit, an image including a TV program guide is generated and displayed on the predetermined display device. The information processing method according to any one of claims.
前記操作画像生成ステップにおいては、前記操作画像として、前記制御指示を表す制御指示画像を含む画像が生成され、
前記指示判定ステップにおいては、前記制御指示画像が選択された場合に前記制御指示があったと判定される、請求項13から請求項16のいずれか1項に記載の情報処理方法。
In the operation image generation step, an image including a control instruction image representing the control instruction is generated as the operation image,
The information processing method according to any one of claims 13 to 16, wherein in the instruction determination step, it is determined that the control instruction has been given when the control instruction image is selected.
前記所定の表示装置は、テレビ放送を受信して番組を表示することが可能であり、
前記操作画像生成ステップにおいては、前記操作画像として、テレビの番組表を含む画像が生成されて前記操作装置の表示部に表示される、請求項13から請求項16のいずれか1項に記載の情報処理方法。
The predetermined display device is capable of receiving a television broadcast and displaying a program,
17. The operation image generation step according to claim 13, wherein an image including a television program guide is generated as the operation image and displayed on a display unit of the operation device. Information processing method.
前記所定の表示装置は、テレビ放送を受信して番組を表示することが可能であり、
前記所定の表示装置は、前記ゲーム装置から入力される画像を表示する第1モードと、前記テレビ放送の画像を表示する第2モードとを切り替え可能であり、
前記装置制御ステップにおいては、前記操作装置に前記操作画像が表示されることに応じて、前記所定の表示装置のモードを前記第2モードへ切り替える制御が行われる、請求項13から請求項18のいずれか1項に記載の情報処理方法。
The predetermined display device is capable of receiving a television broadcast and displaying a program,
The predetermined display device can switch between a first mode for displaying an image input from the game device and a second mode for displaying an image of the television broadcast,
The control of switching the mode of the predetermined display device to the second mode is performed in the device control step in response to the operation image being displayed on the operation device. The information processing method according to any one of claims.
前記所定の表示装置は、テレビ放送を受信して番組を表示することが可能であり、
前記所定の表示装置は、前記ゲーム装置から入力される画像を表示する第1モードと、前記テレビ放送の画像を表示する第2モードとを切り替え可能であり、
前記装置制御ステップにおいては、前記操作装置において表示される画像が前記操作画像から前記アプリケーションの実行によって生成される画像へと切り替えられることに応じて、前記所定の表示装置のモードを前記第1モードへ切り替える制御が行われる、請求項13から請求項19のいずれか1項に記載の情報処理方法。
The predetermined display device is capable of receiving a television broadcast and displaying a program,
The predetermined display device can switch between a first mode for displaying an image input from the game device and a second mode for displaying an image of the television broadcast,
In the device control step, the mode of the predetermined display device is changed to the first mode in response to switching of an image displayed on the operation device from the operation image to an image generated by execution of the application. The information processing method according to any one of claims 13 to 19, wherein control for switching to is performed.
前記操作装置は、前記所定の表示装置を制御するための制御信号を出力する制御信号出力を備えており、
前記装置制御ステップにおいては、前記制御指示に応じた制御内容を示す制御信号を前記制御信号出力部に送信させる、請求項13から請求項20のいずれか1項に記載の情報処理方法。
The operating device includes a control signal output unit that outputs a control signal for controlling the predetermined display device,
The device in the control step, a control signal indicating the control contents corresponding to the control instruction Ru is transmitted to the control signal output unit, information processing method according to any one of claims 20 to claim 13.
前記装置制御ステップにおいては、前記制御指示に応じた制御内容を示す制御信号が前記ゲーム装置から前記所定の表示装置へ出力される、請求項13から請求項20のいずれか1項に記載の情報処理方法。   The information according to any one of claims 13 to 20, wherein in the device control step, a control signal indicating a control content according to the control instruction is output from the game device to the predetermined display device. Processing method. 前記操作装置は、前記表示部の画面上に設けられるタッチパネルをさらに備え、
前記操作画像生成ステップにおいては、前記操作画像として、前記制御指示を表す制御指示画像を含む画像が生成され、
前記指示判定ステップにおいては、前記タッチパネルにおいて前記制御指示画像が選択された場合に前記制御指示があったと判定される、請求項13から請求項22に記載の情報処理方法。
The operating device further includes a touch panel provided on the screen of the display unit,
In the operation image generation step, an image including a control instruction image representing the control instruction is generated as the operation image,
23. The information processing method according to claim 13, wherein in the instruction determination step, it is determined that the control instruction has been given when the control instruction image is selected on the touch panel.
表示部を有する操作装置と通信可能なゲーム装置であって、
前記操作装置に対する操作を表す操作データを取得する取得部と、
アプリケーションを実行し、実行によって生成された画像を、前記操作装置と前記操作装置とは別体の所定の表示装置との少なくとも一方へ出力するアプリケーション実行部と、
前記アプリケーションの実行中において前記操作装置に対して所定の操作が行われたか否かを前記操作データに基づいて判定し、当該所定の操作が行われた場合、前記表示部に表示させるための所定の操作画像を生成する操作画像生成部と、
前記操作画像が前記表示部に表示される状態において、前記所定の表示装置に対する制御を行う制御指示があったか否かを前記操作データに基づいて判定する指示判定部と、
前記制御指示があった場合、当該制御指示に応じた制御を前記所定の表示装置に対して行う装置制御部とを備える、ゲーム装置。
A game device capable of communicating with an operation device having a display unit,
An acquisition unit for acquiring operation data representing an operation on the operation device;
An application execution unit that executes an application and outputs an image generated by the execution to at least one of the operation device and a predetermined display device separate from the operation device;
Whether or not a predetermined operation has been performed on the operating device during execution of the application is determined based on the operation data, and when the predetermined operation is performed , for displaying on the display unit An operation image generating unit for generating a predetermined operation image;
An instruction determination unit that determines, based on the operation data, whether or not there has been a control instruction to control the predetermined display device in a state in which the operation image is displayed on the display unit;
A game device, comprising: a device control unit that performs control according to the control command to the predetermined display device when the control command is received.
表示部を有する操作装置と通信可能なゲーム装置のコンピュータにおいて実行される情報処理プログラムであって、
前記操作装置に対する操作を表す操作データを取得する取得手段と、
アプリケーションを実行し、実行によって生成された画像を、前記操作装置と前記操作装置とは別体の所定の表示装置との少なくとも一方へ出力するアプリケーション実行手段と、
前記アプリケーションの実行中において前記操作装置に対して所定の操作が行われたか否かを前記操作データに基づいて判定し、当該所定の操作が行われた場合、前記表示部に表示させるための所定の操作画像を生成する操作画像生成手段と、
前記操作画像が前記表示部に表示される状態において、前記所定の表示装置に対する制御を行う制御指示があったか否かを前記操作データに基づいて判定する指示判定手段と、
前記制御指示があった場合、当該制御指示に応じた制御を前記所定の表示装置に対して行う装置制御手段として前記コンピュータを機能させる、情報処理プログラム。
An information processing program executed in a computer of a game device capable of communicating with an operation device having a display unit,
Obtaining means for obtaining operation data representing an operation on the operation device;
Application execution means for executing an application and outputting an image generated by the execution to at least one of the operation device and a predetermined display device separate from the operation device;
Whether or not a predetermined operation has been performed on the operating device during execution of the application is determined based on the operation data, and when the predetermined operation is performed , for displaying on the display unit An operation image generating means for generating a predetermined operation image;
Instruction determination means for determining whether or not there has been a control instruction for performing control on the predetermined display device in a state where the operation image is displayed on the display unit;
An information processing program for causing the computer to function as device control means for performing control according to the control instruction to the predetermined display device when the control instruction is received.
ゲーム装置と通信可能な操作装置であって、  An operating device capable of communicating with a game device,
前記ゲーム装置は、アプリケーションを実行し、実行によって生成された画像を、前記操作装置と、前記操作装置とは別体の所定の表示装置との少なくとも一方へ出力し、  The game device executes an application, and outputs an image generated by the execution to at least one of the operation device and a predetermined display device separate from the operation device,
前記操作装置に対する操作を表す操作データを出力する操作部と、  An operation unit for outputting operation data representing an operation on the operation device;
前記ゲーム装置から出力される画像を受信する受信部と、  A receiving unit for receiving an image output from the game device;
前記受信された画像を表示する表示部と、  A display for displaying the received image;
前記ゲーム装置におけるアプリケーションの実行中において前記操作装置に対して所定の操作が行われたか否かを前記操作データに基づいて判定し、当該所定の操作が行われた場合、所定の操作画像を生成して前記表示部へ出力する操作画像生成部と、  It is determined based on the operation data whether or not a predetermined operation has been performed on the operation device during execution of an application on the game device, and when the predetermined operation is performed, a predetermined operation image is generated And an operation image generation unit for outputting to the display unit,
前記操作画像が前記表示部に表示される状態において、前記所定の表示装置に対する制御を行う制御指示があったか否かを前記操作データに基づいて判定する指示判定部と、  An instruction determination unit that determines, based on the operation data, whether or not there has been a control instruction to control the predetermined display device in a state in which the operation image is displayed on the display unit;
前記制御指示があった場合、当該制御指示に応じた制御を前記所定の表示装置に対して行う装置制御部とを備える、操作装置。  An operation device comprising: a device control unit that performs control according to the control command to the predetermined display device when the control command is received.
JP2011125739A 2011-06-03 2011-06-03 GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, AND INFORMATION PROCESSING PROGRAM Active JP5804781B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011125739A JP5804781B2 (en) 2011-06-03 2011-06-03 GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, AND INFORMATION PROCESSING PROGRAM
US13/418,540 US9180368B2 (en) 2011-06-03 2012-03-13 Game system, information processing method, game apparatus, and storage medium having information processing program stored therein
US13/418,520 US8840478B2 (en) 2011-06-03 2012-03-13 Game system, information processing method, game apparatus, and storage medium having information processing program stored therein
US14/840,735 US9403094B2 (en) 2011-06-03 2015-08-31 Information processing system, game system, information processing device, terminal device, information processing method, and storage medium having information processing program stored therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011125739A JP5804781B2 (en) 2011-06-03 2011-06-03 GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, AND INFORMATION PROCESSING PROGRAM

Publications (2)

Publication Number Publication Date
JP2012253628A JP2012253628A (en) 2012-12-20
JP5804781B2 true JP5804781B2 (en) 2015-11-04

Family

ID=47526010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011125739A Active JP5804781B2 (en) 2011-06-03 2011-06-03 GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, AND INFORMATION PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP5804781B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6841618B2 (en) * 2016-02-19 2021-03-10 株式会社コーエーテクモゲームス Game system, game device, information processing device and control program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0565387U (en) * 1992-02-21 1993-08-31 日本電気ホームエレクトロニクス株式会社 Portable game console
JPH099371A (en) * 1995-06-15 1997-01-10 Komushisu:Kk Remote operation control system
US5710605A (en) * 1996-01-11 1998-01-20 Nelson; Rickey D. Remote control unit for controlling a television and videocassette recorder with a display for allowing a user to select between various programming schedules
JPH09294260A (en) * 1996-04-26 1997-11-11 Sega Enterp Ltd Communication processing unit, terminal equipment, communication system, game system participated by many persons using the communication system and communication method
IL147415A0 (en) * 2001-12-31 2002-08-14 Dorit Information System Ltd A system that controls music from pc
JP2004283485A (en) * 2003-03-25 2004-10-14 Mitsumi Electric Co Ltd Game machine and controller for game machine
JP2004329709A (en) * 2003-05-09 2004-11-25 Nintendo Co Ltd Game system, and game program
JP2008104505A (en) * 2006-10-23 2008-05-08 Sharp Corp Display system, game system, and game display system provided with them

Also Published As

Publication number Publication date
JP2012253628A (en) 2012-12-20

Similar Documents

Publication Publication Date Title
US9403094B2 (en) Information processing system, game system, information processing device, terminal device, information processing method, and storage medium having information processing program stored therein
JP6712668B2 (en) Information processing system, information processing device, operating device, and auxiliary equipment
JP6034551B2 (en) Information processing system, information processing apparatus, information processing program, and image display method
JP5745340B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND IMAGE GENERATION METHOD
US9889384B2 (en) Controller device and controller system
JP5689014B2 (en) Input system, information processing apparatus, information processing program, and three-dimensional position calculation method
JP5901891B2 (en) GAME SYSTEM, GAME PROCESSING METHOD, GAME DEVICE, AND GAME PROGRAM
US10150033B2 (en) Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
JP5692904B2 (en) Input system, information processing apparatus, information processing program, and pointing position calculation method
EP2532399B1 (en) Information processing program, information processing system and information processing method
JP5800526B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME PROCESSING METHOD
EP2541958B1 (en) Information processing system, information processing apparatus, information processing program, and content playback control method
JP5774314B2 (en) Delay measurement system and delay measurement method
JP5988549B2 (en) POSITION CALCULATION SYSTEM, POSITION CALCULATION DEVICE, POSITION CALCULATION PROGRAM, AND POSITION CALCULATION METHOD
JP2013110736A (en) Information processing system, server system, terminal system, information processing program, and information presentation method
JP2012249867A (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5757741B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP5804781B2 (en) GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, AND INFORMATION PROCESSING PROGRAM
JP5807089B2 (en) Information processing system, information processing apparatus, information processing program, and content reproduction control method
JP6045777B2 (en) Direction control system, direction control device, direction control program, and direction control method
JP5827610B2 (en) Video display system, and server, information processing apparatus, information processing program, and video display method used therefor
JP6100453B2 (en) GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, INFORMATION PROCESSING PROGRAM, AND OPERATION DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150901

R150 Certificate of patent or registration of utility model

Ref document number: 5804781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250