JP5837325B2 - The operating device and the operating system - Google Patents

The operating device and the operating system Download PDF

Info

Publication number
JP5837325B2
JP5837325B2 JP2011102834A JP2011102834A JP5837325B2 JP 5837325 B2 JP5837325 B2 JP 5837325B2 JP 2011102834 A JP2011102834 A JP 2011102834A JP 2011102834 A JP2011102834 A JP 2011102834A JP 5837325 B2 JP5837325 B2 JP 5837325B2
Authority
JP
Grant status
Grant
Patent type
Prior art keywords
game
terminal device
operation
data
device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011102834A
Other languages
Japanese (ja)
Other versions
JP2012231977A (en )
Inventor
健一郎 芦田
健一郎 芦田
純治 高本
純治 高本
真人 伊吹
真人 伊吹
伸樹 山本
伸樹 山本
人詩 土屋
人詩 土屋
史佳 末武
史佳 末武
明子 須賀
明子 須賀
直弥 山本
直弥 山本
大助 熊崎
大助 熊崎
義智 後藤
義智 後藤
考師 岡村
考師 岡村
Original Assignee
任天堂株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Grant date

Links

Images

Description

本発明は、プレイヤが把持して操作することが可能な操作装置に関する。 The present invention relates to a operating device capable player operates by gripping.

従来、プレイヤが手に持って使用する操作装置がある(例えば、特許文献1参照)。 Conventionally, the player is operating device for use in hand (e.g., see Patent Document 1). 例えば特許文献1に記載の携帯型のゲーム装置は、折りたたみ式であり、下側のハウジングに操作ボタンが設けられている。 For example a portable game device described in Patent Document 1 is a foldable, and operation buttons are provided on the lower side of the housing. このゲーム装置によれば、ユーザは、画面を見ながら画面の両側に設けられる操作ボタンを用いてゲーム操作を行うことができ、ゲーム装置を把持したまま容易にゲーム操作を行うことができる。 According to this game device, the user can perform a game operation by using the operation buttons provided on both sides of the screen while watching the screen, easily while holding the game device can perform a game operation.

特許第3703473号明細書 Pat. No. 3703473

近年、携帯型の端末装置(操作装置)に関しては、画面等がより大きくなり、装置自体も大型化したものが増えている。 Recently, with respect to a portable terminal device (operation device), a screen or the like becomes larger, an increasing number of those device itself was large. ここで、ユーザが手に持って使用する装置自体が大きくなると、ユーザが把持して使用する場合に不安定になったり、長時間把持して使用し続けると腕が疲れてしまったりする等の問題が生じる。 Here, when the device itself for the user to use in hand is large, such as becomes unstable, the arm continues to be used for a long period of time grasped by or tired when the user uses to grip problems. 例えば、特許文献1に記載のゲーム装置を大型化すると、ユーザはゲーム装置を安定して把持することが難しく、また、長時間使用すると手が疲れてしまうおそれがある。 For example, if the size of the game apparatus described in Patent Document 1, the user is difficult to stably holds game device, also, there is a possibility that fatigue hand prolonged use.

それ故、本発明の目的は、ユーザが容易に把持することが可能な操作装置を提供することである。 It is therefore an object of the present invention is that the user provides an operating device which can be easily grasped.

本発明は、上記の課題を解決するために、以下の(1)〜(21)の構成を採用した。 The present invention, in order to solve the above problems, adopts the structure of the following (1) to (21).

(1) (1)
本発明の一例は、表示部と、第1操作部および第2操作部と、第3操作部および第4操作部とを備える、操作装置である。 An example of the present invention includes a display unit, a first operating portion and the second operating portion, and a third operating portion and the fourth operating unit is an operating system. 表示部は、ハウジングの表側に設けられる。 Display unit is provided on the front side of the housing. 第1操作部および第2操作部は、ハウジングの中央よりも上側において表示部の左右にそれぞれ設けられる。 The first operating portion and the second operating portion are respectively provided on the left and right of the display unit in the upper than the center of the housing. 第3操作部および第4操作部は、ハウジングの裏側において第1操作部および第2操作部の反対側の位置にそれぞれ設けられる。 The third operating portion and the fourth operating portion respectively provided on the opposite side of the position of the first operating portion and the second operating portion on the back side of the housing.

上記「操作部」は、ユーザが操作可能な操作デバイスであればどのようなものであってもよく、例えば、後述する実施形態におけるスティック(アナログスティック)、キー(ボタン)、タッチパネル、タッチパッド等である。 The "operation unit" may be any as long the user is in operable operating device, for example, a stick (analog stick) in the embodiment described below, the key (button), a touch panel, a touch pad, etc. it is.
上記「反対側の位置」とは、厳密に2つの操作部の位置が一致する状態に限定される意味ではなく、ハウジングの表側において操作部が設けられる領域を裏側に投影した場合に、ハウジングの裏側において操作部が設けられる領域と、投影された領域とが一部において重なる状態をも含む意味である。 The term "position on the opposite side", does not mean to be strictly limited to a state in which the position of the two operating parts are the same, when the projection of the region in which the operation portion is provided at the front side of the housing on the rear side, of the housing a region where the operation unit on the back side is provided, and projected area is meant to be a state in which an overlap in part.

上記(1)の構成によれば、第1および第2操作部と第3および第4操作部とがハウジングの表側と裏側との互いに対向する位置に配置されるので、ユーザは、これらの操作部を操作する際にハウジングを表側と裏側から挟むように把持することができる。 According to the above configuration (1), since the first and second operating element and the third and fourth operating portion are arranged so as to be opposite to each other between the front side and the back side of the housing, the user, these operations part can grip so as to sandwich the housing from the front and back sides when manipulating. また、これらの操作部を操作する際にユーザは、ハウジングにおける上下方向の中心よりも上側を把持するので、操作装置を上側で把持できるとともに、手のひらで操作装置を支えることができる。 The user in operating these operation unit, so to grip the upper side of the vertical center of the housing, can be supported with it holds the operation device with the upper, the operating device in the palm. したがって、ユーザは、少なくとも4つの操作部を操作することができる状態で、操作装置を安定的に把持することができる。 Thus, the user is in a state capable of operating at least four operation portions, it is possible to grasp the operating device stably. つまり、上記(1)の構成によれば、ユーザが容易に把持することが可能で、かつ、操作性の良い操作装置を提供することができる。 That is, according to the above configuration (1), can the user to easily grasp and can provide a good operability operating device.

(2) (2)
操作装置は、突起部をさらに備えていてもよい。 The operating device may further comprise a protrusion. 突起部は、ハウジングの裏側において、少なくとも左右両側の位置に突起して設けられる。 Protrusions on the back side of the housing, is provided with projections on at least right and left sides of the position. このとき、第3操作部および第4操作部は、突起部の上面に配置される。 In this case, the third operating portion and the fourth operating unit is disposed on an upper surface of the protrusion.

上記(2)の構成によれば、ハウジングの裏側に突起部が設けられるので、上記の各操作部を操作する場合、ユーザは、中指や薬指等で突起部を支えるようにして(突起部が指に掛かるようにして)操作装置を把持することができる。 According to the above configuration (2), since the protruding portion is provided on the back side of the housing, when to operate the operation unit of the user is to to support the protruding portion in the middle finger and the ring finger or the like (the protrusions as applied to the finger) can grip the operating device. これによって、ユーザは、疲れることなく安定した状態で操作装置を把持することができる。 Thus, the user can grip the operating device in a stable state without tiring.

(3) (3)
突起部は、左右に延びる庇状の形状を有していてもよい。 Projections may have a visor-like shape extending in the left-right.

上記(3)の構成によれば、ユーザは、突起部を支える指を突起部の下面に沿わせて操作装置を把持することができるので、操作装置がより持ちやすくなる。 According to the above configuration (3), the user, since the fingers supporting the projections can grip the operating device along a lower surface of the protrusion, the operating device is easier to hold. また、突起部は左右に延びて形成されるので、突起部が縦向きとなるようにユーザが操作装置を把持する場合には、操作装置の一辺におけるどこの位置で把持しても、親指以外の指を突起部に当てることができる。 Further, since the protrusion is formed to extend in the left and right, when gripping the user operation device such projections is vertical can be gripped anywhere position in one side of the operating device, other than the thumb You can shed finger projections. したがって、突起部が縦向きとなるように操作装置を把持する場合であっても、ユーザは操作装置をしっかりと把持することができる。 Therefore, even when gripping the operating device so that the protrusion is vertical, the user can firmly grip the operating device.

(4) (4)
突起部の下面には、操作装置とは別の付加装置が係止可能な第1係止穴が設けられてもよい。 The lower surface of the protrusion, the first locking hole further additional device to be locked may be provided to the operating device.

上記(4)の構成によれば、第1係止穴を用いて操作装置と付加装置とを強固に接続することができる。 According to the above configuration (4), it can be connected firmly to the additional device and the operating device with the first locking hole. また、上記(3)の構成と(4)の構成とを組み合わせる場合には、操作装置の左右方向に関する中央付近に第1係止穴を設けることができので、左右のバランスを均等に保って付加装置を安定的に接続することができる。 Further, when combining the configuration of the above (3) Configuration and (4), since it is possible to provide a first locking hole near the center about the left-right direction of the controller device, evenly kept right balance the additional device can be stably connected.

(5) (5)
ハウジングの下側の面には、付加装置が係止可能な第2係止穴が設けられてもよい。 The lower surface of the housing, the second locking holes additional device to be locked may be provided.

上記(5)の構成によれば、異なる位置に設けられる第1係止穴と第2係止穴とを用いて操作装置と付加装置とを接続するので、接続をより強固にすることができる。 According to the above configuration (5), since connecting the additional device and the operating device with the first locking hole provided in a different position and the second locking holes, it can be made more robust connection .

(6) (6)
操作装置は、突起部の下方であってハウジングの裏面における左右両側に、断面が凸型である凸部をさらに備えていてもよい。 Operating system, the left and right sides of the back surface of the housing to a lower projecting portion may further include a protrusion section is convex.

上記(6)の構成によれば、ユーザは、凸部に指(例えば薬指や小指)を掛けてハウジングを把持することができるので、操作装置をよりしっかりと把持することができる。 According to the above configuration (6), the user, the convex portions over a finger (e.g., ring finger and little finger) it is possible to grip the housing, it is possible to more securely holds the operation device.

(7) (7)
突起部と凸部とは間隔を空けて設けられてもよい。 The protrusion and the convex portion may be provided at intervals.

上記(7)の構成によれば、ユーザは、凸部が邪魔になることなく中指や薬指等で突起部を支えることができるとともに、他の指を凸部に掛けて操作装置を把持することができる。 According to the above configuration (7), the user, it is possible to support the protruding portion in the middle finger and the ring finger or the like without the convex portion becomes a hindrance, to grasp the operating device over the other fingers on the convex portion can. これによって、操作装置がより持ちやすくなる。 Thus, the operating device is easier to hold.

(8) (8)
操作装置は、ハウジングの裏面における左右両側に設けられるグリップ部をさらに備えていてもよい。 Operating apparatus may further include a grip portion provided on the left and right sides of the back surface of the housing.

上記(8)の構成によれば、ユーザは、グリップ部に指(例えば薬指や小指)を掛けてハウジングを把持することができるので、操作装置をよりしっかりと把持することができる。 According to the above configuration (8), since the user can grip the housing over the fingers (e.g., ring finger and little finger) on the grip portion, it is possible to more securely holds the operation device.

(9) (9)
第1操作部および第2操作部はそれぞれ、スライドまたは傾倒可能な可動部材を有する方向入力部であってもよい。 Each of the first operation unit and second operation unit may be a direction input unit having a slide or tilt a movable member.

上記(9)の構成によれば、ユーザは、操作装置の左右両側を把持した状態で、親指によって方向入力部を操作することで方向入力を容易に行うことができる。 According to the above configuration (9), the user, while holding the left and right sides of the operating device can perform direction input readily by operating the direction input section by the thumb. これによって、操作性の良い操作装置を提供することができる。 Thus, it is possible to provide good operability operating device.

(10) (10)
第3操作部および第4操作部はそれぞれ、押下可能なキーであってもよい。 Each third operating portion and the fourth operating portion may be capable of pressing keys.

上記(10)の構成によれば、ユーザは、操作装置の左右両側を把持した状態で、人差し指または中指によってキーを容易に押下することができる。 According to the above configuration (10), the user, while holding the left and right sides of the operating device, can be easily depressed key by the index finger or middle finger. これによって、操作性の良い操作装置を提供することができる。 Thus, it is possible to provide good operability operating device.

(11) (11)
操作装置は、第5操作部と、第6操作部とをさらに備えていてもよい。 Operating device, a fifth operation unit may further include a sixth operation unit. 第5操作部は、ハウジングの表側の面において第1操作部の下方に配置される。 The fifth operation unit is disposed below the first operating portion in the front surface of the housing. 第6操作部は、ハウジングの表側の面において第2操作部の下方に配置される。 The sixth operation unit is disposed below the second operating portion in the front surface of the housing.

上記(11)の構成によれば、操作装置を用いてより多様な操作が可能となる。 According to the above configuration (11), thereby enabling more various operations using the operation device. また、第5操作部および第6操作部を操作する場合でも、ユーザは操作装置をしっかりと把持することができるので、操作性の良い操作装置を提供することができる。 Even when operating the fifth operating unit and the sixth operation unit, since the user can firmly grip the operating device can provide a good operability operating device.

(12) (12)
第5操作部は、少なくとも上下左右の4方向の入力が可能なキーであってもよく、第6操作部は、押下可能な複数のキーを含んでいてもよい。 The fifth operation unit may be a key capable 4 direction of the input of at least vertically and horizontally, the sixth operation unit may include a plurality of keys that can be pressed.

上記(12)の構成によれば、ユーザは、操作装置の左右両側を把持した状態で、親指によってキーを容易に押下することができる。 According to the above configuration (12), the user, while holding the left and right sides of the operating device, can be easily depressed key by the thumb. これによって、操作性の良い操作装置を提供することができる。 Thus, it is possible to provide good operability operating device.

(13) (13)
操作装置は、ハウジングの上側の面における左右の両側にそれぞれ設けられる第7操作部および第8操作部をさらに備えていてもよい。 The operating device may further comprise a seventh operation unit and the eighth operating portion is provided on both sides of the left and right in the upper surface of the housing.

上記(13)の構成によれば、操作装置を用いてより多様な操作が可能となる。 According to the above configuration (13), thereby enabling more various operations using the operation device. また、ハウジングの上面に操作部が配置されるので、ユーザは、ハウジングの表側、上側、および裏側からハウジングを包み込むようにして操作装置をしっかりと把持することができる。 Further, since the operation portion is disposed on the upper surface of the housing, the user, the front side of the housing, it is possible to grasp the upper, and back from in the enveloping housing firmly operating device.

(14) (14)
第7操作部および第8操作部はそれぞれ、押下可能なキーであってもよい。 Each seventh operating unit and the eighth operation unit may be capable of pressing keys.

上記(14)の構成によれば、ユーザは、操作装置を包み込むようにして把持した状態で、人差し指によってキーを容易に押下することができる。 According to the above configuration (14), the user, while holding in the enveloping an operating device, can be easily depressed key by the index finger. これによって、操作性の良い操作装置を提供することができる。 Thus, it is possible to provide good operability operating device.

(15) (15)
操作装置は、表示部の画面に設けられるタッチパネルをさらに備えていてもよい。 Operating apparatus may further include a touch panel provided on the screen of the display unit.

上記(15)の構成によれば、ユーザはタッチパネルを用いて表示部に表示される画像に対して直感的かつ容易に操作を行うことができる。 According to the above configuration (15), the user can perform an intuitive and easy operation on the image displayed on the display unit with a touch panel. また、上記(2)の構成と上記(15)との構成を組み合わせる場合には、操作装置は、表示部を上に向けて載置される場合には突起部によってやや傾いた状態で載置される。 Further, when combining the configuration of the above (2) Configuration and the (15) of the operating device, when placed toward the top display section is placed in a slightly inclined state by the protrusion It is. したがって、操作装置を載置した状態においてタッチパネルに対する操作が行いやすくなる。 Accordingly, operation on the touch panel is easily performed in a state of mounting the operation device.

(16) (16)
操作装置は、ハウジングの内部に慣性センサをさらに備えていてもよい。 The operating device may further comprise an inertial sensor in the housing.

上記(16)の構成によれば、操作装置自体を振ったり動かしたりする操作が可能となり、ユーザは、操作装置を用いて直感的かつ容易な操作を行うことができる。 According to the above configuration (16) enables operation or moving or shaking the operation device itself, the user can perform an intuitive and easy operation using the operation device. また、これによれば、操作装置を動かして使用することが想定されるので、操作装置に付加装置が接続される場合には、操作装置と付加装置とを強固に接続することが重要になる。 Further, according to this, since the use by moving the operating device is assumed, when the additional device is connected to the operating device, it is important to firmly connect the additional device and the operating device . したがって、上記(16)の構成においては、上記(4)または(5)の構成を採用することによって、操作装置と付加装置とを強固に接続することが特に有効である。 Thus, in the configuration of (16), by adopting the configuration of the above (4) or (5), it is particularly effective to firmly connect the additional device and the operating device.

(17) (17)
操作装置は、自機に対して行われた操作を表す操作データをゲーム装置へ無線で送信する通信部をさらに備えていてもよい。 The operating device may further comprise a communication unit which transmits operation data representing the operation performed on the own apparatus by radio to the game apparatus.

上記(17)の構成によれば、ユーザは、容易に把持することが可能で、かつ、操作性の良い操作装置を用いてゲーム操作を行うことができる。 According to the above configuration (17), the user can easily grasp and can perform a game operation using the good operability operating device.

(18) (18)
通信部は、ゲーム装置から送信されてくる画像データを受信してもよい。 The communication unit may receive the image data transmitted from the game device. このとき、操作装置は、受信された画像データを表示部に表示させる表示制御部をさらに備える。 At this time, the operation apparatus further includes a display control unit for displaying on the display unit the received image data.

上記(18)の構成によれば、ゲーム装置から送信されてくる画像が表示部に表示されるので、ユーザは、操作装置の表示部に表示される画像を見ながらゲーム操作を行うことができる。 According to the above configuration (18), the image transmitted from the game apparatus is displayed on the display unit, the user can perform a game operation while viewing the image displayed on the display unit of the operation device .

(19) (19)
操作装置は、ゲーム処理部と、表示制御部とをさらに備えていてもよい。 Operating device, a game processing section may further include a display control unit. ゲーム処理部は、自機に対する操作に基づいてゲーム処理を実行する。 Game processing unit executes the game processing based on the operation for the ship. 表示制御部は、ゲーム処理の結果に基づいてゲーム画像を生成して表示部に表示させる。 Display control unit generates a game image to be displayed on the display unit based on a result of the game processing.

上記(19)の構成によれば、携帯型のゲーム装置を、容易に把持することが可能で、かつ、操作性の良いものにすることができる。 According to the above configuration (19), a portable game device, can be easily grasped, and can be a good operability.

(20) (20)
表示部は5インチ以上の画面を有していてもよい。 Display unit may have at least 5 inches screen.

上記(20)の構成によれば、大きな画面を用いて見やすく迫力のある画像を表示することができる。 According to the above configuration (20), it is possible to display an image with a legible powerful with large screen. なお、上記(20)の構成のように大きな画面の表示部が用いられる場合には、必然的に操作装置自体の大きさも大きくなるので、ユーザが容易に把持することが可能となる上記(1)〜(19)の構成が特に有効である。 In the case where the display unit of a large screen as shown in the above configuration (20) is used, since the greater the size of the inevitably operation device itself, the user becomes possible to be easily grasped above (1 ) configuration to (19) is particularly effective.

(21) (21)
また、本発明の他の一例は、上記(5)に記載の操作装置と、付加装置とを含む操作システムであってもよい。 Further, another example of the present invention, the operating device according to (5) may be an operation system including an additional device. 付加装置は、第1および第2係止穴にそれぞれ係止可能な各爪部を備え、当該各爪部が当該第1および第2係止穴に掛止することによって操作装置に接続される。 Additional device are each provided with a lockable pawls to the first and second locking holes, the pawls are connected to the operating device by hooking to the first and second locking holes .

上記(21)の構成によれば、強固に接続された操作装置と付加装置とを含む操作システムを提供することができる。 According to the above configuration (21), it is possible to provide an operation system including a additional device and rigidly connected operation device.

(22) (22)
また、本発明の他の一例は、上記(5)に記載の操作装置と、支持装置とを含む操作システムであってもよい。 Further, another example of the present invention, the operating device according to the above (5), the support device and may be an operation system including. 支持装置は、ガイド部材、および、支持部材を備える。 Supporting device, guide members, and includes a support member. ガイド部材は、第2係止穴に挿入可能である。 The guide member is insertable into the second locking hole. また、支持部材は、当該ガイド部材が第2係止穴に挿入された場合にハウジングの裏面を所定の角度に支持する。 The support member supports the back surface of the housing at a predetermined angle when the guide member is inserted into the second locking hole.

上記(22)の構成によれば、操作装置を所定の角度で載置しておくことができる操作システムを提供することができる。 According to the above configuration (22), it is possible to provide an operation system capable to keep placing the operating device at a predetermined angle. また、操作装置と支持装置とを接続する際の位置決めに第2係止穴が用いられるので、操作装置のハウジングに設ける穴の数を少なくすることができ、ハウジングの形状を簡易にすることができる。 Further, since the second locking hole is used for positioning when connecting the operating device and the support device, it is possible to reduce the number of holes provided in the housing of the operating device, make the shape of the housing in a simple it can.

また、本発明の他の一例は、ユーザが操作を行うための操作装置であって、略板状のハウジングと、前記ハウジングの表側に設けられる表示部と、突起部とを備える操作装置であってもよい。 Further, another example of the present invention is an operating device for the user to perform operation, there in the operating device comprising: a substantially plate-shaped housing, a display unit provided on the front side of the housing, and a projecting portion it may be. 突起部は、前記ハウジングの裏側において、前記ハウジングの中央よりも上側であって少なくとも左右両側の位置に突起して設けられる。 Protrusions on the back side of the housing, is provided with projections on at least right and left sides of the position A above the center of the housing.

また、本発明の他の一例は、略板状のハウジングと、前記ハウジングの表側に設けられる表示部と、第1操作部および第2操作部と、突起部とを備える、操作装置であってもよい。 Further, another example of the present invention comprises a substantially plate-shaped housing, a display unit provided on the front side of the housing, a first operating portion and the second operating portion, and a protruding portion, an operating device it may be. 第1操作部および第2操作部は、前記表示部の左右にそれぞれ設けられる。 The first operating portion and the second operating portion are provided on left and right of the display unit. 突起部は、ユーザが前記第1操作部および第2操作部を両手の親指でそれぞれ操作可能なように前記ハウジングを把持した場合に親指以外のいずれかの指に掛止可能な位置に設けられる。 Projections are provided on the locking can be located on either the fingers other than the thumb when the user grips the first operating portion and the housing the second operation unit as thumbs operable respectively .

また、本発明の他の一例は、ユーザが操作を行うための操作装置であって、略板状のハウジングと、前記ハウジングの表側に設けられる表示部と、凸部とを備える操作装置であってもよい。 Further, another example of the present invention is an operating device for the user to perform operation, there in the operating device comprising: a substantially plate-shaped housing, a display unit provided on the front side of the housing, and a convex portion it may be. 凸部は、前記ハウジングの裏側における前記ハウジングの左右の両辺に設けられる。 Protrusions are provided on the right and left sides of the housing in the rear side of the housing. また、凸部は、上下方向に延び、断面が凸型である。 Further, the convex portion extends in the vertical direction, cross-section is convex.

また、本発明の他の一例は、略板状のハウジングと、前記ハウジングの表側に設けられる表示部と、突起部と、操作部とを備える操作装置であってもよい。 Further, another example of the present invention, a substantially plate-shaped housing, a display unit provided on the front side of the housing, the protruding portion may be an operation device comprising an operation unit. 突起部は、前記ハウジングの裏側において少なくとも左右両側の位置に突起して設けられる。 Projections are provided projecting at least right and left sides of the position on the back side of the housing. 操作部は、前記突起部の上側の面に設けられる。 Operation unit is provided on the upper surface of the protrusion.

本発明によれば、ハウジングの表側において中央よりも上側の左右に第1および第2操作部をそれぞれ設け、ハウジングの裏側において、第1操作部および第2操作部の反対側に第3および第4操作部を設ける。 According to the present invention, provided with the first and second operating portions on the left and right upper than the center in the front side of the housing, the back side of the housing, the third and on the opposite side of the first operating portion and the second operating unit 4 providing the operating unit. これによって、ユーザが操作装置を容易に把持することが可能となる。 This allows the user to easily grasp the operation device.

ゲームシステム1の外観図 External view of a game system 1 ゲーム装置3の内部構成を示すブロック図 Block diagram showing the internal configuration of the game apparatus 3 コントローラ5の外観構成を示す斜視図 Perspective view showing an external configuration of the controller 5 コントローラ5の外観構成を示す斜視図 Perspective view showing an external configuration of the controller 5 コントローラ5の内部構造を示す図 It shows the internal structure of the controller 5 コントローラ5の内部構造を示す図 It shows the internal structure of the controller 5 コントローラ5の構成を示すブロック図 Block diagram showing a configuration of the controller 5 端末装置7の外観構成を示す図 It shows an external configuration of the terminal apparatus 7 端末装置7の外観構成を示す図 It shows an external configuration of the terminal apparatus 7 ユーザが端末装置7を横向きで把持した様子を示す図 It shows a state where the user holds sideways the terminal device 7 ユーザが端末装置7を横向きで把持した様子を示す図 It shows a state where the user holds sideways the terminal device 7 ユーザが端末装置7を縦向きで把持した様子を示す図 It shows a state where the user holds the terminal device 7 in portrait ユーザが端末装置7を縦向きで把持した様子を示す図 It shows a state where the user holds the terminal device 7 in portrait 端末装置7の内部構成を示すブロック図 Block diagram showing the internal configuration of the terminal apparatus 7 端末装置7に付加装置(入力装置200)を装着した一例を示す図 It illustrates an example of mounting the additional device to the terminal device 7 (input device 200) 端末装置7に付加装置(入力装置200)を装着した一例を示す図 It illustrates an example of mounting the additional device to the terminal device 7 (input device 200) 端末装置7に付加装置(スタンド210)を接続した他の一例を示す図 Diagram showing another example of connecting the additional device (stand 210) to the terminal device 7 ゲーム処理において用いられる各種データを示す図 It shows various data used in the game processing ゲーム装置3において実行されるゲーム処理の流れを示すメインフローチャート Main flowchart showing a flow of the game processing executed by the game apparatus 3 ゲーム制御処理の詳細な流れを示すフローチャート Flowchart showing a detailed flow of the game control process 第1のゲーム例におけるテレビ2の画面と端末装置7とを示す図 It shows the screen and the terminal device 7 of the television 2 in the first game example 第2のゲーム例におけるテレビ2の画面と端末装置7とを示す図 It shows the screen and the terminal device 7 of the television 2 in the second game example 第3のゲーム例においてテレビ2に表示されるテレビ用ゲーム画像の一例を示す図 It shows an example of a television game image displayed on the television 2 in the third game examples 第3のゲーム例において端末装置7に表示される端末用ゲーム画像の一例を示す図 It shows an example of a terminal game image displayed on the terminal device 7 in the third game examples 第4のゲーム例においてテレビ2に表示されるテレビ用ゲーム画像の一例を示す図 It shows an example of a television game image displayed on the television 2 in the fourth game example 第4のゲーム例において端末装置7に表示される端末用ゲーム画像の一例を示す図 It shows an example of a terminal game image displayed on the terminal device 7 in the fourth game example 第5のゲーム例におけるゲームシステム1の使用の様子を示す図 It shows a state of use of the game system 1 of the fifth exemplary game ネットワークを介して外部装置と接続される場合におけるゲームシステム1に含まれる各装置の接続関係を示す図 Diagram showing a connection relationship of each device included in the game system 1 when connected to an external apparatus via a network 本実施形態の変形例に係る端末装置の外観構成を示す図 It shows an external configuration of a terminal device according to a modification of the embodiment 図29に示す端末装置をユーザが把持した様子を示す図 Shows a state where the user holds the terminal apparatus shown in FIG. 29 本実施形態の他の変形例に係る端末装置の外観構成を示す図 It shows an external configuration of a terminal device according to another modification of the embodiment 本実施形態の他の変形例に係る端末装置の外観構成を示す図 It shows an external configuration of a terminal device according to another modification of the embodiment

[1. [1. ゲームシステムの全体構成] The entire configuration of a game system]
以下、図面を参照して、本発明の一実施形態に係るゲームシステム1について説明する。 Hereinafter, with reference to the accompanying drawings, it will be described game system 1 according to an embodiment of the present invention. 図1は、ゲームシステム1の外観図である。 FIG. 1 is an external view of the game system 1. 図1において、ゲームシステム1は、テレビジョン受像器等に代表される据置型のディスプレイ装置(以下、「テレビ」と記載する)2、据置型のゲーム装置3、光ディスク4、コントローラ5、マーカ装置6、および、端末装置7を含む。 1, the game system 1 includes a stationary display device typified by a television receiver or the like (hereinafter referred to as a "television") 2, a stationary game apparatus 3, an optical disc 4, a controller 5, the marker device 6, and a terminal device 7. ゲームシステム1は、コントローラ5を用いたゲーム操作に基づいてゲーム装置3においてゲーム処理を実行し、ゲーム処理によって得られるゲーム画像をテレビ2および/または端末装置7に表示するものである。 The game system 1 is for displaying executes a game processing by the game apparatus 3 based on a game operation using the controller 5, the game image obtained by the game processing on the TV 2 and / or the terminal device 7.

ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられる情報記憶媒体の一例である光ディスク4が脱着可能に挿入される。 The game apparatus 3, an optical disc 4 typifying an information storage medium exchangeably used for the game apparatus 3, is detachably inserted. 光ディスク4には、ゲーム装置3において実行されるための情報処理プログラム(典型的にはゲームプログラム)が記憶されている。 The optical disk 4, an information processing program to be executed by the game apparatus 3 (typically the game program) is stored. ゲーム装置3の前面には光ディスク4の挿入口が設けられている。 The front surface of the game apparatus 3 insertion opening of the optical disc 4 is provided. ゲーム装置3は、挿入口に挿入された光ディスク4に記憶されている情報処理プログラムを読み出して実行することによってゲーム処理を実行する。 The game apparatus 3 executes a game process by reading and executing the information processing program stored in the optical disc 4 which is inserted into the insertion slot.

ゲーム装置3には、テレビ2が接続コードを介して接続される。 The game apparatus 3 are connected television 2 via a connection cord. テレビ2は、ゲーム装置3において実行されるゲーム処理によって得られるゲーム画像を表示する。 The television 2 displays a game image obtained by the game processing executed by the game apparatus 3. テレビ2はスピーカ2a(図2)を有しており、スピーカ2aは、上記ゲーム処理の結果得られるゲーム音声を出力する。 The television 2 includes a speaker 2a (FIG. 2), the speaker 2a outputs a game sound obtained as a result of the game process. なお、他の実施形態においては、ゲーム装置3と据置型の表示装置とは一体となっていてもよい。 Note that in other embodiments, may be integrated to the game apparatus 3 and the stationary display device. また、ゲーム装置3とテレビ2との通信は無線通信であってもよい。 The communication of the game apparatus 3 and the television 2 may be wireless communication.

テレビ2の画面の周辺(図1では画面の上側)には、マーカ装置6が設置される。 Around the screen of the television 2 (on the upper side of the screen in FIG. 1), the marker device 6 is installed. 詳細は後述するが、ユーザ(プレイヤ)はコントローラ5を動かすゲーム操作を行うことができ、マーカ装置6は、コントローラ5の動きや位置や姿勢等をゲーム装置3が算出するために用いられる。 As will be described in detail later, the user (player) can perform a game operation of moving the controller 5, the marker device 6 is used for the motion and position and attitude of the controller 5 the game apparatus 3 is calculated. マーカ装置6は、その両端に2つのマーカ6Rおよび6Lを備えている。 Marker device 6 includes two markers 6R and 6L at both ends thereof. マーカ6R(マーカ6Lも同様)は、具体的には1以上の赤外LED(Light Emitting Diode)であり、テレビ2の前方に向かって赤外光を出力する。 The marker 6R (also the marker 6L) is specifically composed of one or more infrared LED (Light Emitting Diode), for outputting infrared light forward from the television 2. マーカ装置6はゲーム装置3に接続されており、ゲーム装置3はマーカ装置6が備える各赤外LEDの点灯を制御することが可能である。 Marker device 6 is connected to the game apparatus 3, the game apparatus 3 is capable of controlling lighting of each infrared LED of the marker device 6. なお、マーカ装置6は可搬型であり、ユーザはマーカ装置6を自由な位置に設置することができる。 Incidentally, the marker device 6 is portable, the user can install the marker device 6 in any position. 図1ではマーカ装置6がテレビ2の上に設置された態様を表しているが、マーカ装置6を設置する位置および向きは任意である。 Although the marker device 6 in FIG. 1 represents a feature that was placed on top of the television 2, the position and orientation installing the marker device 6 is optional.

コントローラ5は、自機に対して行われた操作の内容を表す操作データをゲーム装置3に与えるものである。 The controller 5 is to provide an operation data representing a content of an operation performed on the own device to the game apparatus 3. コントローラ5とゲーム装置3とは無線通信によって通信可能である。 The controller 5 and the game apparatus 3 can communicate via wireless communication. 本実施形態では、コントローラ5とゲーム装置3との間の無線通信には例えばBluetooth(ブルートゥース)(登録商標)の技術が用いられる。 In the present embodiment, the controller 5 to the wireless communication between the game apparatus 3, for example, the Bluetooth (registered trademark) is used. なお、他の実施形態においてはコントローラ5とゲーム装置3とは有線で接続されてもよい。 It may be connected by wire to the controller 5 and the game apparatus 3 in another embodiment. また、本実施形態では、ゲームシステム1に含まれるコントローラ5は1つとするが、ゲーム装置3は複数のコントローラと通信可能であり、所定台数のコントローラを同時に使用することによって複数人でゲームをプレイすることが可能である。 Further, in the present embodiment, the controller 5 included in the game system 1 with one, but the game apparatus 3 can communicate with a plurality of controllers, play a game a plurality of people by using a controller of a predetermined number of simultaneously it is possible to. コントローラ5の詳細な構成については後述する。 Later detailed configuration of the controller 5.

端末装置7は、ユーザが把持可能な程度の大きさであり、ユーザは端末装置7を手に持って動かしたり、あるいは、端末装置7を自由な位置に配置したりして使用することが可能である。 The terminal device 7 is large enough user can grip, the user or move in his hand the terminal device 7, or may be used as or to place the terminal device 7 in any position it is. 詳細な構成は後述するが、端末装置7は、表示手段であるLCD(Liquid Crystal Display:液晶表示装置)51、および、入力手段(後述するタッチパネル52やジャイロセンサ74等)を備える。 Detailed configuration will be described later, the terminal device 7 is a display unit LCD (Liquid Crystal Display: LCD device) 51, and comprises an input unit (such as a touch panel 52, a gyro sensor 74 to be described later). 端末装置7とゲーム装置3とは無線(有線であってもよい)によって通信可能である。 The terminal device 7 and the game apparatus 3 can communicate wirelessly (may be wired). 端末装置7は、ゲーム装置3で生成された画像(例えばゲーム画像)のデータをゲーム装置3から受信し、画像をLCD51に表示する。 The terminal device 7, the data of the game device image generated by 3 (for example, a game image) received from the game apparatus 3, and displays images on the LCD 51. なお、本実施形態では表示装置としてLCDを用いているが、端末装置7は、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を有していてもよい。 Incidentally, in the present embodiment an LCD is used as a display device, the terminal device 7, for example, EL: display device or the like using a (Electro Luminescence) may have any other display device . また、端末装置7は、自機に対して行われた操作の内容を表す操作データをゲーム装置3に送信する。 The terminal device 7 transmits operation data representing the content of an operation performed on the own device to the game apparatus 3.

[2. [2. ゲーム装置3の内部構成] Internal structure of the game apparatus 3]
次に、図2を参照して、ゲーム装置3の内部構成について説明する。 Next, with reference to FIG. 2, the internal configuration of the game apparatus 3. 図2は、ゲーム装置3の内部構成を示すブロック図である。 Figure 2 is a block diagram showing an internal configuration of the game apparatus 3. ゲーム装置3は、CPU(Central Processing Unit)10、システムLSI11、外部メインメモリ12、ROM/RTC13、ディスクドライブ14、およびAV−IC15等を有する。 The game apparatus 3 includes a CPU (Central Processing Unit) 10, a system LSI 11, an external main memory 12, ROM / RTC 13, disc drive 14, and AV-IC 15 and the like.

CPU10は、光ディスク4に記憶されたゲームプログラムを実行することによってゲーム処理を実行するものであり、ゲームプロセッサとして機能する。 CPU10 is for executing the game processing by executing the game program stored in the optical disc 4, and functions as a game processor. CPU10は、システムLSI11に接続される。 CPU10 is connected to the system LSI 11. システムLSI11には、CPU10の他、外部メインメモリ12、ROM/RTC13、ディスクドライブ14およびAV−IC15が接続される。 The system LSI 11, other CPU 10, the external main memory 12, ROM / RTC13, disk drive 14 and AV-IC 15 are connected. システムLSI11は、それに接続される各構成要素間におけるデータ転送の制御、表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。 System LSI11 performs control of data transfer between the respective components connected thereto, generation of an image to be displayed, and acquisition of data from an external device. なお、システムLSI11の内部構成については後述する。 It will be described later the internal configuration of the system LSI 11. 揮発性の外部メインメモリ12は、光ディスク4から読み出されたゲームプログラムや、フラッシュメモリ17から読み出されたゲームプログラム等のプログラムを記憶したり、各種データを記憶したりするものであり、CPU10のワーク領域やバッファ領域として用いられる。 Volatile external main memory 12 of, and a game program read from the optical disc 4, and stores the program of the game program, etc. read from the flash memory 17 is intended to stores various data, CPU 10 used as a work area and a buffer area. ROM/RTC13は、ゲーム装置3の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC:Real Time Clock)とを有する。 ROM / RTC 13 includes a ROM (so-called boot ROM) that the game device 3 incorporating a boot program for the clock circuit for counting time: and a (RTC Real Time Clock). ディスクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出し、後述する内部メインメモリ11eまたは外部メインメモリ12に読み出したデータを書き込む。 The disc drive 14 reads program data and texture data from the optical disc 4, and writes the read data into an internal main memory 11e or the external main memory 12 will be described later.

システムLSI11には、入出力プロセッサ(I/Oプロセッサ)11a、GPU(Graphics Processor Unit)11b、DSP(Digital Signal Processor)11c、VRAM(Video RAM)11d、および内部メインメモリ11eが設けられる。 The system LSI 11, input-output processor (I / O processor) 11a, GPU (Graphics Processor Unit) 11b, DSP (Digital Signal Processor) 11c, VRAM (Video RAM) 11d, and the internal main memory 11e. 図示は省略するが、これらの構成要素11a〜11eは内部バスによって互いに接続される。 Although not shown, these components 11a~11e are connected to each other via an internal bus.

GPU11bは、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(作画命令)に従って画像を生成する。 GPU11b is a part of drawing means, generates an image in accordance with a graphics command from the CPU 10 (draw command). VRAM11dは、GPU11bがグラフィクスコマンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)を記憶する。 VRAM11d is, GPU 11b stores data (data such as polygon data and texture data) necessary for executing the graphics command. 画像が生成される際には、GPU11bは、VRAM11dに記憶されたデータを用いて画像データを作成する。 When an image is generated, the GPU 11b generates image data by using the data stored in the VRAM 11 d. なお、本実施形態においては、ゲーム装置3は、テレビ2に表示するゲーム画像と、端末装置7に表示するゲーム画像との両方を生成する。 In the present embodiment, the game apparatus 3 generates a game image to be displayed on the television 2, both the game image to be displayed on the terminal device 7. 以下では、テレビ2に表示されるゲーム画像を「テレビ用ゲーム画像」と呼び、端末装置7に表示されるゲーム画像を「端末用ゲーム画像」と呼ぶことがある。 Hereinafter, a game image displayed on the television 2 may be referred to as a "television game image", the game image displayed on the terminal device 7 may be referred to as a "terminal game image".

DSP11cは、オーディオプロセッサとして機能し、内部メインメモリ11eや外部メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。 DSP11c functions as an audio processor, sound data and sound waveform stored in the internal main memory 11e or the external main memory 12 (tone quality) data using, generates audio data. なお、本実施形態においては、ゲーム音声についてもゲーム画像と同様、テレビ2のスピーカから出力するゲーム音声と、端末装置7のスピーカから出力するゲーム音声との両方が生成される。 In the present embodiment, similarly to the game image also game sound, the game sound output from the speaker of the television 2, both the game sound output from the speaker of the terminal device 7 is generated. 以下では、テレビ2から出力されるゲーム音声を「テレビ用ゲーム音声」と呼び、端末装置7から出力されるゲーム音声を「端末用ゲーム音声」と呼ぶことがある。 Hereinafter, the game sound output from the TV 2 is referred to as "television game sound", the game sound output from the terminal device 7 may be referred to as a "terminal game sound".

上記のようにゲーム装置3において生成される画像および音声のうちで、テレビ2において出力される画像および音声のデータは、AV−IC15によって読み出される。 Among the images and sounds generated by the game apparatus 3 as described above, the image and audio data is output in the television 2 are read by the AV-IC 15. AV−IC15は、読み出した画像データをAVコネクタ16を介してテレビ2に出力するとともに、読み出した音声データを、テレビ2に内蔵されるスピーカ2aに出力する。 AV-IC 15 outputs the read image data to the television 2 via an AV connector 16, read audio data, and outputs to the speaker 2a built in the television 2. これによって、テレビ2に画像が表示されるとともにスピーカ2aから音が出力される。 Thus, the output sound from the speaker 2a together with the image on the TV 2 is displayed.

また、ゲーム装置3において生成される画像および音声のうちで、端末装置7において出力される画像および音声のデータは、入出力プロセッサ11a等によって端末装置7へ送信される。 Also, among the images and sounds generated by the game apparatus 3, the image and audio data is output in the terminal device 7 is transmitted to the terminal device 7 by the input-output processor 11a or the like. 入出力プロセッサ11a等による端末装置7へのデータの送信については後述する。 It will be described later transmission of data to the terminal device 7 by the input-output processor 11a or the like.

入出力プロセッサ11aは、それに接続される構成要素との間でデータの送受信を実行したり、外部装置からのデータのダウンロードを実行したりする。 The input-output processor 11a transmits or receives data to and from the components connected thereto, or downloads data from an external device. 入出力プロセッサ11aは、フラッシュメモリ17、ネットワーク通信モジュール18、コントローラ通信モジュール19、拡張コネクタ20、メモリカード用コネクタ21、コーデックLSI27に接続される。 Output processor 11a, flash memory 17, a network communication module 18, a controller communication module 19, an extension connector 20, a memory card connector 21 are connected to the codec LSI 27. また、ネットワーク通信モジュール18にはアンテナ22が接続される。 Also, the network communication module 18 antenna 22 is connected. コントローラ通信モジュール19にはアンテナ23が接続される。 Antenna 23 is connected to the controller communication module 19. コーデックLSI27は端末通信モジュール28に接続され、端末通信モジュール28にはアンテナ29が接続される。 Codec LSI27 is connected to the terminal communication module 28, an antenna 29 is connected to the terminal communication module 28.

ゲーム装置3は、インターネット等のネットワークに接続して外部情報処理装置(例えば他のゲーム装置や、各種サーバ等)と通信を行うことが可能である。 The game apparatus 3, an external information processing apparatus connected to a network such as the Internet (for example, other game device, various servers, etc.) that it is possible to perform communication. すなわち、入出力プロセッサ11aは、ネットワーク通信モジュール18およびアンテナ22を介してインターネット等のネットワークに接続し、ネットワークに接続される外部情報処理装置と通信することができる。 That is, the input-output processor 11a may be connected to a network such as the Internet via the network communication module 18 and the antenna 22 communicates with external information processing apparatus connected to the network. 入出力プロセッサ11aは、定期的にフラッシュメモリ17にアクセスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データが有る場合には、ネットワーク通信モジュール18およびアンテナ22を介してネットワークに送信する。 Output processor 11a regularly accesses the flash memory 17 to detect the presence or absence of data that needs to be transmitted to the network, if the data is present, the network via the network communication module 18 and the antenna 22 Send. また、入出力プロセッサ11aは、外部情報処理装置から送信されてくるデータやダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22およびネットワーク通信モジュール18を介して受信し、受信したデータをフラッシュメモリ17に記憶する。 Furthermore, the input-output processor 11a, the data or data downloaded from a download server transmitted from the external information processing apparatus, a network, received via the antenna 22 and the network communication module 18, the received data into the flash memory 17 Remember. CPU10はゲームプログラムを実行することにより、フラッシュメモリ17に記憶されたデータを読み出してゲームプログラムで利用する。 CPU10 by executing the game program, to be used for the game program reads the data stored in the flash memory 17. フラッシュメモリ17には、ゲーム装置3と外部情報処理装置との間で送受信されるデータの他、ゲーム装置3を利用してプレイしたゲームのセーブデータ(ゲームの結果データまたは途中データ)が記憶されてもよい。 The flash memory 17, other data transmitted and received between the game apparatus 3 and the external information processing apparatus, the game apparatus 3 game save data is played using the (game result data or proceeding data) is stored it may be. また、フラッシュメモリ17にはゲームプログラムが記憶されてもよい。 The game program may be stored in the flash memory 17.

また、ゲーム装置3は、コントローラ5からの操作データを受信することが可能である。 The game apparatus 3 is capable of receiving operation data from the controller 5. すなわち、入出力プロセッサ11aは、コントローラ5から送信される操作データをアンテナ23およびコントローラ通信モジュール19を介して受信し、内部メインメモリ11eまたは外部メインメモリ12のバッファ領域に記憶(一時記憶)する。 That is, the input-output processor 11a receives operation data transmitted from the controller 5 via the antenna 23 and the controller communication module 19, stored in the buffer area of ​​the internal main memory 11e or the external main memory 12 (temporarily).

また、ゲーム装置3は、端末装置7との間で画像や音声等のデータを送受信することが可能である。 The game apparatus 3 is capable of sending and receiving data such as images and audio with the terminal device 7. 入出力プロセッサ11aは、端末装置7へゲーム画像(端末用ゲーム画像)を送信する場合、GPU11bが生成したゲーム画像のデータをコーデックLSI27へ出力する。 Output processor 11a, when transmitting game image (terminal game image) to the terminal device 7, and outputs the data of the game image GPU11b has generated to the codec LSI 27. コーデックLSI27は、入出力プロセッサ11aからの画像データに対して所定の圧縮処理を行う。 Codec LSI27 performs predetermined compression processing on the image data from the input-output processor 11a. 端末通信モジュール28は、端末装置7との間で無線通信を行う。 Terminal communication module 28 performs wireless communication with the terminal device 7. したがって、コーデックLSI27によって圧縮された画像データは、端末通信モジュール28によってアンテナ29を介して端末装置7へ送信される。 Thus, the image data compressed by the codec LSI27 is transmitted to the terminal device 7 via the antenna 29 by the terminal communication module 28. なお、本実施形態では、ゲーム装置3から端末装置7へ送信される画像データはゲームに用いるものであり、ゲームにおいては表示される画像に遅延が生じるとゲームの操作性に悪影響が出る。 In the present embodiment, the image data transmitted from the game apparatus 3 to the terminal device 7 are those used in the game, adverse effect on the game operability when the delay in the image to be displayed occurs in the game. そのため、ゲーム装置3から端末装置7への画像データの送信に関しては、できるだけ遅延が生じないようにすることが好ましい。 Therefore, with respect to the transmission of image data from the game apparatus 3 to the terminal device 7, it is preferable that as much as possible the delay does not occur. したがって、本実施形態では、コーデックLSI27は、例えばH. Therefore, in the present embodiment, the codec LSI27, for example H. 264規格といった高効率の圧縮技術を用いて画像データを圧縮する。 Compressing the image data using a high efficiency compression technology such as H.264 standard. なお、それ以外の圧縮技術を用いてもよいし、通信速度が十分である場合には無圧縮で画像データを送信する構成であってもよい。 Incidentally, it may be used other compression techniques, when the communication speed is sufficient may be configured to transmit the image data without compression. また、端末通信モジュール28は、例えばWi−Fiの認証を受けた通信モジュールであり、例えばIEEE802.11n規格で採用されるMIMO(Multiple Input Multiple Output)の技術を用いて端末装置7との間の無線通信を高速に行うようにしてもよいし、他の通信方式を用いてもよい。 The terminal communication module 28 is, for example, a communication module certified Wi-Fi, a between the terminal device 7 using the technique of MIMO (Multiple Input Multiple Output) is employed for example, in IEEE802.11n standard it wireless communication may be performed at high speed, or may use other communication methods.

また、ゲーム装置3は、画像データの他、音声データを端末装置7へ送信する。 The game apparatus 3, in addition to image data, transmits the voice data to the terminal device 7. すなわち、入出力プロセッサ11aは、DSP11cが生成した音声データを、コーデックLSI27を介して端末通信モジュール28へ出力する。 That is, the input-output processor 11a is the audio data DSP11c is generated and output via the codec LSI27 to the terminal communication module 28. コーデックLSI27は、音声データに対しても画像データと同様に圧縮処理を行う。 Codec LSI27 performs a compression process similar to the image data with respect to audio data. 音声データに対する圧縮の方式は、どのような方式であってもよいが、圧縮率が高く、音声の劣化が少ない方式が好ましい。 Method of compression for audio data, any method may be, but the compression ratio is high, preferably less system deterioration of speech. また、他の実施形態においては、音声データは圧縮されずに送信されてもよい。 Also, in other embodiments, the audio data may be transmitted without being compressed. 端末通信モジュール28は、圧縮された画像データおよび音声データを、アンテナ29を介して端末装置7へ送信する。 Terminal communication module 28, the compressed image data and sound data, and transmits to the terminal device 7 through the antenna 29.

さらに、ゲーム装置3は、上記画像データおよび音声データの他に、必要に応じて各種の制御データを端末装置7へ送信する。 Further, the game apparatus 3, in addition to the image data and audio data, and transmits various control data to the terminal device 7 as necessary. 制御データは、端末装置7が備える構成要素に対する制御指示を表すデータであり、例えばマーカ部(図10に示すマーカ部55)の点灯を制御する指示や、カメラ(図10に示すカメラ56)の撮像を制御する指示等を表す。 Control data is data representing the control instruction for the component terminal device 7 comprises, for example, instructions and to control the lighting of the marker section (marker section 55 shown in FIG. 10), the camera (camera 56 shown in FIG. 10) It represents an instruction for controlling the imaging. 入出力プロセッサ11aは、CPU10の指示に応じて制御データを端末装置7へ送信する。 The input-output processor 11a transmits the control data in accordance with the CPU10 of the instruction to the terminal device 7. なお、この制御データに関して、本実施形態ではコーデックLSI27はデータの圧縮処理を行わないが、他の実施形態においては圧縮処理を行うようにしてもよい。 Regarding the control data, the codec LSI27 in this embodiment does not perform compression processing of the data, it may be performed a compression process in other embodiments. なお、ゲーム装置3から端末装置7へ送信される上述のデータは、必要に応じて暗号化がされていてもよいし、されていなくともよい。 Incidentally, the above-described data transmitted from the game apparatus 3 to the terminal device 7 may be encrypted if desired, may not have been.

また、ゲーム装置3は、端末装置7から各種データを受信可能である。 The game apparatus 3 can receive various data from the terminal device 7. 詳細は後述するが、本実施形態では、端末装置7は、操作データ、画像データ、および音声データを送信する。 Although details will be described later, in the present embodiment, the terminal device 7 transmits operation data, image data, and audio data. 端末装置7から送信される各データはアンテナ29を介して端末通信モジュール28によって受信される。 Each data transmitted from the terminal device 7 is received by the terminal communication module 28 via the antenna 29. ここで、端末装置7からの画像データおよび音声データは、ゲーム装置3から端末装置7への画像データおよび音声データと同様の圧縮処理が施されている。 Here, the image data and audio data from the terminal device 7, similar compression processing and image data and sound data from the game apparatus 3 to the terminal device 7 is applied. したがって、これら画像データおよび音声データについては、端末通信モジュール28からコーデックLSI27に送られ、コーデックLSI27によって伸張処理が施されて入出力プロセッサ11aに出力される。 Therefore, for these image data and audio data, transmitted from the terminal communication module 28 to the codec LSI 27, expansion processing by the codec LSI 27 is output to the input-output processor 11a is given. 一方、端末装置7からの操作データに関しては、画像や音声に比べてデータ量が少ないので、圧縮処理が施されていなくともよい。 On the other hand, as for the operation data from the terminal device 7, since the small amount of data compared to the image and audio compression process it may not have been subjected. また、必要に応じて暗号化がされていてもよいし、されていなくともよい。 Further, it may be encrypted as required, may not have been. したがって、操作データは、端末通信モジュール28で受信された後、コーデックLSI27を介して入出力プロセッサ11aに出力される。 Therefore, the operation data are received by the terminal communication module 28, and output to the input-output processor 11a via the codec LSI 27. 入出力プロセッサ11aは、端末装置7から受信したデータを、内部メインメモリ11eまたは外部メインメモリ12のバッファ領域に記憶(一時記憶)する。 Output processor 11a, the data received from the terminal device 7, the internal main memory 11e or in the buffer area of ​​the external main memory 12 (temporarily).

また、ゲーム装置3は、他の機器や外部記憶媒体に接続することが可能である。 The game apparatus 3 is capable of connecting to other devices or external storage medium. すなわち、入出力プロセッサ11aには、拡張コネクタ20およびメモリカード用コネクタ21が接続される。 That is, the input-output processor 11a is connected to the extension connector 20 and the memory card connector 21 are connected. 拡張コネクタ20は、USBやSCSIのようなインターフェースのためのコネクタである。 Extension connector 20 is a connector for an interface such as USB or SCSI. 拡張コネクタ20に対しては、外部記憶媒体のようなメディアを接続したり、他のコントローラ等の周辺機器を接続したり、有線の通信用コネクタを接続することによってネットワーク通信モジュール18に替えてネットワークとの通信を行ったりすることができる。 For extension connector 20, instead of the network communication module 18 by connecting or connected to a medium such as an external storage medium, or to connect a peripheral device such as another controller, a wired communication connector Network or you can communicate with. メモリカード用コネクタ21は、メモリカードのような外部記憶媒体を接続するためのコネクタである。 Memory card connector 21 is a connector for connecting an external storage medium such as a memory card. 例えば、入出力プロセッサ11aは、拡張コネクタ20やメモリカード用コネクタ21を介して外部記憶媒体にアクセスし、外部記憶媒体にデータを保存したり、外部記憶媒体からデータを読み出したりすることができる。 For example, the input-output processor 11a can access an external storage medium via the extension connector 20 or the memory card connector 21 to store data in the external storage medium or read data from the external storage medium.

ゲーム装置3には、電源ボタン24、リセットボタン25、およびイジェクトボタン26が設けられる。 The game apparatus 3 includes a power button 24, a reset button 25, and an eject button 26. 電源ボタン24およびリセットボタン25は、システムLSI11に接続される。 The power button 24 and the reset button 25 are connected to the system LSI 11. 電源ボタン24がオンされると、図示しないACアダプタによって外部の電源からゲーム装置3の各構成要素に対して電力が供給される。 When the power button 24 is turned on, power is supplied to the respective components of the game apparatus 3 from an external power supply by an AC adapter (not shown). リセットボタン25が押されると、システムLSI11は、ゲーム装置3の起動プログラムを再起動する。 When the reset button 25 is pressed, the system LSI11 restarts the game apparatus 3 launchers. イジェクトボタン26は、ディスクドライブ14に接続される。 The eject button 26 is connected to the disk drive 14. イジェクトボタン26が押されると、ディスクドライブ14から光ディスク4が排出される。 When the eject button 26 is pressed, the optical disc 4 is ejected from the disc drive 14.

なお、他の実施形態においては、ゲーム装置3が備える各構成要素のうちでいくつかの構成要素は、ゲーム装置3とは別体の拡張機器として構成されてもよい。 Note that in other embodiments, some components among the respective components of the game apparatus 3 is provided, the game apparatus 3 may be configured as a separate extension device. このとき、拡張機器は、例えば上記拡張コネクタ20を介してゲーム装置3と接続されるようにしてもよい。 At this time, expansion device, for example, may be connected to the game apparatus 3 via the extension connector 20. 具体的には、拡張機器は、例えば上記コーデックLSI27、端末通信モジュール28およびアンテナ29の各構成要素を備えており、拡張コネクタ20に対して着脱可能であってもよい。 Specifically, expansion devices, for example, the codec LSI 27, includes the components of the terminal communication module 28 and the antenna 29 may be detachable from the expansion connector 20. これによれば、上記各構成要素を備えていないゲーム装置に対して上記拡張機器を接続することによって、当該ゲーム装置を端末装置7と通信可能な構成とすることができる。 According to this, by connecting the extension device to the game apparatus does not have the above components, it is possible to make the game apparatus capable of communicating configuration with the terminal device 7.

[3. [3. コントローラ5の構成] Configuration of the controller 5]
次に、図3〜図7を参照して、コントローラ5について説明する。 Next, with reference to FIGS. 3 to 7, the controller 5 will be described. 図3は、コントローラ5の外観構成を示す斜視図である。 Figure 3 is a perspective view showing an external configuration of the controller 5. 図4は、コントローラ5の外観構成を示す斜視図である。 Figure 4 is a perspective view showing an external configuration of the controller 5. 図3は、コントローラ5の上側後方から見た斜視図であり、図4は、コントローラ5を下側前方から見た斜視図である。 Figure 3 is a perspective view from the top rear side of the controller 5, FIG. 4 is a perspective view of the controller 5 as viewed from the bottom front side thereof.

図3および図4において、コントローラ5は、例えばプラスチック成型によって形成されたハウジング31を有している。 3 and 4, the controller 5 includes a housing 31 formed by plastic molding. ハウジング31は、その前後方向(図3に示すZ軸方向)を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。 The housing 31 has its longitudinal direction has a substantially rectangular shape with a longitudinal direction (Z-axis direction shown in FIG. 3), an overall one hand of an adult or size such that it can be held in a child. ユーザは、コントローラ5に設けられたボタンを押下すること、および、コントローラ5自体を動かしてその位置や姿勢(傾き)を変えることによってゲーム操作を行うことができる。 The user pressing a button provided on the controller 5, and can perform a game operation by changing the position and attitude (tilt) moving the controller 5 itself.

ハウジング31には、複数の操作ボタンが設けられる。 The housing 31 has a plurality of operation buttons. 図3に示すように、ハウジング31の上面には、十字ボタン32a、1番ボタン32b、2番ボタン32c、Aボタン32d、マイナスボタン32e、ホームボタン32f、プラスボタン32g、および電源ボタン32hが設けられる。 As shown in FIG. 3, on the upper surface of the housing 31, provided cross button 32a, 1 No. button 32 b, 2 No. button 32c, A button 32d, a minus button 32e, a home button 32f, a plus button 32g, and a power button 32h It is. 本明細書では、これらのボタン32a〜32hが設けられるハウジング31の上面を「ボタン面」と呼ぶことがある。 In this specification, the top surface of the housing 31 on which the buttons 32a~32h are provided may be referred to as a "button surface". 一方、図4に示すように、ハウジング31の下面には凹部が形成されており、当該凹部の後面側傾斜面にはBボタン32iが設けられる。 On the other hand, as shown in FIG. 4, on the bottom surface of the housing 31, a recessed portion is formed, B button 32i is provided on a rear slope surface of the recessed portion. これらの各操作ボタン32a〜32iには、ゲーム装置3が実行する情報処理プログラムに応じた機能が適宜割り当てられる。 The operation buttons 32a to 32i, functions corresponding to the information processing program executed by the game apparatus 3 are appropriately assigned. また、電源ボタン32hは遠隔からゲーム装置3本体の電源をオン/オフするためのものである。 The power button 32h is for turning on / off the game apparatus 3 by remote control. ホームボタン32fおよび電源ボタン32hは、その上面がハウジング31の上面に埋没している。 The home button 32f and the power button 32h is a top surface thereof buried in the top surface of the housing 31. これによって、ユーザがホームボタン32fまたは電源ボタン32hを誤って押下することを防止することができる。 Thereby, it is possible to prevent the user from inadvertently pressing the home button 32f or the power button 32h.

ハウジング31の後面にはコネクタ33が設けられている。 Connector 33 in the rear surface of the housing 31 is provided. コネクタ33は、コントローラ5に他の機器(例えば、他のセンサユニットやコントローラ)を接続するために利用される。 The connector 33 is used for connecting the controller 5 to another device (e.g., other sensor units and controllers). また、ハウジング31の後面におけるコネクタ33の両側には、上記他の機器が容易に離脱することを防止するために係止穴33aが設けられている。 On both sides of the connector 33 on the rear surface of the housing 31, engagement holes 33a are provided for preventing such another device from easily coming off.

ハウジング31上面の後方には複数(図3では4つ)のLED34a〜34dが設けられる。 The rear of the top surface of the housing 31 LED34a~34d a plurality (four in FIG. 3) is provided. ここで、コントローラ5には、他のコントローラと区別するためにコントローラ種別(番号)が付与される。 The controller 5, the controller type (number) is assigned to distinguish it from other controllers. 各LED34a〜34dは、コントローラ5に現在設定されている上記コントローラ種別をユーザに通知したり、コントローラ5の電池残量をユーザに通知したりする等の目的で用いられる。 Each LED34a~34d is and notifies the controller type which is currently set for the controller 5 to the user, is used for the purpose of, for example and notifies the battery level of the controller 5 to the user. 具体的には、コントローラ5を用いてゲーム操作が行われる際、上記コントローラ種別に応じて複数のLED34a〜34dのいずれか1つが点灯する。 Specifically, when a game operation is performed using the controller 5, one of the plurality of LED34a~34d corresponding to the controller type is lit up.

また、コントローラ5は撮像情報演算部35(図6)を有しており、図4に示すように、ハウジング31前面には撮像情報演算部35の光入射面35aが設けられる。 The controller 5 has an imaging information calculation section 35 (FIG. 6), as shown in FIG. 4, the light incident surface 35a of the imaging information calculation section 35 is provided on the front surface of the housing 31. 光入射面35aは、マーカ6Rおよび6Lからの赤外光を少なくとも透過する材質で構成される。 The light incident surface 35a is formed of a material which at least transmits infrared light from the markers 6R and 6L.

ハウジング31上面における1番ボタン32bとホームボタン32fとの間には、コントローラ5に内蔵されるスピーカ47(図5)からの音を外部に放出するための音抜き孔31aが形成されている。 Between the first button 32b and the home button 32f in housing 31 top, sound holes 31a for outputting a sound from a speaker 47 (FIG. 5) built in the controller 5 to the outside is formed.

次に、図5および図6を参照して、コントローラ5の内部構造について説明する。 Next, with reference to FIGS. 5 and 6, it will be described an internal structure of the controller 5. 図5および図6は、コントローラ5の内部構造を示す図である。 5 and 6 are diagrams showing the internal structure of the controller 5. なお、図5は、コントローラ5の上筐体(ハウジング31の一部)を外した状態を示す斜視図である。 FIG. 5 is a perspective view showing a state in which removed upper casing of the controller 5 (a part of the housing 31). 図6は、コントローラ5の下筐体(ハウジング31の一部)を外した状態を示す斜視図である。 Figure 6 is a perspective view showing a state in which remove the lower housing of the controller 5 (part of the housing 31). 図6に示す斜視図は、図5に示す基板30を裏面から見た斜視図となっている。 Perspective view shown in FIG. 6 is a perspective view of the substrate 30 shown in FIG. 5 from the back.

図5において、ハウジング31の内部には基板30が固設されており、当該基板30の上主面上に各操作ボタン32a〜32h、各LED34a〜34d、加速度センサ37、アンテナ45、およびスピーカ47等が設けられる。 5, in the housing 31 are fixed substrate 30, the operation on the main surface of the substrate 30 buttons 32 a to 32 h, the LEDs 34a to 34d, an acceleration sensor 37, an antenna 45, the speaker 47 etc. is provided. これらは、基板30等に形成された配線(図示せず)によってマイクロコンピュータ(Micro Computer:マイコン)42(図6参照)に接続される。 These wiring formed on the substrate 30 or the like (not shown) by a microcomputer: is connected to the (Micro Computer microcomputer) 42 (see FIG. 6). 本実施形態では、加速度センサ37は、X軸方向に関してコントローラ5の中心からずれた位置に配置されている。 In the present embodiment, the acceleration sensor 37 is disposed at a position shifted from the center of the controller 5 in X-axis direction. これによって、コントローラ5をZ軸回りに回転させたときのコントローラ5の動きが算出しやすくなる。 Thus, the motion of the controller 5 is easily calculated when the controller 5 is rotated around the Z axis. また、加速度センサ37は、長手方向(Z軸方向)に関してコントローラ5の中心よりも前方に配置されている。 Further, the acceleration sensor 37 is arranged in front of the center of the controller 5 with respect to the longitudinal direction (Z axis direction). また、無線モジュール44(図6)およびアンテナ45によって、コントローラ5がワイヤレスコントローラとして機能する。 Further, a wireless module 44 (FIG. 6) and the antenna 45 allow the controller 5 to act as a wireless controller.

一方、図6において、基板30の下主面上の前端縁に撮像情報演算部35が設けられる。 On the other hand, in FIG. 6, the imaging information calculation section 35 is provided at a front edge of a bottom main surface of the substrate 30. 撮像情報演算部35は、コントローラ5の前方から順に赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を備えている。 The imaging information calculation section 35 includes an infrared filter 38, a lens 39, an image pickup device 40 and the image processing circuit 41. これらの部材38〜41はそれぞれ基板30の下主面に取り付けられる。 These members 38-41 are attached on the bottom main surface of the substrate 30.

さらに、基板30の下主面上には、上記マイコン42およびバイブレータ46が設けられている。 On the bottom main surface of the substrate 30, the microcomputer 42 and a vibrator 46 are provided. バイブレータ46は、例えば振動モータやソレノイドであり、基板30等に形成された配線によってマイコン42と接続される。 The vibrator 46 is, for example, a vibration motor or a solenoid, and is connected to the microcomputer 42 via lines formed on the substrate 30 or the like. マイコン42の指示によりバイブレータ46が作動することによってコントローラ5に振動が発生する。 Vibrator 46 according to an instruction of the microcomputer 42 The controller 5 is vibrated by an actuation. これによって、コントローラ5を把持しているユーザの手にその振動が伝達される、いわゆる振動対応ゲームを実現することができる。 Therefore, the vibration is transmitted to the user's hand holding the controller 5, it is possible to realize a so-called vibration-feedback game. 本実施形態では、バイブレータ46は、ハウジング31のやや前方寄りに配置される。 In the present embodiment, the vibrator 46 is located in the front portion of the housing 31. つまり、バイブレータ46がコントローラ5の中心よりも端側に配置することによって、バイブレータ46の振動によりコントローラ5全体を大きく振動させることができる。 Since the vibrator 46 is arranged on the end side than the center of the controller 5, it is possible to significantly vibrate the entire controller 5 by the vibration of the vibrator 46. また、コネクタ33は、基板30の下主面上の後端縁に取り付けられる。 The connector 33 is attached to the rear edge of the bottom main surface of the substrate 30. なお、図5および図6に示す他、コントローラ5は、マイコン42の基本クロックを生成する水晶振動子、スピーカ47に音声信号を出力するアンプ等を備えている。 Incidentally, addition of 5 and 6, the controller 5 includes a quartz oscillator for generating a reference clock of the microcomputer 42, an amplifier for outputting an audio signal to the speaker 47.

なお、図3〜図6に示したコントローラ5の形状や、各操作ボタンの形状、加速度センサやバイブレータの数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。 The shape of the controller 5 shown in FIGS. 3 to 6, the shape of each operation button, only the number and the positions of acceleration sensors and vibrators are just an example, there other shapes, numbers, and installed positions it may be. また、本実施形態では、撮像手段による撮像方向はZ軸正方向であるが、撮像方向はいずれの方向であってもよい。 Further, in the present embodiment, the imaging direction of the imaging means is a Z-axis positive direction, the imaging direction may be any direction. すなわち、コントローラ5における撮像情報演算部35の位置(撮像情報演算部35の光入射面35a)は、ハウジング31の前面でなくてもよく、ハウジング31の外部から光を取り入れることができれば他の面に設けられてもかまわない。 That is, the position of the imaging information calculation section 35 in the controller 5 (light incident surface 35a of the imaging information calculation section 35), the other surface may not be front, on which a light can be received from outside of the housing 31 of the housing 31 but it may be provided on.

図7は、コントローラ5の構成を示すブロック図である。 Figure 7 is a block diagram showing a configuration of the controller 5. コントローラ5は、操作部32(各操作ボタン32a〜32i)、撮像情報演算部35、通信部36、加速度センサ37、およびジャイロセンサ48を備えている。 The controller 5 includes the operation section 32 (operation buttons 32a to 32i), the imaging information calculation section 35, a communication unit 36, the acceleration sensor 37 and the gyro sensor 48,. コントローラ5は、自機に対して行われた操作内容を表すデータを操作データとしてゲーム装置3へ送信するものである。 The controller 5 is configured to transmit to the game apparatus 3, data representing the content of an operation performed on the own apparatus as the operation data. なお、以下では、コントローラ5が送信する操作データを「コントローラ操作データ」と呼び、端末装置7が送信する操作データを「端末操作データ」と呼ぶことがある。 In the following, the operation data controller 5 sends referred to as "controller operation data", the operation data terminal device 7 transmits may be referred to as a "terminal operation data".

操作部32は、上述した各操作ボタン32a〜32iを含み、各操作ボタン32a〜32iに対する入力状態(各操作ボタン32a〜32iが押下されたか否か)を表す操作ボタンデータを通信部36のマイコン42へ出力する。 The operation section 32 includes the operation buttons 32a to 32i described above, the microcomputer of the communication section 36, operation button data representing an input state of each of the operation buttons 32a to 32i (whether each of the operation buttons 32a to 32i has been pressed) and outputs it to the 42.

撮像情報演算部35は、撮像手段が撮像した画像データを解析してその中で輝度が高い領域を判別してその領域の重心位置やサイズなどを算出するためのシステムである。 The imaging information calculation section 35 is a system for imaging means calculates the centroid and the size the area to determine an area having a high brightness in its analyzes the captured image data. 撮像情報演算部35は、例えば最大200フレーム/秒程度のサンプリング周期を有するので、比較的高速なコントローラ5の動きでも追跡して解析することができる。 The imaging information calculation section 35 has, for example, a maximum sampling cycle of about 200 frames / sec, can trace and analyze even a relatively fast motion of the controller 5.

撮像情報演算部35は、赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を含んでいる。 The imaging information calculation section 35 includes the infrared filter 38, the lens 39, the imaging device 40 and the image processing circuit 41. 赤外線フィルタ38は、コントローラ5の前方から入射する光から赤外線のみを通過させる。 Infrared filter 38 passes only infrared light entering from the front of the controller 5. レンズ39は、赤外線フィルタ38を透過した赤外線を集光して撮像素子40へ入射させる。 Lens 39, is incident to the imaging element 40 condenses the infrared light passing through the infrared filter 38. 撮像素子40は、例えばCMOSセンサやあるいはCCDセンサのような固体撮像素子であり、レンズ39が集光した赤外線を受光して画像信号を出力する。 Imaging device 40 is, for example, a solid-state imaging device such as a CMOS sensor or a CCD sensor, a lens 39, and outputs an image signal by receiving the infrared light collected. ここで、撮像対象となる端末装置7のマーカ部55およびマーカ装置6は、赤外光を出力するマーカで構成される。 The markers 55 and marker device 6 of the terminal device 7 to be imaged is composed of a marker for outputting infrared light. したがって、赤外線フィルタ38を設けることによって、撮像素子40は、赤外線フィルタ38を通過した赤外線だけを受光して画像データを生成するので、撮像対象(マーカ部55および/またはマーカ装置6)の画像をより正確に撮像することができる。 Accordingly, by providing the infrared filter 38, image sensor 40, because it generates the image data only by receiving the infrared rays passing through the infrared filter 38, the image of the imaging target (marker unit 55 and / or marker device 6) it can be more accurately captured. 以下では、撮像素子40によって撮像された画像を撮像画像と呼ぶ。 Hereinafter, it referred the image taken by the imaging device 40 and the captured image. 撮像素子40によって生成された画像データは、画像処理回路41で処理される。 The image data generated by the image pickup element 40 is processed by the image processing circuit 41. 画像処理回路41は、撮像画像内における撮像対象の位置を算出する。 The image processing circuit 41 calculates the position of the imaging target in the taken image. 画像処理回路41は、算出された位置を示す座標を通信部36のマイコン42へ出力する。 The image processing circuit 41 outputs coordinates indicating the calculated position to the microcomputer 42 of the communication unit 36. この座標のデータは、マイコン42によって操作データとしてゲーム装置3に送信される。 The coordinate data is transmitted to the game apparatus 3 as operation data by the microcomputer 42. 以下では、上記座標を「マーカ座標」と呼ぶ。 In the following, the above-mentioned coordinates are referred to as "marker coordinates". マーカ座標はコントローラ5自体の向き(傾斜角度)や位置に対応して変化するので、ゲーム装置3はこのマーカ座標を用いてコントローラ5の向きや位置を算出することができる。 The marker coordinate changes in accordance with the direction (inclination angle) and the position of the controller 5 itself, the game apparatus 3 can calculate the direction or position of the controller 5 using the marker coordinate.

なお、他の実施形態においては、コントローラ5は画像処理回路41を備えていない構成であってもよく、撮像画像自体がコントローラ5からゲーム装置3へ送信されてもよい。 In other embodiments, the controller 5 may not necessarily include the image processing circuit 41, the captured image itself may be transmitted from the controller 5 to the game apparatus 3. このとき、ゲーム装置3は、画像処理回路41と同様の機能を有する回路あるいはプログラムを有しており、上記マーカ座標を算出するようにしてもよい。 In this case, the game apparatus 3, the image processing circuit 41 has a circuit or a program having the same function as, may calculate the marker coordinates.

加速度センサ37は、コントローラ5の加速度(重力加速度を含む)を検出する、すなわち、コントローラ5に加わる力(重力を含む)を検出する。 The acceleration sensor 37 detects acceleration of the controller 5 (including the gravitational acceleration), i.e., it detects a force (including gravity) applied to the controller 5. 加速度センサ37は、当該加速度センサ37の検出部に加わっている加速度のうち、センシング軸方向に沿った直線方向の加速度(直線加速度)の値を検出する。 The acceleration sensor 37, among the accelerations applied to a detection section of the acceleration sensor 37 detects a value of acceleration in the linear direction along a sensing axis (linear acceleration). 例えば、2軸以上の多軸加速度センサの場合には、加速度センサの検出部に加わっている加速度として、各軸に沿った成分の加速度をそれぞれ検出する。 For example, in the case of two or more axes of the multi-axis acceleration sensor as an acceleration applied to the detection section of the acceleration sensor detects the acceleration component along each axis. なお、加速度センサ37は、例えば静電容量式のMEMS(Micro Electro Mechanical System)型加速度センサであるとするが、他の方式の加速度センサを用いるようにしてもよい。 The acceleration sensor 37 is, for example, to a MEMS (Micro Electro Mechanical System) type acceleration sensor of an electrostatic capacitance type, it may be used an acceleration sensor of another type.

本実施形態では、加速度センサ37は、コントローラ5を基準とした上下方向(図3に示すY軸方向)、左右方向(図3に示すX軸方向)および前後方向(図3に示すZ軸方向)の3軸方向に関してそれぞれ直線加速度を検出する。 In the present embodiment, the acceleration sensor 37, the vertical direction with respect to the controller 5 (Y-axis direction shown in FIG. 3), the left-right direction Z-axis direction shown in and the front-rear direction (Fig. 3 (X-axis direction shown in FIG. 3) detecting a linear acceleration, respectively with respect to three axial directions). 加速度センサ37は、各軸に沿った直線方向に関する加速度を検出するものであるため、加速度センサ37からの出力は3軸それぞれの直線加速度の値を表すものとなる。 Since the acceleration sensor 37 detects the acceleration in the linear direction along each axis, output from the acceleration sensor 37 represents a value of the linear acceleration along each axis. すなわち、検出された加速度は、コントローラ5を基準に設定されるXYZ座標系(コントローラ座標系)における3次元のベクトルとして表される。 In other words, the detected acceleration is represented as a three-dimensional vector in an XYZ coordinate system is set with respect to the controller 5 (controller coordinate system).

加速度センサ37が検出した加速度を表すデータ(加速度データ)は、通信部36へ出力される。 Data representing the acceleration detected by the acceleration sensor 37 (acceleration data) is output to the communication unit 36. なお、加速度センサ37が検出した加速度は、コントローラ5自体の向き(傾斜角度)や動きに対応して変化するので、ゲーム装置3は取得された加速度データを用いてコントローラ5の向きや動きを算出することができる。 The calculation acceleration detected by the acceleration sensor 37, because changes in response to the controller 5 the orientation (inclination angle) and movement, the game apparatus 3 by using the acceleration data obtained the orientation and motion of the controller 5 can do. 本実施形態では、ゲーム装置3は、取得された加速度データに基づいてコントローラ5の姿勢や傾斜角度等を算出する。 In the present embodiment, the game apparatus 3 calculates the posture or inclination angle of the controller 5 based on the obtained acceleration data.

なお、加速度センサ37(後述する加速度センサ73についても同様)から出力される加速度の信号に基づいて、ゲーム装置3のプロセッサ(例えばCPU10)またはコントローラ5のプロセッサ(例えばマイコン42)等のコンピュータが処理を行うことによって、コントローラ5に関するさらなる情報を推測または算出(判定)することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。 Incidentally, on the basis of the acceleration signals outputted from the acceleration sensor 37 (the same is true for the acceleration sensor 73 to be described later), the processor of the game apparatus 3 (e.g. CPU 10) or a processor (e.g., microprocessor 42) computer processing of the controller 5 by performing, it can be inferred or calculated (determined) additional information relating to the controller 5 will be readily understood from the description herein by a person skilled in the art. 例えば、加速度センサ37を搭載するコントローラ5が静止状態であることを前提としてコンピュータ側の処理が実行される場合(すなわち、加速度センサによって検出される加速度が重力加速度のみであるとして処理が実行される場合)、コントローラ5が現実に静止状態であれば、検出された加速度に基づいてコントローラ5の姿勢が重力方向に対して傾いているか否かまたはどの程度傾いているかを知ることができる。 For example, if the computer performs processing on (i.e., treated as the acceleration detected by the acceleration sensor is only the gravitational acceleration is performed on the assumption that the controller 5 including the acceleration sensor 37 is a stationary state If), the controller 5 if actually in static state, it is possible to know the attitude of the controller 5 based on the detected acceleration is tilted whether or how much is inclined relative to the direction of gravity. 具体的には、加速度センサ37の検出軸が鉛直下方向を向いている状態を基準としたとき、1G(重力加速度)がかかっているか否かによって、コントローラ5が基準に対して傾いているか否かを知ることができるし、その大きさによって基準に対してどの程度傾いているかも知ることができる。 Specifically, whether when the detection axis of the acceleration sensor 37 with respect to the state facing downward in the vertical direction, depending on whether or not 1G (gravitational acceleration) is applied, the controller 5 is tilted with respect to the reference it either can be known, it is possible to know even whether the degree of tilt relative to the reference by its size. また、多軸の加速度センサ37の場合には、さらに各軸の加速度の信号に対して処理を施すことによって、重力方向に対してコントローラ5がどの程度傾いているかをより詳細に知ることができる。 In the case of multi-axis acceleration sensor 37, by further performing processing on the acceleration signal of each axis, it is possible to know whether the degree of tilt the controller 5 with respect to the direction of gravity in more detail . この場合において、プロセッサは、加速度センサ37からの出力に基づいてコントローラ5の傾斜角度を算出してもよいし、当該傾斜角度を算出せずに、コントローラ5の傾斜方向を算出するようにしてもよい。 In this case, the processor may calculate a tilt angle of the controller 5 based on the output from the acceleration sensor 37, without calculating the tilt angle, and calculate the inclination direction of the controller 5 good. このように、加速度センサ37をプロセッサと組み合わせて用いることによって、コントローラ5の傾斜角度または姿勢を判定することができる。 Thus, by using the acceleration sensor 37 in combination with the processor, it is possible to determine the tilt angle or attitude of the controller 5.

一方、コントローラ5が動的な状態(コントローラ5が動かされている状態)であることを前提とする場合には、加速度センサ37は重力加速度に加えてコントローラ5の動きに応じた加速度を検出するので、検出された加速度から重力加速度の成分を所定の処理により除去することによってコントローラ5の動き方向を知ることができる。 On the other hand, on the assumption that the controller 5 is in a dynamic state (a state where the controller 5 is being moved), the acceleration sensor 37 detects acceleration corresponding to motion of the controller 5 in addition to the gravitational acceleration since, it is possible to know the movement direction of the controller 5 is removed by components in a predetermined process of the gravitational acceleration from the detected acceleration. また、コントローラ5が動的な状態であることを前提とする場合であっても、検出された加速度から、加速度センサの動きに応じた加速度の成分を所定の処理により除去することによって、重力方向に対するコントローラ5の傾きを知ることが可能である。 Even on the assumption that the controller 5 is in a dynamic state, from the detected acceleration, by removing the acceleration component based on the movement of the acceleration sensor predetermined process, the direction of gravity it is possible to determine the tilt of the controller 5 relative. なお、他の実施例では、加速度センサ37は、内蔵の加速度検出手段で検出された加速度信号をマイコン42に出力する前に当該加速度信号に対して所定の処理を行うための、組込み式の処理装置または他の種類の専用の処理装置を備えていてもよい。 In another embodiment, the acceleration sensor 37, for performing a predetermined process on the acceleration signal prior to outputting the acceleration signal detected by built-in acceleration detecting means to the microcomputer 42, the processing of built-in it may be provided with a device or other type of dedicated processing device. 組込み式または専用の処理装置は、例えば、加速度センサ37が静的な加速度(例えば、重力加速度)を検出するために用いられる場合、加速度信号を傾斜角(あるいは、他の好ましいパラメータ)に変換するものであってもよい。 Embedded or dedicated processor, for example, the acceleration sensor 37 is intended to detect static acceleration (e.g., gravitational acceleration), used to detect and convert the acceleration signal to the tilt angle (or another preferable parameter) it may be the one.

ジャイロセンサ48は、3軸(本実施形態では、XYZ軸)回りの角速度を検出する。 The gyro sensor 48, three axes (in this embodiment, XYZ axes) for detecting angular velocities. 本明細書では、コントローラ5の撮像方向(Z軸正方向)を基準として、X軸回りの回転方向をピッチ方向、Y軸回りの回転方向をヨー方向、Z軸回りの回転方向をロール方向と呼ぶ。 Herein, reference to the imaging direction of the controller 5 (Z-axis positive direction), X-axis rotation direction pitch direction, Y axis in the direction of rotation yaw direction, and roll direction rotational direction of the Z axis call. ジャイロセンサ48は、3軸回りの角速度を検出することができればよく、用いるジャイロセンサの数および組み合わせはどのようなものであってもよい。 The gyro sensor 48, as long as it can detect the angular velocity around the three axes may Whatever the number and combination of the gyro sensor is used. 例えば、ジャイロセンサ48は、3軸ジャイロセンサであってもよいし、2軸ジャイロセンサと1軸ジャイロセンサとを組み合わせて3軸周りの角速度を検出するものであってもよい。 For example, a gyro sensor 48, 3 may be a-axis gyroscope may be designed to detect the angular velocities about three axes by combining the two-axis gyro sensor and single-axis gyro-sensor. ジャイロセンサ48で検出された角速度を表すデータは、通信部36へ出力される。 Data representing the angular velocities detected by the gyro sensor 48 is output to the communication unit 36. また、ジャイロセンサ48は1軸または2軸回りの角速度を検出するものであってもよい。 Also, the gyro sensor 48 may be used to detect a uniaxial or biaxial angular velocity around.

通信部36は、マイコン42、メモリ43、無線モジュール44、およびアンテナ45を含んでいる。 The communication unit 36 ​​includes the microcomputer 42, a memory 43, the wireless module 44, and antenna 45. マイコン42は、処理を行う際にメモリ43を記憶領域として用いながら、マイコン42が取得したデータをゲーム装置3へ無線送信する無線モジュール44を制御する。 The microcomputer 42 while using the memory 43 as a storage area when performing processing, controls the wireless module 44 for wirelessly transmitting the data to the microcomputer 42 has obtained to the game apparatus 3.

操作部32、撮像情報演算部35、加速度センサ37、およびジャイロセンサ48からマイコン42へ出力されたデータは、一時的にメモリ43に格納される。 Operation unit 32, the imaging information calculation section 35, the acceleration sensor 37, and data output from the gyro sensor 48 to the microcomputer 42 is temporarily stored in the memory 43. これらのデータは、操作データ(コントローラ操作データ)としてゲーム装置3へ送信される。 These data are transmitted to the game apparatus 3 as operation data (controller operation data). すなわち、マイコン42は、ゲーム装置3のコントローラ通信モジュール19への送信タイミングが到来すると、メモリ43に格納されている操作データを無線モジュール44へ出力する。 Namely, at the transmission timing to the controller communication module 19 of the game apparatus 3, and outputs the operation data stored in the memory 43 to the wireless module 44. 無線モジュール44は、例えばBluetooth(ブルートゥース)(登録商標)の技術を用いて、所定周波数の搬送波を操作データで変調し、その微弱電波信号をアンテナ45から放射する。 Wireless module 44 uses, for example, technology Bluetooth (registered trademark) to modulate the operation data onto a carrier wave of a predetermined frequency and emits the resultant weak radio signal from the antenna 45. つまり、操作データは、無線モジュール44で微弱電波信号に変調されてコントローラ5から送信される。 That is, the operation data is modulated to the weak radio wave signal by the wireless module 44 and transmitted from the controller 5. 微弱電波信号はゲーム装置3側のコントローラ通信モジュール19で受信される。 Weak radio wave signal is received by the controller communication module 19 of the game apparatus 3 side. 受信された微弱電波信号について復調や復号を行うことによって、ゲーム装置3は操作データを取得することができる。 By performing demodulates or decodes the received weak radio wave signal, the game apparatus 3 can obtain the operation data. そして、ゲーム装置3のCPU10は、コントローラ5から取得した操作データを用いてゲーム処理を行う。 Then, CPU 10 of the game apparatus 3 performs the game process by using the operation data acquired from the controller 5. なお、通信部36からコントローラ通信モジュール19への無線送信は所定の周期毎に逐次行われるが、ゲームの処理は1/60秒を単位として(1フレーム時間として)行われることが一般的であるので、この時間以下の周期で送信を行うことが好ましい。 The wireless transmission from the communication unit 36 ​​to the controller communication module 19 but are sequentially performed for each predetermined cycle, (as one frame time) game processing units of 1/60 sec is generally be done because, it is preferable to perform transmission at a cycle of a shorter time period. コントローラ5の通信部36は、例えば1/200秒に1回の割合で操作データをゲーム装置3のコントローラ通信モジュール19へ出力する。 The communication unit 36 ​​of the controller 5 outputs the operation data in intervals of 1/200 seconds, for example to the controller communication module 19 of the game apparatus 3.

以上のように、コントローラ5は、自機に対する操作を表す操作データとして、マーカ座標データ、加速度データ、角速度データ、および操作ボタンデータを送信可能である。 As described above, the controller 5, as operation data representing an operation for the ship, it is possible to transmit the marker coordinate data, acceleration data, angular velocity data, and the operation button data. また、ゲーム装置3は、上記操作データをゲーム入力として用いてゲーム処理を実行する。 The game apparatus 3 executes a game process by using the operation data as a game input. したがって、上記コントローラ5を用いることによって、ユーザは、各操作ボタンを押下する従来の一般的なゲーム操作に加えて、コントローラ5自体を動かすゲーム操作を行うことができる。 Accordingly, by using the controller 5, the user, in addition to a conventional general game operation of pressing the operation buttons, it is possible to perform a game operation of moving the controller 5 itself. 例えば、コントローラ5を任意の姿勢に傾ける操作、コントローラ5によって画面上の任意の位置を指示する操作、および、コントローラ5自体を動かす操作等を行うことが可能となる。 For example, the operation of tilting the controller 5 at any position, operation of indicating an arbitrary position on the screen by the controller 5, and, it is possible to perform an operation such as moving the controller 5 itself.

また、本実施形態において、コントローラ5は、ゲーム画像を表示する表示手段を有しないが、例えば電池残量を表す画像等を表示するための表示手段を有していてもよい。 Further, in the present embodiment, the controller 5 does not have a display means for displaying the game image, for example it may include a display means for displaying an image or the like representing the remaining battery level.

[4. [4. 端末装置7の構成] Configuration of the terminal device 7]
次に、図8〜図13を参照して、端末装置7の構成について説明する。 Next, with reference to FIGS. 8 to 13, the configuration of the terminal device 7. 図8は、端末装置7の外観構成を示す平面図である。 Figure 8 is a plan view showing an external configuration of the terminal device 7. 図8における(a)図は端末装置7の正面図であり、(b)図は上面図であり、(c)図は右側面図であり、(d)図は下面図である。 (A) Figure in Figure 8 is a front view of the terminal device 7, (b) figure is a top view, (c) drawing is a right side view, a view is a bottom view (d). 図9は端末装置7の背面図である。 Figure 9 is a rear view of the terminal device 7. また、図10および図11は、ユーザが端末装置7を横向きで把持した様子を示す図である。 Further, FIGS. 10 and 11 are diagrams showing a state where the user holds sideways the terminal device 7. 図12および図13は、ユーザが端末装置7を縦向きで把持した様子を示す図である。 12 and 13 are views showing a state where the user holds the terminal device 7 in portrait.

図8に示されるように、端末装置7は、大略的には横長の長方形の板状形状であるハウジング50を備える。 As shown in FIG. 8, the terminal device 7, the generally-comprise a housing 50 which is horizontally long rectangular plate shape. ハウジング50は、ユーザが把持することができる程度の大きさである。 The housing 50 is large enough that the user can grip. したがって、ユーザは、端末装置7を持って動かしたり、端末装置7の配置位置を変更したりすることができる。 Thus, the user can move with the terminal device 7, and can change the position of the terminal device 7. 端末装置7の縦(z軸方向)の長さは、100〜150[mm]が好ましく、本実施形態では、133.5[mm]である。 Vertical length of the terminal device 7 (z-axis direction) is preferably from 100 to 150 [mm], in the present embodiment is 133.5 [mm]. 端末装置7の横(x軸方向)の長さは、200〜250[mm]が好ましく、本実施形態では、228.26[mm]である。 The horizontal length of the terminal device 7 (x-axis direction) is preferably from 200 to 250 [mm], in the present embodiment, a 228.26 [mm]. 端末装置7の厚さ(y軸方向の長さ)は、板状の部分で15〜30[mm]程度、最厚部まで含めて30〜50[mm]程度が好ましく、本実施形態では、23.6(最厚部は40.26)[mm]である。 The thickness of the terminal device 7 (the length in the y-axis direction) is about 15 to 30 [mm] in plate-like portion is preferably degree 30 to 50 [mm] even including the thickest part, in this embodiment, 23.6 (thickest portion 40.26) is a [mm]. また、端末装置7の重量は、400〜600[g]程度であって、本実施形態においては、530[g]である。 The weight of the terminal device 7 is about 400 to 600 [g], in the present embodiment, a 530 [g]. 詳細は後述するが、端末装置7は、上記のような比較的大型の端末装置(操作装置)であっても、ユーザが持ちやすく操作しやすい構成となっている。 Details will be described later, the terminal device 7 may be a relatively large terminal device as described above (operation device), the user has a structure easy to operate easy to hold.

端末装置7は、ハウジング50の表面(表側)にLCD51を有する。 The terminal device 7 has a LCD51 on the surface (front side) of the housing 50. なお、LCD51の画面の大きさは5インチ以上であることが好ましく、ここでは6.2インチである。 Incidentally, it is preferable that the size of the screen of the LCD51 is at least 5 inches, here is 6.2 inches. 本実施形態の操作装置7は、持ちやすく操作しやすい構成によって、大きなLCDを設けることができる。 Operating device 7 of the present embodiment, the structure is easy to operate easy to hold, it is possible to provide a large LCD. なお、別の実施形態においては、より小さいLCD51を設け、操作装置7の大きさを比較的小さいものとするようにしてもよい。 Incidentally, in another embodiment, a smaller LCD51 is provided, it may be a relatively small size of the operating device 7. LCD51は、ハウジング50の表面の中央付近に設けられる。 LCD51 is provided near the center of the surface of the housing 50. したがって、ユーザは、図10および図11に示すようにLCD51の両側部分のハウジング50を持つことによって、LCD51の画面を見ながら端末装置7を持って動かすことができる。 Thus, the user can by having a housing 50 in the end parts of the LCD 51 as shown in FIGS. 10 and 11, it moves with the terminal device 7 while watching the screen of the LCD 51. なお、図10および図11ではユーザがLCD51の左右両側の部分のハウジング50を持つことで端末装置7を横持ちで(横に長い向きにして)持つ例を示しているが、図12および図13に示すように、端末装置7を縦持ちで(縦に長い向きにして)持つことも可能である。 Although the user 10 and 11 indicates an example in which (to the long direction laterally) with terminal device 7 by held horizontally by having a housing 50 of the left and right side portions of the LCD 51, FIG. 12 and FIG. as shown in 13, the terminal device 7 in portrait position (in the vertically long direction) it is also possible to have.

図8の(a)図に示すように、端末装置7は、操作手段として、LCD51の画面上にタッチパネル52を有する。 As shown in (a) of FIG. 8, the terminal device 7 as an operation unit, a touch panel 52 on the screen of the LCD 51. 本実施形態では、タッチパネル52は抵抗膜方式のタッチパネルである。 In the present embodiment, the touch panel 52 is a resistive film type touch panel. ただし、タッチパネルは抵抗膜方式に限らず、例えば静電容量方式等、任意の方式のタッチパネルを用いることができる。 However, the touch panel is not limited to the resistive film type, it can be used, for example a capacitive type, etc., a touch panel of an arbitrary method. また、タッチパネル52はシングルタッチ方式でもよいし、マルチタッチ方式であってもよい。 The touch panel 52 may be a single touch manner, or may be a multi-touch method. 本実施形態では、タッチパネル52として、LCD51の解像度と同解像度(検出精度)のものを利用する。 In the present embodiment, the touch panel 52, to utilize those LCD51 of the same resolution (detection accuracy). ただし、必ずしもタッチパネル52の解像度とLCD51の解像度が一致している必要はない。 However, it may not necessarily be the resolution and LCD51 resolution of the touch panel 52 are consistent. タッチパネル52に対する入力は通常タッチペン60を用いて行われるが、タッチペン60に限らずユーザの指でタッチパネル52に対する入力をすることも可能である。 Input to the touch panel 52 is usually performed using the touch pen 60, it is also possible to input to the touch panel 52 by the user's finger is not limited to the touch pen 60. なお、ハウジング50には、タッチパネル52に対する操作を行うために用いられるタッチペン60を収納する収納穴60aが設けられている(図8(b)参照)。 Note that the housing 50, housing hole 60a is provided for accommodating the touch pen 60 used for performing an operation on the touch panel 52 (see Figure 8 (b)). なお、ここでは、タッチペン60が落ちないように、収納穴60aはハウジング50の上面に設けられるが、側面や下面に設けられてもよい。 Here, as the touch pen 60 does not fall, receiving hole 60a is provided in the top surface of the housing 50 may be provided on the side surface or lower surface. このように、端末装置7はタッチパネル52を備えるので、ユーザは、端末装置7を動かしながらタッチパネル52を操作することができる。 Thus, since the terminal device 7 includes a touch panel 52, the user can operate the touch panel 52 while moving the terminal device 7. つまりユーザは、LCD51の画面を動かしつつ、その画面に対して直接(タッチパネル52によって)入力を行うことができる。 That user while moving the screen LCD 51, can be performed directly (through the touch panel 52) input to the screen.

図8に示すように、端末装置7は、操作手段(操作部)として、2つのアナログスティック53Aおよび53Bと、複数のボタン(キー)54A〜54Mとを備えている。 As shown in FIG. 8, the terminal device 7 as an operation unit (operation section) includes a two analog sticks 53A and 53B, and a plurality of buttons (keys) 54A~54M. 各アナログスティック53Aおよび53Bは、方向を指示することが可能なデバイスである。 The analog sticks 53A and 53B are devices capable of indicating the direction. 各アナログスティック53Aおよび53Bは、ユーザの指で操作される可動部材(スティック部)がハウジング50の表面に対して任意の方向(上下左右および斜め方向の任意の角度)にスライドすることができるように構成されている。 The analog sticks 53A and 53B are so capable movable member operated by a user's finger (stick) slides in any direction (any angle vertical and horizontal and oblique directions) with respect to the surface of the housing 50 It is configured. なお、各アナログスティック53Aおよび53Bの可動部材は、ハウジング50の表面に対して任意の方向に傾倒する種類のものでもよい。 The movable member of the analog sticks 53A and 53B may be of a type which is tilted in any direction with respect to the surface of the housing 50. 本実施形態では、可動部材がスライドする種類のアナログスティックを用いるので、ユーザは親指を大きく動かさなくても各アナログスティック53Aおよび53Bを操作することができ、ハウジング50をよりしっかりと把持した状態で操作を行うことができる。 In the present embodiment, since using the type of analog stick the movable member slides, the user can without largely driven thumb to operate the analog sticks 53A and 53B, while more securely grip the housing 50 it is possible to perform the operation. なお、各アナログスティック53Aおよび53Bとして、可動部材が傾倒する種類のものを用いる場合には、入力の程度(傾きの程度)がユーザにとってわかりやすく、詳細な操作をより容易に行うことができる。 As the analog sticks 53A and 53B, in the case of using of the type in which the movable member inclines, the degree of input (degree of inclination) understandable to the user, it is possible to perform detailed operations more easily.

また、左アナログスティック53AはLCD51の画面の左側に、右アナログスティック53BはLCD51の画面の右側にそれぞれ設けられる。 Further, the left analog stick 53A to the left of the screen of the LCD 51, the right analog stick 53B are respectively provided on the right side of the screen of the LCD 51. したがって、ユーザは、左右いずれの手でもアナログスティックを用いて方向を指示する入力を行うことができる。 Thus, the user can perform an input for indicating a direction by using the analog stick in right or left hand. また、図10および図11に示すように、各アナログスティック53Aおよび53Bは、ユーザが端末装置7の左右部分(LCD51の左右両側の部分)を把持した状態で操作可能な位置に設けられるので、ユーザは、端末装置7を持って動かす場合においても各アナログスティック53Aおよび53Bを容易に操作することができる。 Further, as shown in FIGS. 10 and 11, the analog sticks 53A and 53B, since the user is provided in operable position while gripping the left and right portions of the terminal device 7 (the right and left sides of a portion of the LCD 51), the user can easily operate also the analog sticks 53A and 53B in the case of moving with the terminal device 7.

各ボタン54A〜54Lは、所定の入力を行うための操作手段(操作部)であり、押下可能なキーである。 Each button 54A~54L is an operating means for performing a predetermined input (operation unit), which is a depressible key. 以下に示すように、各ボタン54A〜54Lは、ユーザが端末装置7の左右部分を把持した状態で操作可能な位置に設けられる(図10および図11参照)。 As shown below, the buttons 54A~54L is provided in operable position with the user holds the left and right portions of the terminal device 7 (see FIGS. 10 and 11). したがって、ユーザは、端末装置7を持って動かす場合においてもこれらの操作手段を容易に操作することができる。 Thus, the user can operate these operation means easily even when moving with the terminal device 7.

図8の(a)図に示すように、ハウジング50の表面には、各操作ボタン54A〜54Lのうち、十字ボタン(方向入力ボタン)54Aと、ボタン54B〜54Hおよび54Mとが設けられる。 As shown in (a) of FIG. 8, on the surface of the housing 50, among the operation buttons 54A~54L, a cross button (direction input button) 54A, and a button 54B~54H and 54M are provided. つまり、これらのボタン54A〜54Hおよび54Mは、ユーザの親指で操作可能な位置に配置されている(図10および図11参照)。 In other words, these buttons 54A~54H and 54M are positioned so as to be operated by the user's thumb (see FIGS. 10 and 11).

十字ボタン54Aは、LCD51の左側であって、左アナログスティック53Aの下側に設けられる。 Cross button 54A is a left LCD 51, provided on the lower side of the left analog stick 53A. つまり、十字ボタン54Aはユーザの左手で操作可能な位置に配置されている。 That is, the cross button 54A is positioned so as to be operated by the left hand of the user. 十字ボタン54Aは、十字の形状を有しており、少なくとも上下左右の方向を指示することが可能なボタンである。 Cross button 54A has a cross shape, a button capable of directing the direction of at least vertical and horizontal.

また、ボタン54B〜54Dは、LCD51の下側に設けられる。 Also, buttons 54B~54D is provided below the LCD 51. これら3つのボタン54B〜54Dは、左右両方の手で操作可能な位置に配置されている。 These three buttons 54B~54D is positioned so as to be operated in the hands of both left and right. また、端末装置7は、端末装置7の電源をオン/オフするための電源ボタン54Mを有している。 The terminal device 7 includes a power button 54M for turning on / off the terminal device 7. 電源ボタン54Mは、ボタン54B〜54Dと同様、LCD51の下側に設けられる。 The power button 54M, like buttons 54B~54D, is provided below the LCD 51. 電源ボタン54Mは、ボタン54B〜54Dの右側に設けられる。 The power button 54M is provided on the right side of the button 54B~54D. したがって、電源ボタン54Mは、右手で操作可能な(操作しやすい)位置に配置されている。 Therefore, the power button 54M is arranged so as to be operated (for easy operation) position with the right hand. また、4つのボタン54E〜54Hは、LCD51の右側であって、右アナログスティック53Bの下側に設けられる。 Also, four buttons 54E~54H is a right LCD 51, provided on the lower side of the right analog stick 53B. つまり、4つのボタン54E〜54Hはユーザの右手で操作可能な位置に配置されている。 That is, four buttons 54E~54H are positioned so as to be operated by the right hand of the user. さらに、4つのボタン54E〜54Hは、(4つのボタン54E〜54Hの中心位置に対して)上下左右の位置関係となるように配置されている。 Furthermore, four buttons 54E~54H is arranged so that (relative to the center position of the four buttons 54E~54H) vertical and lateral positional relationship. したがって、端末装置7は、ユーザに上下左右の方向を指示させるためのボタンとして4つのボタン54E〜54Hを機能させることも可能である。 Therefore, the terminal device 7, it is possible to function the four buttons 54E~54H as buttons for instructing vertical and horizontal directions to the user.

なお、本実施形態においては、各アナログスティック53Aおよび53Bは、十字ボタン54Aおよび各ボタン54E〜54Hよりも上側に配置される。 In the present embodiment, the analog sticks 53A and 53B are arranged above the cross button 54A and the buttons 54E~54H. ここで、各アナログスティック53Aおよび53Bは、十字ボタン54Aおよび各ボタン54E〜54Hよりも厚さ方向(y軸方向)に関して突出している。 Here, the analog sticks 53A and 53B protrudes with respect to the thickness direction (y-axis direction) than the cross button 54A and the buttons 54E~54H. そのため、仮にアナログスティック53Aと十字ボタン54Aとの配置を逆にした場合には、ユーザが十字ボタン54Aを親指で操作する際にアナログスティック53Aに親指が当たってしまい、操作を誤ってしまうおそれがある。 Therefore, if in the case where the arrangement of the analog stick 53A and the cross button 54A Conversely, the risk that the user will hit the thumb analog stick 53A when operating with the thumb of the cross button 54A, thereby accidentally operating is there. なお、アナログスティック53Bと各ボタン54E〜54Hとの配置を逆にする場合も同様の問題が生じる。 A similar problem also to reverse the arrangement of the analog stick 53B and the buttons 54E~54H occurs. これに対して、本実施形態では、各アナログスティック53Aおよび53Bを十字ボタン54Aおよび各ボタン54E〜54Hよりも上側に配置するので、ユーザがアナログスティック53Aおよび53Bを操作する際に十字ボタン54Aおよび各ボタン54E〜54Hに指が当たってしまう可能性は上記の場合に比べて低くなる。 In contrast, in the present embodiment, since each analog sticks 53A and 53B are arranged above the cross button 54A and the buttons 54E~54H, the cross button 54A and when the user operates the analog stick 53A and 53B possibility that the finger will hit the buttons 54E~54H is lower than that of the. このように、本実施形態においては、誤操作の可能性を低減することができ、端末装置7の操作性を向上することができる。 Thus, in the present embodiment, it is possible to reduce the possibility of erroneous operation, it is possible to improve the operability of the terminal device 7.

ここで、本実施形態では、いくつかの操作部(各アナログスティック53Aおよび53B、十字ボタン54A、ならびに、3つのボタン54E〜54G)は、表示部(LCD51)の左右両側において、ハウジング50における上下方向(y軸方向)の中心よりも上側に設けられる。 In the present embodiment, some of the operation unit (the analog sticks 53A and 53B, the cross button 54A, and three buttons 54E~54G), in the left and right sides of the display unit (LCD 51), vertical in the housing 50 provided above the center of the direction (y-axis direction). これらの操作部を操作する場合、ユーザは、端末装置7における上下方向の中心よりも上側を主に把持する。 When operating these operation unit, the user is mainly gripped above the vertical center of the terminal device 7. ここで、ユーザがハウジング50の下側を把持する場合には、(端末装置7が本実施形態のように比較的大きなサイズである場合には特に)把持される端末装置7が不安定になり、ユーザは端末装置7を持ちにくくなる。 Here, when the user holds the lower housing 50, (the terminal device 7 in the case of relatively large size as in the present embodiment in particular) a terminal device 7 to be gripped becomes unstable , the user hardly has a terminal device 7. これに対して、本実施形態では、上記操作部を操作する場合、ユーザは、端末装置7における上下方向の中心よりも上側を主に把持することになり、また、手のひらでハウジング50を支えることができる。 In contrast, in this embodiment, when operating the operation unit, the user will be mainly grip the upper side of the vertical center of the terminal device 7, also to support the housing 50 with palms can. したがって、ユーザは、安定した状態でハウジング50を把持することができ、端末装置7が持ちやすくなるので、上記操作部も操作しやすくなる。 Thus, the user can grip the housing 50 in a stable state, since easier to hold the terminal device 7, it becomes easy to operate the operation unit. なお、他の実施形態においては、ハウジング50の中央よりも上側において表示部の左右にそれぞれ少なくとも1つずつ操作部が設けられてもよい。 In other embodiments, the operation unit by at least one on the left and right of the display unit in the upper may be provided than the center of the housing 50. 例えば、各アナログスティック53Aおよび53Bのみがハウジング50の中央よりも上側に設けられてもよい。 For example, only the analog sticks 53A and 53B may be provided above the center of the housing 50. また例えば、十字ボタン54Aが左アナログスティック53Aよりも上側に設けられ、4つのボタン54E〜54Hが右アナログスティック53Bよりも上側に設けられる場合には、十字ボタン54Aおよび4つのボタン54E〜54Hがハウジング50の中央よりも上側に設けられても良い。 Further, for example, the cross button 54A is provided above the left analog stick 53A, when the four buttons 54E~54H is provided above the right analog stick 53B are cross button 54A and four buttons 54E~54H is it may be provided above the center of the housing 50.

また、本実施形態では、ハウジング50の裏側(LCD51が設けられる表面の反対側)には、突起部(庇部59)が設けられる(図8(c)および図9参照)。 Further, in the present embodiment, the (opposite to the surface on which LCD51 is provided) the back side of the housing 50, the protrusion (eaves portion 59) is provided (see FIG. 8 (c) and FIG. 9). 図8(c)に示すように、庇部59は、略板状のハウジング50の裏面から突起して設けられる。 As shown in FIG. 8 (c), the eaves section 59 is provided with projections from the rear surface of a substantially plate-shaped housing 50. 突起部は、ハウジング50の裏面を把持するユーザの指に掛止可能な高さ(厚さ)を有する。 Protruding portion has a latching can height to the user's fingers to grip the back surface of the housing 50 (thickness). 突起部の高さは、10〜25[mm]であることが好ましく、本実施形態では16.66[mm]である。 The height of the protrusions is preferably from 10 to 25 [mm], which in this embodiment is 16.66 [mm]. また、突起部の下面は、突起部がユーザの指に掛かりやすいように、ハウジング50の裏面に対して45°以上(より好ましくは60°以上)の傾斜を有することが好ましい。 The lower surface of the protrusion, so that the protrusions easily applied to the user's finger, it is preferable to have a slope of 45 ° or more with respect to the rear surface of the housing 50 (more preferably 60 ° or more). 図8(c)に示すように、突起部の下面は、上面よりも傾斜角度が大きくなるように形成されてもよい。 As shown in FIG. 8 (c), the lower surface of the protrusion may be formed such that the angle of inclination than the upper surface increases. 図10および図11に示すように、ユーザは、指を庇部59に掛けて(指の上に庇部59を乗せて)把持することによって、端末装置7が比較的大きなサイズであっても、疲れることなく安定した状態で端末装置7を把持することができる。 As shown in FIGS. 10 and 11, the user, turn the eaves section 59 (put the eaves portion 59 on the finger) by gripping the terminal device 7 be relatively large can grip the terminal device 7 in a stable state without tiring.

また、庇部59は、ハウジング50の上下方向に関しては中央よりも上側に設けられる。 Further, the eaves section 59 is provided above the center in the vertical direction of the housing 50. 庇部59は、ハウジング50の表面に設けられる操作部(各アナログスティック53Aおよび53B)の概ね反対側の位置に設けられる。 Eaves portion 59 is provided substantially opposite the position of the operation portion provided on the surface of the housing 50 (the analog sticks 53A and 53B). つまり、突起部は、表示部の左右にそれぞれ設けられる操作部の反対側の位置を含む領域に設けられる。 That is, protrusions are provided in a region including the opposite side of the position of the operation portion provided on left and right of the display unit. したがって、上記操作部を操作する場合、ユーザは、中指あるいは薬指で庇部59を支えるようにして端末装置7を把持することができる(図10および図11参照)。 Therefore, when operating the operation unit, the user, so as to support the eaves portion 59 with the middle finger or the ring finger can grip the terminal device 7 (see FIGS. 10 and 11). これによって、端末装置7がより持ちやすくなり、上記操作部もより操作しやすくなる。 Thus, the terminal device 7 becomes more easy to hold, it becomes more easy to operate the operation unit. また、本実施形態では、突起部は、(突起した部分が)左右に延びる庇状の形状を有するので、ユーザは、中指あるいは薬指を突起部の下面に沿わせて端末装置7を把持することができ、端末装置7がより持ちやすくなる。 Further, in the present embodiment, projections, since (projecting portions become) having eaves-like shape extending in the left-right, the user is able to grip the terminal device 7 and along the middle finger or ring finger on the lower surface of the projecting portion can be, terminal device 7 is further easy to hold. なお、庇部59は、(突起した部分が)左右方向に延びるように形成されればよく、図9に示すような水平方向に延びる形状に限られない。 Incidentally, the eaves section 59 (protruding portion is) only to be formed so as to extend in the left-right direction, is not limited to the shape extending in the horizontal direction as shown in FIG. 他の実施形態においては、庇部59は水平方向から若干傾いた方向に延びていてもよい。 In another embodiment, the eaves portion 59 may extend slightly inclined direction from the horizontal direction. 例えば、庇部59は、左右両端から中央に向かうにつれて上に(または下に)傾斜するように設けられてもよい。 For example, the eaves section 59, (or below) over toward the left and right ends in the center may be provided so as to be inclined.

なお、本実施形態においては、後述する係止穴を庇部59に設けることが理由で、ハウジングの裏面に形成される突起部として、庇状の形状をした庇部59を採用するが、突起部はどのような形状であってもよい。 In the present embodiment, because of the provision of the later-described locking hole eaves section 59, a protrusion formed on the back surface of the housing, but employing the eaves portion 59 has an eaves-like shape, the projections parts may be any shape. 例えば、他の実施形態においては、ハウジング50の裏側において、2つの突起部が左右両側に設けられる(左右方向の中央には突起部が設けられない)構成であってもよい(図29参照)。 For example, in other embodiments, the back side of the housing 50, is provided on the left and right sides two protrusions (the lateral center of the protrusion is not provided) have a configuration may be (see Figure 29) . また、他の実施形態においては、突起部の断面形状(x軸方向に垂直な断面における形状)は、ユーザの指で端末装置7をよりしっかりと支えることができるように(突起部が指によりしっかりと掛かるように)、鈎型(下面が凹んだ形状)であってもよい。 Also, in other embodiments, the cross-sectional shape of the protrusion (shape in the x-axis direction in cross section perpendicular) is the (protrusions finger so that it can support more firmly the terminal device 7 by a user's finger so firmly take), it may be a hook-shaped (shape recessed lower surface).

また、図8の(a)図、(b)図、および(c)図に示すように、第1Lボタン54Iおよび第1Rボタン54Jは、ハウジング50の上側の面における左右の両側にそれぞれ設けられる。 Further, (a) figure 8, as shown in (b) figure, and (c) drawing, a 1L button 54I and the 1R button 54J is provided on both sides of the left and right in the upper surface of the housing 50 . 本実施形態では、第1Lボタン54Iおよび第1Rボタン54Jは、ハウジング50の斜め上部分(左上部分および右上部分)に設けられる。 In the present embodiment, the 1L button 54I and the 1R button 54J is provided obliquely upper portion of the housing 50 (the upper left portion and upper right portion). 具体的には、第1Lボタン54Iは、板状のハウジング50における上側の側面の左端に設けられ、左上側の側面から露出している(換言すれば上側および左側の両方の側面から露出している)。 Specifically, the 1L button 54I is provided at the left end of the upper side of the plate-shaped housing 50, exposed from the upper and left both sides if exposed are (in other words from a side surface of the left upper side yl). また、第1Rボタン54Jは、ハウジング50における上側の側面の右端に設けられ、右上側の側面から露出している(換言すれば上側および右側の両方の側面から露出している)。 Further, the 1R button 54J is provided on the right end side of the upper side in the housing 50, (exposed from the upper side and right both sides in other words) is exposed and the side surface of the right upper side. このように、第1Lボタン54Iは、ユーザの左手人差し指で操作可能な位置に配置され、第1Rボタン54Jは、ユーザの右手人差し指で操作可能な位置に配置される(図10参照)。 Thus, the 1L button 54I is positioned so as to be operated by the left hand index finger of the user, the 1R button 54J is positioned so as to be operated by the right hand forefinger of the user (see Figure 10). なお、他の実施形態においては、ハウジング50の上側の面における左右にそれぞれ設けられる操作部は、左右の端部に設けられる必要はなく、端部以外の位置に設けられてもよい。 In other embodiments, each of the left and right in the upper surface operation unit provided in the housing 50, need not be provided on the left and right end portions may be provided at a position other than the end portion. また、ハウジング50の左右の側面に操作部がそれぞれ設けられてもよい。 The operation unit on the left and right sides of the housing 50 may be provided respectively.

また、図8の(c)図および図9に示すように、第2Lボタン54Kおよび第2Rボタン54Lは、上記突起部(庇部59)に配置される。 Further, as shown in (c) diagram and Figure 9 in FIG. 8, the 2L button 54K and the 2R button 54L is disposed on the protruding portion (eaves portion 59). 第2Lボタン54Kは、庇部59の左端付近に設けられる。 The 2L button 54K is provided in the vicinity of the left end of the eaves portion 59. 第2Rボタン54Lは、庇部59の右端付近に設けられる。 The 2R button 54L is provided in the vicinity of the right end of the eaves portion 59. つまり、第2Lボタン54Kは、ハウジング50の裏面の左側(表面側から見たときの左側)のやや上方に設けられ、第2Rボタン54Lは、ハウジング50の裏面の右側(表面側から見たときの右側)のやや上方に設けられる。 That is, the 2L button 54K is slightly provided above (on the left as viewed from the surface side) left of the back surface of the housing 50, the 2R button 54L, when viewed from the right side (the surface side of the rear surface of the housing 50 provided slightly above the right). 換言すれば、第2Lボタン54Kは、表面に設けられる左アナログスティック53Aの(概ね)反対側の位置に設けられ、第2Rボタン54Lは、表面に設けられる右アナログスティック53Bの(概ね)反対側の位置に設けられる。 In other words, the 2L button 54K is the left analog stick 53A provided on the surface (generally) provided on the opposite position, the 2R button 54L is the right analog stick 53B provided on the surface (generally) opposite It is provided to the position. このように、第2Lボタン54Kは、ユーザの左手中指または人差し指で操作可能な位置に配置され、第2Rボタン54Lは、ユーザの右手中指または人差し指で操作可能な位置に配置される(図10および図11参照)。 Thus, the 2L button 54K is positioned so as to be operated by the left hand middle finger or forefinger of the user, the 2R button 54L is positioned so as to be operated with the right hand middle finger or forefinger of the user (Figure 10 and see Figure 11). また、第2Lボタン54Kおよび第2Rボタン54Lは、図8の(c)図に示すように、上記庇部59の上面に設けられる。 Further, the 2L button 54K and the 2R button 54L, as shown in (c) FIG. 8 is provided on the upper surface of the eaves portion 59. そのため、第2Lボタン54Kおよび第2Rボタン54Lは、上方(斜め上方)を向くボタン面を有する。 Therefore, the 2L button 54K and the 2R button 54L has a button surface that faces upward (diagonally upward). ユーザが端末装置7を把持した場合には中指または人差し指は上下方向に動くと考えられるので、ボタン面を上方に向けることで、ユーザは第2Lボタン54Kおよび第2Rボタン54Lを押下しやすくなる。 It is considered that the middle finger or forefinger move up and down direction when the user holds the terminal device 7, by directing the button face upward, the user can easily presses the first 2L button 54K and the 2R button 54L.

上記のように、本実施形態においては、ハウジング50の中央よりも上側において表示部(LCD51)の左右に操作部(アナログスティック53Aおよび53B)がそれぞれ設けられ、さらに、ハウジング50の裏側において当該操作部の反対側の位置に別の操作部(第2Lボタン54Kおよび第2Rボタン54L)がそれぞれ設けられる。 As described above, in the present embodiment, the display unit in the upper than the center of the housing 50 (LCD 51) operating unit to the left and right (analog sticks 53A and 53B) are provided respectively, further, the operation on the back side of the housing 50 another operating portion in a position opposite the part (a 2L button 54K and the 2R button 54L) are respectively provided. これによれば、上記操作部と別の操作部とがハウジング50の表側と裏側との互いに対向する位置に配置されるので、ユーザは、これらの操作部を操作する際にハウジング50を表側と裏側から挟むように把持することができる。 According to this, since the operation portion and with another operating unit is disposed so as to be opposite to each other between the front side and the back side of the housing 50, the user is provided with a housing 50 when operating these operation unit front can grip so as to sandwich from the back side. また、これらの操作部を操作する際にユーザは、ハウジング50における上下方向の中心よりも上側を把持するので、端末装置7を上側で把持できるとともに、手のひらで端末装置7を支えることができる(図10および図11参照)。 The user in operating these operation unit, so to grip the upper side of the vertical center of the housing 50, it is possible to grip the terminal device 7 in the upper, it is possible to support the terminal device 7 in the palm ( see FIGS. 10 and 11). 以上によって、ユーザは、少なくとも4つの操作部を操作することができる状態で、ハウジング50を安定的に把持することができ、ユーザが容易に把持することが可能で、かつ操作性の良い操作装置(端末装置7)を提供することができる。 By the above, the user is in a state capable of operating at least four operation portions, it is possible to grip the housing 50 stably, and the user can be easily grasped, and good operability operating device it is possible to provide a (terminal device 7).

以上のように、本実施形態においては、突起部(庇部59)の下面に指を当てた状態で端末装置7を把持することによって、ユーザは楽に端末装置7を把持することができる。 As described above, in the present embodiment, by gripping the terminal device 7 in a state of applying a finger to the lower surface of the projecting portion (eaves portion 59), the user can grip the effortlessly terminal device 7. また、突起部の上面に第2Lボタン54Kおよび第2Rボタン54Lが設けられるので、ユーザは上記の状態でこれらのボタンを容易に操作することができる。 Further, since the 2L button 54K and the 2R button 54L is provided on the upper surface of the projecting portion, the user can operate these buttons easily with the above conditions. ユーザは、例えば次のような持ち方で端末装置7を容易に把持することができる。 User, the terminal device 7 can be easily gripped by example how to hold as follows.

すなわち、ユーザは、図10に示すように、薬指を庇部59の下面(図10に示す一点鎖線)に当てて(薬指で庇部59を支えるように)端末装置7を把持することも可能である。 That is, the user, as shown in FIG. 10, the ring finger (to support the eaves section 59 by the ring finger) and against the lower surface (one-dot chain line shown in FIG. 10) of the eaves portion 59 is also possible to grip the terminal device 7 it is. このとき、ユーザは、4つのボタン(第1Lボタン54I、第1Rボタン54J、第2Lボタン54K、および第2Rボタン54L)を人差し指および中指で操作することができる。 At this time, the user can operate four buttons (the 1L button 54I, the 1R button 54J, a 2L button 54K, and the 2R button 54L) with the index finger and middle finger. 例えば、要求されるゲーム操作が、使用するボタンが多く、比較的複雑である場合には、図10に示すように把持することで、多くのボタンを容易に操作することができる。 For example, the required game operation is a button to be used a lot, if it is relatively complicated, by gripping, as shown in FIG. 10, it is possible to easily operate a number of buttons. なお、各アナログスティック53Aおよび53Bは十字ボタン54Aおよびボタン54E〜54Hの上側に設けられるので、比較的複雑な操作が要求される場合にユーザは親指でアナログスティック53Aおよび53Bを操作することができ、好都合である。 Since the analog sticks 53A and 53B are provided on the upper side of the cross button 54A and the button 54E~54H, if relatively complicated operation is required the user can operate the analog stick 53A and 53B with the thumb , it is convenient. また、図10においては、ユーザは、ハウジング50の表面に親指を、ハウジング50の上面に人差し指を、ハウジング50の裏面における庇部59の上面に中指を、庇部59の下面に薬指を、ハウジング50の裏面に小指を当てて端末装置7を把持する。 Further, in FIG. 10, the user, the thumb on the surface of the housing 50, the index finger on the upper surface of the housing 50, the middle finger on the upper surface of the eaves portion 59 on the rear surface of the housing 50, the ring finger on the lower surface of the eaves portion 59, the housing against the little finger to grip the terminal device 7 on the back surface 50. このように、ユーザは、ハウジング50を四方から包み込むようにして端末装置7をしっかりと把持することができる。 Thus, the user can firmly grip the terminal device 7 so as to enclose the housing 50 from the four directions.

また、ユーザは、図11に示すように、中指を庇部59の下面(図11に示す一点鎖線)に当てて端末装置7を把持することも可能である。 The user, as shown in FIG. 11, it is also possible to grip the terminal device 7 against the lower surface of the eaves portion 59 a middle finger (dashed line shown in FIG. 11). このとき、ユーザは、2つのボタン(第2Lボタン54Kおよび第2Rボタン54L)を人差し指で容易に操作することができる。 At this time, the user can easily operate two buttons (a 2L button 54K and the 2R button 54L) with the index finger. 例えば、要求されるゲーム操作が、使用するボタンが少なく、比較的単純である場合には、図11に示すように把持してもよい。 For example, the required game operation is less buttons to be used, if it is relatively simple, can be grasped as shown in FIG. 11. 図11においては、ユーザは、2本の指(薬指および小指)でハウジング50の下側を把持することができるので、しっかりと端末装置7を把持することができる。 In Figure 11, since the user can grip the underside of the housing 50 with two fingers (ring finger and little finger) can grip tightly the terminal device 7.

なお、本実施形態においては、庇部59の下面が、各アナログスティック53Aおよび53Bと、十字ボタン54Aおよび4つのボタン54E〜54Hとの間に位置するように(各アナログスティック53Aおよび53Bよりも下方で、かつ、十字ボタン54Aおよび4つのボタン54E〜54Hよりも上方に位置するように)設けられる。 In the present embodiment, the lower surface of the eaves portion 59, and the analog sticks 53A and 53B, so as to be positioned between the cross button 54A and four buttons 54E~54H (than the analog sticks 53A and 53B below, and so as to be positioned above the cross button 54A and four buttons 54E~54H) it is provided. したがって、薬指を庇部59に当てて端末装置7を把持する場合(図10)には、各アナログスティック53Aおよび53Bを親指で操作しやすくなり、中指を庇部59に当てて端末装置7を把持する場合(図11)には、十字ボタン54Aおよび4つのボタン54E〜54Hを親指で操作しやすくなっている。 Therefore, in the case (FIG. 10) against the ring finger eaves portion 59 grips the terminal device 7, easier to operate the analog sticks 53A and 53B with the thumb, the terminal device 7 against the middle finger to the eaves portion 59 when the gripping (11) is adapted to the cross button 54A and four buttons 54E~54H easy to operate with the thumb. つまり、上記2種類の場合のいずれにおいても、ユーザは、端末装置7をしっかりと把持した状態で方向入力操作を行うことができる。 That is, in any case the two kinds, the user can perform a direction input operation while firmly grasping the terminal device 7.

また、上述のように、ユーザは端末装置7を縦持ちで把持することも可能である。 Further, as described above, the user is also possible to grip the terminal device 7 in portrait position. すなわち、図12に示すように、ユーザは端末装置7の上辺を左手で把持することで端末装置7を縦向きで把持することが可能である。 That is, as shown in FIG. 12, the user is able to grip the terminal device 7 by vertically by gripping the upper side of the terminal apparatus 7 with the left hand. また、図13に示すように、ユーザは端末装置7の下辺を左手で把持することで端末装置7を縦向きで把持することが可能である。 Further, as shown in FIG. 13, the user is able to grip the terminal device 7 by vertically by gripping the lower side of the terminal apparatus 7 with the left hand. なお、図12および図13では端末装置7を左手で把持する場合を示しているが、右手で把持することも可能である。 Incidentally, the case of gripping to FIGS. 12 and 13 in the terminal apparatus 7 with the left hand, it is also possible to grip with the right hand. このように、ユーザは端末装置7を片手で把持することが可能であるので、例えば、一方の手で端末装置7を把持しながら他方の手でタッチパネル52に対する入力を行うといった操作を行うことも可能である。 Thus, since the user is able to grip the terminal device 7 with one hand, for example, also be operated such performing input to the touch panel 52 with the other hand while holding the terminal device 7 in one hand possible it is.

また、図12に示す持ち方で端末装置7を把持する場合、ユーザは親指以外の指(図12にでは中指、薬指および小指)を庇部59の下面(図12に示す一点鎖線)に当てることで、端末装置7をしっかりと把持することができる。 Also, when gripping the terminal device 7 by way of holding shown in FIG. 12, the user hit the non-thumb fingers (middle finger than 12, the ring finger and little finger) of the lower surface of the eaves portion 59 (dashed line shown in FIG. 12) it is, it is possible to firmly grip the terminal device 7. 特に、本実施形態においては、庇部59が左右に(図12では上下に)延びて形成されているので、ユーザは端末装置7の上辺におけるどこの位置で把持しても、親指以外の指を庇部59に当てることができ、端末装置7をしっかりと把持することができる。 Particularly, in the present embodiment, since the eaves section 59 (in the vertical in FIG. 12) in the lateral extending is formed, even if the user grips where the position in the upper side of the terminal device 7, other than the thumb finger the can hit the eaves section 59, it is possible to firmly grip the terminal device 7. 一方、図13に示す持ち方で端末装置7を把持する場合、ユーザは、左手でボタン54B〜54Dを操作することができる。 On the other hand, when gripping the terminal device 7 by way of holding 13, the user can operate the buttons 54B~54D left hand. したがって、例えば片手でタッチパネル52に対する入力を行いつつ、端末装置7を把持する手でボタン54B〜54Dに対する操作を行うことができ、より多くの操作を行うことができる。 Thus, for example, while performing the input to the touch panel 52 with one hand, the hand that grips the terminal device 7 can perform an operation on a button 54B~54D, it is possible to perform more operations.

なお、本実施形態における端末装置7に関しては、突起部(庇部59)が裏面に設けられるので、LCD51の画面(ハウジング50の表面)が上を向いた状態で端末装置7を載置させる場合、画面がやや傾いた状態となる。 Regarding the terminal device 7 in the present embodiment, since the projections (eaves portion 59) is provided on the rear surface, in the case of mounting the terminal device 7 in a state where LCD51 screen (the surface of the housing 50) faces upward , a state in which the screen is slightly inclined. これによって、端末装置7を載置した状態において画面がより見やすくなる。 Thus, the screen is more visible in the state mounted with the terminal device 7. また、端末装置7を載置した状態においてタッチパネル52に対する入力操作が行いやすくなる。 Also, easily performed an input operation on the touch panel 52 is in a state of mounting the terminal device 7. また、他の実施形態においては、上記庇部59と同程度の高さを有する追加の突起部がハウジング50の裏面に形成されてもよい。 Also, in other embodiments, the additional projections having a height substantially equal to that of the eaves portion 59 may be formed on the rear surface of the housing 50. これによれば、LCD51の画面が上を向いた状態では、各突起部が床面に接することで、画面が水平になるように端末装置7を載置することができる。 According to this, in the state where the screen of the LCD51 faces upward, that each protrusion is in contact with the floor surface, it can screen for placing the terminal device 7 so that the horizontal. また、追加の突起部を着脱可能な(または折り畳み可能な)ものにしてもよい。 Also, additional (or foldable) a protrusion capable removable may be one. これによれば、画面がやや傾いた状態と、画面が水平になる状態との両方で端末装置を載置することができる。 According to this, the state in which the screen is slightly inclined, screen can place the terminal in both the state in which the horizontal.

各ボタン54A〜54Lには、ゲームプログラムに応じた機能が適宜割り当てられる。 Each button 54A~54L, functions in accordance with the game program appropriately assigned. 例えば、十字ボタン54Aおよびボタン54E〜54Hは方向指示操作や選択操作等に用いられてもよいし、各ボタン54B〜54Eは決定操作やキャンセル操作等に用いられてもよい。 For example, the cross button 54A and the buttons 54E~54H are may be used in a direction instruction operation and a selection operation, the buttons 54B~54E may be used for a determination operation, a cancellation operation. また、端末装置7は、LCD51の画面表示をオン/オフするためのボタンや、ゲーム装置3との接続設定(ペアリング)を行うためのボタンを有していてもよい。 The terminal device 7, and buttons for turning on / off the screen display of the LCD 51, the connection set between the game apparatus 3 may have a button for (pairing).

図8の(a)図に示すように、端末装置7は、マーカ55Aおよびマーカ55Bからなるマーカ部55をハウジング50の表面に備えている。 As shown in (a) of FIG. 8, the terminal device 7 is provided with a marker section 55 consisting of the markers 55A and the marker 55B on the surface of the housing 50. マーカ部55は、LCD51の上側に設けられる。 The marker section 55 is provided on the upper side of the LCD 51. 各マーカ55Aおよびマーカ55Bは、マーカ装置6の各マーカ6Rおよび6Lと同様、1以上の赤外LEDで構成される。 The markers 55A and the marker 55B is similar to the markers 6R and 6L of the marker unit 6 consists of one or more infrared LED. マーカ55Aおよび55Bを構成する赤外LEDは、赤外光を透過する窓部の内側に配置される。 Infrared LED constituting the marker 55A and 55B are arranged inside the window that transmits infrared light. マーカ部55は、上述のマーカ装置6と同様、コントローラ5の動き等をゲーム装置3が算出するために用いられる。 The marker section 55, like the marker device 6 described above, is used to the motion of the controller 5 such as a game apparatus 3 is calculated. また、ゲーム装置3はマーカ部55が備える各赤外LEDの点灯を制御することが可能である。 The game apparatus 3 is capable of controlling lighting of each infrared LED included in the marker section 55.

端末装置7は、撮像手段であるカメラ56を備えている。 The terminal device 7 includes a camera 56 is an imaging means. カメラ56は、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。 The camera 56 includes an imaging device having a predetermined resolution (eg, CCD image sensor or a CMOS image sensor), and a lens. 図8に示すように、本実施形態では、カメラ56はハウジング50の表面に設けられる。 As shown in FIG. 8, in the present embodiment, camera 56 is provided on the front surface of the housing 50. したがって、カメラ56は、端末装置7を持っているユーザの顔を撮像することができ、例えばLCD51を見ながらゲームを行っている時のユーザを撮像することができる。 Accordingly, the camera 56, the terminal device 7 can image the and have face of the user with, it is possible to image the user when playing the game for example while viewing the LCD 51. 本実施形態においては、カメラ56は、2つのマーカ55Aおよび55Bの間に配置される。 In the present embodiment, camera 56 is positioned between the two markers 55A and 55B.

なお、端末装置7は、音声入力手段であるマイク69を備えている。 The terminal device 7 includes a microphone 69 is voice input means. ハウジング50の表面には、マイクロフォン用孔50cが設けられる。 On the surface of the housing 50, a microphone hole 50c is provided. マイク69はこのマイクロフォン用孔50cの奥のハウジング50内部に設けられる。 Microphone 69 is provided inside the housing 50 at the back of the microphone hole 50c. マイク69は、ユーザの音声等、端末装置7の周囲の音を検出する。 Microphone 69, the voice of the user, detects the ambient sound of the terminal device 7.

端末装置7は、音声出力手段であるスピーカ77を備えている。 The terminal device 7 includes a speaker 77 is an audio output means. 図8の(d)図に示すように、ハウジング50の表面の下側にはスピーカ孔57が設けられる。 As shown in FIG. 8 (d), the speaker holes 57 are provided on the lower surface of the housing 50. スピーカ77の出力音はこのスピーカ孔57から出力される。 Output sound of the speaker 77 is output from the speaker holes 57. 本実施形態では、端末装置7は2つのスピーカを備えており、左スピーカおよび右スピーカのそれぞれの位置にスピーカ孔57が設けられる。 In the present embodiment, the terminal device 7 is equipped with two speakers, the speaker holes 57 are provided at respective positions of the left speaker and right speaker. なお、端末装置7は、スピーカ77の音量を調節するためのつまみ64を備える。 The terminal device 7 includes a knob 64 for adjusting the volume of the speaker 77. また、端末装置7は、イヤホン等の音声出力部を接続するための音声出力端子62を備える。 The terminal device 7 includes an audio output terminal 62 for connecting an audio output unit such as an earphone. ここでは、ハウジングの下側の側面に付加装置が接続されることを考慮して、上記音声出力端子62およびつまみ64はハウジング50の上画の側面に設けられるが、左右の側面や下側の側面に設けられてもよい。 Here, considering that it is additional device is connected to a side surface of the lower housing, the audio output terminal 62 and the knob 64 is provided on a side surface of the upper image of the housing 50, but the left and right sides and the lower side of the it may be provided on the side.

また、ハウジング50には、赤外線通信モジュール82からの赤外線信号を端末装置7の外部に出射するための窓63が設けられる。 Further, the housing 50, a window 63 for emitting an infrared signal from the infrared communication module 82 to the external terminal device 7 is provided. ここでは、LCD51の両側を把持した場合にユーザの前方へ赤外線信号が発射されるように、窓63はハウジング50の上側の側面に設けられる。 Here, as an infrared signal to the front of the user is fired when gripping the opposite sides of the LCD 51, a window 63 is provided on a side surface of the upper housing 50. ただし、他の実施形態においては、窓63は、例えばハウジング50の裏面等、どの位置に設けられてもよい。 However, in other embodiments, the window 63, for example the rear surface or the like of the housing 50 may be provided at any position.

また、端末装置7は、他の装置を端末装置7に接続するための拡張コネクタ58を備えている。 The terminal device 7 includes an extension connector 58 for connecting other devices to the terminal device 7. 拡張コネクタ58は、端末装置7に接続される他の装置との間でデータ(情報)を送受信するための通信端子である。 Extension connector 58 is a communication terminal for transmitting and receiving data (information) to and from another apparatus connected to the terminal device 7. 本実施形態においては、図8の(d)図に示すように、拡張コネクタ58は、ハウジング50の下側側面に設けられる。 In the present embodiment, as shown in FIG. 8 (d), the extension connector 58 is provided on the lower side of the housing 50. なお、拡張コネクタ58に接続される他の付加装置はどのようなものであってもよく、例えば、特定のゲームに用いるコントローラ(銃型のコントローラ等)やキーボード等の入力装置であってもよい。 Incidentally, may Whatever other additional device connected to the extension connector 58, for example, may be an input device of the controller (gun-shaped controller, etc.) and a keyboard for use in a particular game . 付加装置を接続する必要がなければ、拡張コネクタ58は設けられていなくともよい。 If you do not need to connect an additional device, the extension connector 58 may not be provided.

また、端末装置7は、付加装置から電力を取得するための充電端子66を有する。 The terminal device 7 includes a charging terminal 66 for obtaining power from the additional device. 後述するスタンド210に充電端子66が接続された場合、スタンド210から端末装置7へ電力が供給される。 When the charging terminal 66 is connected to the stand 210 to be described later, electric power is supplied from the stand 210 to the terminal device 7. 本実施形態では、充電端子66はハウジング50の下側側面に設けられる。 In this embodiment, the charging terminal 66 is provided on the lower side of the housing 50. したがって、端末装置7と入力装置200とが接続される際には、拡張コネクタ58を介して情報を送受信することに加えて、一方から他方への電力供給を行うことも可能である。 Therefore, when the terminal device 7 and the input device 200 is connected, in addition to sending and receiving information via the expansion connector 58, it is also possible to perform power supply from one to the other. このように、拡張コネクタ58の周囲(左右両側)に充電端子66を設けることによって、端末装置7と付加装置とが接続される際に、情報の送受信とともに、電力供給を行うことも可能である。 Thus, by providing the charging terminals 66 around the extension connector 58 (left and right sides), when the additional device and is connected to the terminal device 7, along with the transmission and reception of information, it is also possible to perform the power supply . また、端末装置7は充電コネクタを有し、ハウジング50は充電コネクタを保護するためのカバー部61を有する。 The terminal device 7 includes a charging connector, the housing 50 has a cover portion 61 for protecting the charging connector. 充電コネクタは、後述する充電器86に接続可能であり、充電器に充電コネクタが接続された場合、充電器86から端末装置7へ電力が供給される。 Charging connector is connectable to a charger 86 to be described later, if the charging connector is connected to the charger, power is supplied from the charger 86 to the terminal device 7. 本実施形態では、ハウジングの下側の側面に付加装置が接続されることを考慮して、充電コネクタ(カバー部61)はハウジング50の上画の側面に設けられるが、左右の側面や下側の側面に設けられてもよい。 In the present embodiment, in consideration of the fact that the additional device is connected to a side surface of the lower housing, but charging connector (cover 61) is provided on a side surface of the upper image of the housing 50, the right and left sides and the lower side of it may be provided on the side surface.

また、端末装置7は、ハウジング50に対して着脱可能な電池蓋67を有している。 The terminal device 7 includes a battery cover 67 detachable from the housing 50. 電池蓋67の内側には電池(図14に示す電池85)が配置される。 Inside the battery cover 67 battery (battery 85 shown in FIG. 14) is disposed. 本実施形態においては、電池蓋67はハウジング50の裏側に設けられ、突起部(庇部59)の下側に設けられる。 In the present embodiment, the battery lid 67 is provided on the back side of the housing 50, is provided on the lower side of the protruding portion (eaves portion 59).

また、端末装置7のハウジング50には、ストラップの紐を結びつけるための孔65aおよび65bが設けられる。 Further, the housing 50 of the terminal device 7, holes 65a and 65b for linking strap of the strap is provided. 図8(d)に示すように、本実施形態においては、孔65aおよび65bはハウジング50の下面に設けられる。 As shown in FIG. 8 (d), in the present embodiment, the hole 65a and 65b are provided on the lower surface of the housing 50. また、本実施形態においては、2つの孔65aおよび65bがハウジング50の左右両側にそれぞれ1つずつ設けられる。 In the present embodiment, two holes 65a and 65b are provided one each on the left and right sides of the housing 50. すなわち、孔65aがハウジング50の下面の中央より左側に設けられ、孔65bがハウジング50の下面の中央より右側に設けられる。 That is, the hole 65a is provided on the left side from the center of the lower surface of the housing 50, holes 65b are provided on the right side from the center of the lower surface of the housing 50. ユーザは、孔65aおよび65bのいずれかにストラップを結びつけ、ストラップを自身の手首に結びつけてもよい。 The user combines the strap to one of the holes 65a and 65b, it may be tied to strap on his wrist. これによって、万一ユーザが端末装置7を落としたり、端末装置7が手から離れたりした場合でも、端末装置7が落下したり他の物に衝突したりすることを防止することができる。 Thereby, it is possible to prevent any chance dropped or user terminal device 7, even if the terminal device 7 is or away from the hand, that the terminal device 7 or to collide with other objects or drop. なお、本実施形態においては、左右両側にそれぞれ孔が設けられるので、ユーザは、どちらの手にもストラップを結びつけることができ、便利である。 In the present embodiment, since the respective left and right sides holes are provided, the user can also connect the strap to either hand, which is convenient.

なお、図8〜図13に示した端末装置7に関して、各操作ボタンやハウジング50の形状や、各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。 Regarding the terminal device 7 shown in FIGS. 8 to 13, the shape of each operation button and the housing 50, merely an example number and setting position of each component, other shapes, numbers, and installed positions it may be.

次に、図14を参照して、端末装置7の内部構成について説明する。 Next, with reference to FIG. 14, it describes the internal structure of the terminal device 7. 図14は、端末装置7の内部構成を示すブロック図である。 Figure 14 is a block diagram showing the internal configuration of the terminal device 7. 図14に示すように、端末装置7は、図8に示した構成の他、タッチパネルコントローラ71、磁気センサ72、加速度センサ73、ジャイロセンサ74、ユーザインタフェースコントローラ(UIコントローラ)75、コーデックLSI76、スピーカ77、サウンドIC78、マイク79、無線モジュール80、アンテナ81、赤外線通信モジュール82、フラッシュメモリ83、電源IC84、および電池85を備える。 As shown in FIG. 14, the terminal device 7, another configuration shown in FIG. 8, a touch panel controller 71, a magnetic sensor 72, an acceleration sensor 73, a gyro sensor 74, a user interface controller (UI controller) 75, a codec LSI 76, a speaker 77, comprises a sound IC 78, a microphone 79, a wireless module 80, an antenna 81, an infrared communication module 82, a flash memory 83, a power supply IC 84, and a battery 85. これらの電子部品は、電子回路基板上に実装されてハウジング50内に収納される。 These electronic components are mounted on an electronic circuit board accommodated in the housing 50.

UIコントローラ75は、各種の入出力部に対するデータの入出力を制御するための回路である。 UI controller 75 is a circuit for controlling the input and output of data to various input and output unit. UIコントローラ75は、タッチパネルコントローラ71、アナログスティック53(アナログスティック53Aおよび53B)、操作ボタン54(各操作ボタン54A〜54L)、マーカ部55、磁気センサ72、加速度センサ73、およびジャイロセンサ74に接続される。 UI controller 75, the touch panel controller 71, the analog stick 53 (the analog sticks 53A and 53B), the operation button 54 (the operation buttons 54A~54L), the marker section 55, the magnetic sensor 72, connected to the acceleration sensor 73 and the gyro sensor 74, It is. また、UIコントローラ75は、コーデックLSI76と拡張コネクタ58に接続される。 Also, UI controller 75 is connected to the extension connector 58 and the codec LSI 76. また、UIコントローラ75には電源IC84が接続され、UIコントローラ75を介して各部に電力が供給される。 The power supply IC84 is connected to the UI controller 75, power is supplied to each section via the UI controller 75. 電源IC84には内蔵の電池85が接続され、電力が供給される。 Built-in battery 85 is connected to the power supply IC 84, the power is supplied. また、電源IC84には、外部電源から電力を取得可能な充電器86またはケーブルを充電コネクタを介して接続することが可能であり、端末装置7は、当該充電器86またはケーブルを用いて外部電源からの電力供給と充電を行うことができる。 Further, the power source IC84 is possible to connect the obtainable charger 86 or a cable power from an external power source via the charging connector, terminal device 7, the external power source by using the charger 86 or the cable it can be charged with electric power supply from. なお、端末装置7は、図示しない充電機能を有するクレイドルに端末装置7を装着することで充電を行うことも可能である。 The terminal device 7 can also be charged by mounting the terminal device 7 to the cradle having a not shown charging function. すなわち、図示しないが、電源IC84には、外部電源から電力を取得可能なクレイドル(図17に示すスタンド210)を充電端子66を介して接続することが可能であり、端末装置7は、クレイドルを用いて外部電源からの電力供給と充電を行うことができる。 That is, although not shown, the power source IC84 is possible to connect via a charging terminal 66 of the cradle capable of acquiring electric power from an external power source (stand 210 shown in FIG. 17), the terminal device 7, a cradle it can be charged with electric power supplied from an external power source using.

タッチパネルコントローラ71は、タッチパネル52に接続され、タッチパネル52の制御を行う回路である。 Touch panel controller 71 is connected to the touch panel 52 is a circuit for controlling the touch panel 52. タッチパネルコントローラ71は、タッチパネル52からの信号に基づいて所定の形式のタッチ位置データを生成してUIコントローラ75へ出力する。 Touch panel controller 71 outputs to the UI controller 75 generates a predetermined form of touch position data based on a signal from the touch panel 52. タッチ位置データは、タッチパネル52の入力面において入力が行われた位置の座標を表す。 The touch position data indicates the position of the coordinate input is performed on an input surface of the touch panel 52. なお、タッチパネルコントローラ71は、タッチパネル52からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。 The touch panel controller 71 reads a signal from the touch panel 52 and generates touch position data every predetermined time. また、UIコントローラ75からタッチパネルコントローラ71へは、タッチパネル52に対する各種の制御指示が出力される。 Further, from the UI controller 75 to the touch panel controller 71, various control instruction to the touch panel 52 is outputted.

アナログスティック53は、ユーザの指で操作されるスティック部がスライドした(または傾倒した)方向および量を表すスティックデータをUIコントローラ75へ出力する。 The analog stick 53 outputs a stick data representing (or tilting the) direction and amount in which the stick is slid to be operated with a finger of the user to the UI controller 75. また、操作ボタン54は、各操作ボタン54A〜54Lに対する入力状況(押下されたか否か)を表す操作ボタンデータをUIコントローラ75へ出力する。 The operation buttons 54 outputs operation button data representing an input state (whether or not pressed) of each of the operation buttons 54A~54L to the UI controller 75.

磁気センサ72は、磁界の大きさおよび方向を検知することで方位を検出する。 The magnetic sensor 72 detects the azimuth by detecting the magnitude and direction of the magnetic field. 検出された方位を示す方位データは、UIコントローラ75へ出力される。 Orientation data representing the detected orientation is outputted to the UI controller 75. また、UIコントローラ75から磁気センサ72へは、磁気センサ72に対する制御指示が出力される。 Also, the magnetic sensor 72 from the UI controller 75, the control instruction for the magnetic sensor 72 is outputted. 磁気センサ72に関しては、MI(磁気インピーダンス)素子、フラックスゲートセンサ、ホール素子、GMR(巨大磁気抵抗)素子、TMR(トンネル磁気抵抗)素子、あるいはAMR(異方性磁気抵抗)素子等を用いたセンサがあるが、方位を検出することができればどのようなものが用いられてもよい。 For the magnetic sensor 72 was used MI (magnetic impedance) element, a flux gate sensor, a Hall element, GMR (giant magnetoresistive) element, TMR (tunnel magnetoresistance) element or AMR (anisotropic magnetoresistive) element or the like, there are sensors, but may be any ones employed if it is possible to detect the orientation. なお、厳密には、地磁気以外に磁界が発生している場所においては、得られた方位データは方位を示さないことになるが、そのような場合であっても、端末装置7が動いた場合には方位データが変化するため、端末装置7の姿勢の変化を算出することができる。 Strictly speaking, if in the area where a magnetic field other than geomagnetism is generated, the orientation data obtained is will not exhibit orientation, even in such a case, the terminal device 7 has moved since the orientation data changes, it is possible to calculate the change in the attitude of the terminal device 7.

加速度センサ73は、ハウジング50の内部に設けられ、3軸(図8の(a)図に示すxyz軸)方向に沿った直線加速度の大きさを検出する。 The acceleration sensor 73 is provided inside the housing 50, it detects the three axes (xyz axis shown in (a) of FIG. 8) the size of the linear acceleration along the direction. 具体的には、加速度センサ73は、ハウジング50の長辺方向をx軸、ハウジング50の表面に対して垂直な方向をy軸、ハウジング50の短辺方向をz軸として、各軸の直線加速度の大きさを検出する。 Specifically, the acceleration sensor 73, x-axis and the long side direction of the housing 50, y-axis and the direction perpendicular to the surface of the housing 50, the short side direction of the housing 50 as z-axis, linear acceleration of each axis to detect the size. 検出された加速度を表す加速度データはUIコントローラ75へ出力される。 Acceleration data representing the detected acceleration is outputted to the UI controller 75. また、UIコントローラ75から加速度センサ73へは、加速度センサ73に対する制御指示が出力される。 Further, from the UI controller 75 to the acceleration sensor 73, the control instruction for the acceleration sensor 73 is outputted. 加速度センサ73は、本実施形態では例えば静電容量式のMEMS型加速度センサであるとするが、他の実施形態においては他の方式の加速度センサを用いるようにしてもよい。 The acceleration sensor 73 is a in this embodiment is a MEMS acceleration sensor, for example an electrostatic capacitance type, may be used an acceleration sensor of another type in another embodiment. また、加速度センサ73は1軸または2軸方向を検出する加速度センサであってもよい。 The acceleration sensor 73 may be an acceleration sensor for detecting a uniaxial or biaxial direction.

ジャイロセンサ74は、ハウジング50の内部に設けられ、上記x軸、y軸およびz軸の3軸周りの角速度を検出する。 The gyro sensor 74 is provided inside the housing 50, the x-axis, detects the angular velocities about three axes of the y-axis and z-axis. 検出された角速度を表す角速度データは、UIコントローラ75へ出力される。 Angular velocity data representing the detected angular velocity is output to the UI controller 75. また、UIコントローラ75からジャイロセンサ74へは、ジャイロセンサ74に対する制御指示が出力される。 Also, the gyro sensor 74 from the UI controller 75, the control instruction for the gyro sensor 74 is outputted. なお、3軸の角速度を検出するために用いられるジャイロセンサの数および組み合わせはどのようなものであってもよく、ジャイロセンサ74はジャイロセンサ48と同様、2軸ジャイロセンサと1軸ジャイロセンサとで構成されてもよい。 Note that the number and combination of the gyro sensor used for detecting the angular velocity of the three axes may be arbitrary, similarly gyro sensor 74 and the gyro sensor 48, and the two-axis gyro sensor and single-axis gyro-sensor in may be configured. また、ジャイロセンサ74は1軸または2軸方向を検出するジャイロセンサであってもよい。 Also, the gyro sensor 74 may be a gyroscopic sensor that detects the uniaxial or biaxial direction.

UIコントローラ75は、上記の各構成要素から受け取ったタッチ位置データ、スティックデータ、操作ボタンデータ、方位データ、加速度データ、および角速度データを含む操作データをコーデックLSI76に出力する。 UI controller 75 outputs touch position data received from each of the above components, the stick data, operation button data, the orientation data, the acceleration data, and the operation data containing the angular velocity data to the codec LSI 76. なお、拡張コネクタ58を介して端末装置7に他の装置が接続される場合には、当該他の装置に対する操作を表すデータが上記操作データにさらに含まれていてもよい。 If another device is connected to the terminal device 7 via the expansion connector 58, data representing the operation to the other device may be further included in the operation data.

コーデックLSI76は、ゲーム装置3へ送信するデータに対する圧縮処理、および、ゲーム装置3から送信されたデータに対する伸張処理を行う回路である。 Codec LSI76 is compression process on data to be transmitted to the game apparatus 3, and a circuit which performs expansion processing for the data transmitted from the game apparatus 3. コーデックLSI76には、LCD51、カメラ56、サウンドIC78、無線モジュール80、フラッシュメモリ83、および赤外線通信モジュール82が接続される。 The codec LSI 76, LCD 51, a camera 56, a sound IC 78, a wireless module 80, a flash memory 83 and the infrared communication module 82, is connected. また、コーデックLSI76はCPU87と内部メモリ88を含む。 In addition, the codec LSI76 includes a CPU87 and the internal memory 88. 端末装置7はゲーム処理自体を行なわない構成であるが、端末装置7の管理や通信のための最小限のプログラムを実行する必要がある。 The terminal device 7 is a configuration not to perform the game process itself, it is necessary to perform the minimum program for management and communication of the terminal device 7. 電源投入時にフラッシュメモリ83に格納されたプログラムを内部メモリ88に読み出してCPU87が実行することで、端末装置7が起動する。 The program stored in the flash memory 83 when the power is turned on by reading the internal memory 88 by CPU87 executes, the terminal device 7 is activated. また、内部メモリ88の一部の領域はLCD51のためのVRAMとして使用される。 Also, part of the area of ​​the internal memory 88 is used as a VRAM for the LCD 51.

カメラ56は、ゲーム装置3からの指示に従って画像を撮像し、撮像した画像データをコーデックLSI76へ出力する。 The camera 56 captures an image in accordance with an instruction from the game apparatus 3, and outputs the captured image data to the codec LSI 76. また、コーデックLSI76からカメラ56へは、画像の撮像指示等、カメラ56に対する制御指示が出力される。 Further, from the codec LSI76 to the camera 56, an imaging instruction of the image, the control instruction for the camera 56 is output. なお、カメラ56は動画の撮影も可能である。 The camera 56 is also possible shooting of the video. すなわち、カメラ56は、繰り返し撮像を行って画像データをコーデックLSI76へ繰り返し出力することも可能である。 That is, the camera 56, it is possible to repeatedly output the image data to the codec LSI76 performed repeatedly captured.

サウンドIC78は、スピーカ77およびマイク79に接続され、スピーカ77およびマイク79への音声データの入出力を制御する回路である。 Sound IC78 is connected to a speaker 77 and a microphone 79, a circuit for controlling input and output of the audio data to the speaker 77 and microphone 79. すなわち、コーデックLSI76から音声データを受け取った場合、サウンドIC78は当該音声データに対してD/A変換を行って得られる音声信号をスピーカ77へ出力し、スピーカ77から音を出力させる。 That is, when receiving the audio data from the codec LSI 76, the sound IC78 outputs a sound signal obtained by performing D / A conversion on the audio data to the speaker 77 to output the sound from the speaker 77. また、マイク79は、端末装置7に伝わる音(ユーザの音声等)を検知して、当該音を示す音声信号をサウンドIC78へ出力する。 Further, the microphone 79 detects the sound transmitted to the terminal device 7 (the user's voice, etc.), and outputs an audio signal representing the sound to the sound IC 78. サウンドIC78は、マイク79からの音声信号に対してA/D変換を行い、所定の形式の音声データをコーデックLSI76へ出力する。 Sound IC78 performs A / D conversion on the sound signal from the microphone 79, and outputs a predetermined format audio data to the codec LSI 76.

コーデックLSI76は、カメラ56からの画像データ、マイク79からの音声データ、および、UIコントローラ75からの操作データを、端末操作データとして無線モジュール80を介してゲーム装置3へ送信する。 Codec LSI76, the image data from the camera 56, the audio data from the microphone 79, and the operation data from the UI controller 75, and transmits to the game apparatus 3 via the wireless module 80 as terminal operation data. 本実施形態では、コーデックLSI76は、画像データおよび音声データに対して、コーデックLSI27と同様の圧縮処理を行う。 In the present embodiment, the codec LSI76, to the image data and audio data, performs the same compression process as the codec LSI 27. 上記端末操作データ、ならびに、圧縮された画像データおよび音声データは、送信データとして無線モジュール80に出力される。 The terminal operation data, and image data and audio data compressed is output to the wireless module 80 as transmission data. 無線モジュール80にはアンテナ81が接続されており、無線モジュール80はアンテナ81を介してゲーム装置3へ上記送信データを送信する。 The wireless module 80 and antenna 81 is connected, the wireless module 80 transmits the transmission data to the game apparatus 3 via the antenna 81. 無線モジュール80は、ゲーム装置3の端末通信モジュール28と同様の機能を有している。 Radio module 80 has the same function as that of the terminal communication module 28 of the game apparatus 3. すなわち、無線モジュール80は、例えばIEEE802.11nの規格に準拠した方式により、無線LANに接続する機能を有する。 That is, the wireless module 80, for example, by using a method based on IEEE802.11n standard, has a function of connecting to a wireless LAN. 送信されるデータは必要に応じて暗号化されていてもよいし、されていなくともよい。 Data to be transmitted may be encrypted as required, may not have been.

以上のように、端末装置7からゲーム装置3へ送信される送信データには、操作データ(端末操作データ)、画像データ、および音声データが含まれる。 As described above, the transmission data transmitted from the terminal device 7 to the game apparatus 3, operation data (terminal operation data), image data, and audio data. なお、拡張コネクタ58を介して端末装置7に他の装置が接続される場合には、当該他の装置から受け取ったデータが上記送信データにさらに含まれていてもよい。 If another device is connected to the terminal device 7 via the expansion connector 58, data received from the other device may be further included in the transmission data. また、赤外線通信モジュール82は、他の装置との間で例えばIRDAの規格に従った赤外線通信を行う。 The infrared communication module 82 performs infrared communication, for example in accordance with the IRDA standard and from other devices. コーデックLSI76は、赤外線通信によって受信したデータを、必要に応じて上記送信データに含めてゲーム装置3へ送信してもよい。 Codec LSI76 the data received by infrared communication, may be transmitted to the game apparatus 3 is included in the transmission data as necessary.

また、上述のように、ゲーム装置3から端末装置7へは、圧縮された画像データおよび音声データが送信される。 Further, as described above, to the terminal device 7 from the game apparatus 3, the compressed image data and sound data are transmitted. これらのデータはアンテナ81および無線モジュール80を介してコーデックLSI76に受信される。 These data are received by the codec LSI76 via the antenna 81 and wireless module 80. コーデックLSI76は、受信した画像データおよび音声データを伸張する。 Codec LSI76 decompresses image data and audio data received. 伸張された画像データはLCD51へ出力され、画像がLCD51に表示される。 Decompressed image data is output to the LCD 51, an image is displayed on the LCD 51. つまり、コーデックLSI76(CPU87)は、受信された画像データを表示部に表示させる。 That is, the codec LSI 76 (CPU 87) causes the display unit to display the received image data. また、伸張された音声データはサウンドIC78へ出力され、サウンドIC78はスピーカ77から音を出力させる。 In addition, the audio data expanded is output to the sound IC78, IC78 sound is to output the sound from the speaker 77.

また、ゲーム装置3から受信されるデータに制御データが含まれる場合、コーデックLSI76およびUIコントローラ75は、制御データに従った制御指示を各部に行う。 Also, if it contains control data on data received from the game apparatus 3, the codec LSI76 and UI controller 75 performs each part of the control instruction in accordance with the control data. 上述のように、制御データは、端末装置7が備える各構成要素(本実施形態では、カメラ56、タッチパネルコントローラ71、マーカ部55、各センサ62〜64、および赤外線通信モジュール82)に対する制御指示を表すデータである。 As described above, the control data (in this embodiment, the camera 56, the touch panel controller 71, the marker unit 55, the sensors 62 to 64 and the infrared communication module 82,) each component comprising the terminal apparatus 7 is a control instruction for is data representing. 本実施形態では、制御データが表す制御指示としては、上記各構成要素を動作させたり、動作を休止(停止)させたりする指示が考えられる。 In the present embodiment, the control instruction represented by the control data, or operate the above components, is an instruction or to halt the operation (stop) is considered. すなわち、ゲームで使用しない構成要素については電力消費を抑えるために休止させてもよく、その場合、端末装置7からゲーム装置3へ送信される送信データには、休止した構成要素からのデータが含まれないようにする。 That is, the components that are not used in the game may be rested in order to reduce power consumption, in which case, the transmission data transmitted from the terminal device 7 to the game apparatus 3, contains data from resting components so as to not. なお、マーカ部55は赤外LEDであるので、制御は単に電力の供給のON/OFFでよい。 Since the marker 55 is an infrared LED, control simply be a ON / OFF of the power supply.

以上のように、端末装置7は、タッチパネル52、アナログスティック53、および操作ボタン54といった操作手段を備えるが、他の実施形態においては、これらの操作手段に代えて、または、これらの操作手段とともに、他の操作手段を備える構成であってもよい。 As described above, the terminal device 7, the touch panel 52, but includes an operation means such as the analog stick 53, and the operation button 54, in other embodiments, instead of these operating means, or, together with these operation means it may be configured to include other operating means.

また、端末装置7は、端末装置7の動き(位置や姿勢、あるいは、位置や姿勢の変化を含む)を算出するためのセンサとして、磁気センサ72、加速度センサ73、およびジャイロセンサ74を備えるが、他の実施形態においては、これらのセンサのうち1つまたは2つのみを備える構成であってもよい。 The terminal device 7, the movement of the terminal device 7 (the position and attitude or, involving a change in the position and attitude) as a sensor for calculating the magnetic sensor 72, an acceleration sensor 73, and comprises a gyro sensor 74 in other embodiments, it may be configured to include only one or two of these sensors. また、他の実施形態においては、これらのセンサに代えて、または、これらのセンサとともに、他のセンサを備える構成であってもよい。 Also, in other embodiments, instead of these sensors, or, together with the sensors, it may be configured to include other sensors.

また、端末装置7は、カメラ56およびマイク79を備える構成であるが、他の実施形態においては、カメラ56およびマイク79を備えていなくてもよく、また、いずれか一方のみを備えていてもよい。 The terminal device 7 has a configuration in which a camera 56 and the microphone 79, in other embodiments may not include a camera 56 and the microphone 79, also it is provided with only one good.

また、端末装置7は、端末装置7とコントローラ5との位置関係(コントローラ5から見た端末装置7の位置および/または姿勢等)を算出するための構成としてマーカ部55を備える構成であるが、他の実施形態ではマーカ部55を備えていない構成としてもよい。 The terminal device 7 is a configuration including the marker portion 55 as a configuration for calculating a positional relationship between the terminal device 7 and the controller 5 (the position of the terminal device 7 as viewed from the controller 5 and / or orientation, etc.) , in other embodiments it may be configured without a marker portion 55. また、他の実施形態では、端末装置7は、上記位置関係を算出するための構成として他の手段を備えていてもよい。 Further, in another embodiment, the terminal device 7 may be provided with other means as a configuration for calculating the positional relationship. 例えば、他の実施形態においては、コントローラ5がマーカ部を備え、端末装置7が撮像素子を備える構成としてもよい。 For example, in other embodiments, the controller 5 is provided with a marker section, the terminal device 7 may include an image pickup element. さらにこの場合、マーカ装置6は赤外LEDに代えて、撮像素子を備える構成としてもよい。 Furthermore, in this case, the marker device 6 in place of the infrared LED, may include an image pickup device.

(付加装置の構成) (Configuration of the additional device)
次に、図15〜図17を参照して、端末装置7に装着(接続)可能な付加装置の例について説明する。 Next, with reference to FIGS. 15 to 17, an example of mounting the terminal device 7 (connection) can additional devices. 付加装置は、どのような機能を有するものであってもよく、例えば、所定の操作を行うために端末装置7に装着される追加の操作装置であってもよいし、端末装置7に対して給電を行う充電器であってもよいし、端末装置7を所定の姿勢にして立てるためのスタンドであってもよい。 Additional device may be one having any function, for example, it may be an additional operating device attached to the terminal device 7 in order to perform a predetermined operation, the terminal device 7 may be a battery charger for supplying power may be a stand for stand by the terminal device 7 to a predetermined position.

図8(d)および図9に示すように、突起部(庇部59)の下面には、付加装置が有する爪部が係止可能な係止穴59aおよび59bが設けられる。 As shown in FIG. 8 (d) and FIG. 9, the lower surface of the projecting portion (eaves portion 59), claws additional device has the lockable latch hole 59a and 59b are provided. 係止穴59aおよび59bは、端末装置7に他の付加装置を接続する際に用いられる。 Latch hole 59a and 59b are used to connect other additional devices to the terminal device 7. すなわち、付加装置は係止穴59aおよび59bに係止可能な爪部を有し、端末装置7に付加装置を接続する場合には、爪部が係止穴59aおよび59bに係止することによって端末装置7と付加装置とが固定される。 That is, the additional device has a lockable pawl portion latch hole 59a and 59b, when connecting the additional device to the terminal device 7 by the pawl portion is engaged with the engagement holes 59a and 59b additional device and is fixed to the terminal device 7. なお、ここでは、端末装置7の裏面に設けられる突起部は、庇状の形状を有する庇部59である。 Here, protrusions provided on a rear surface of the terminal device 7 is a eaves portion 59 having eaves shape. すなわち、庇部59は左右方向に延びて設けられる。 That is, the eaves section 59 is provided to extend in the lateral direction. 図9に示すように、係止穴59aおよび59bは、庇部59の下面の(左右方向に関して)中央付近に設けられる。 As shown in FIG. 9, engagement holes 59a and 59b are (in the left-right direction) of the lower surface of the eaves portion 59 is provided in the vicinity of the center. なお、庇部59の下面に設けられる係止穴59aおよび59bの個数はいくつであってもよいが、1つである場合には庇部59の中央に設けられることが好ましく、複数である場合には左右対称に配置されることが好ましい。 Incidentally, when the number of engagement holes 59a and 59b provided on the lower surface of the eaves portion 59 may be any number, but it is preferably provided in the center of the eaves portion 59 when one is a multiple preferably arranged symmetrically on. これによれば、左右のバランスを均等に保って付加装置を安定的に接続することができる。 According to this, the additional device kept evenly left and right balance can be stably connected. また、係止穴が中央付近に設けられる場合には、左右の両端に設けられる場合に比べて、付加装置のサイズを小さくすることができる。 Further, when the locking hole is provided in the vicinity of the center it can be compared with the case provided in the right and left ends, to reduce the size of the additional device.

また、本実施形態においては、図8(d)に示すように、ハウジング50の下面に係止穴50aおよび50bが設けられる。 In the present embodiment, as shown in FIG. 8 (d), the locking hole 50a and 50b are provided on the lower surface of the housing 50. したがって、端末装置7に付加装置を接続する場合には、4つの爪部が4つの各係止穴にそれぞれ係止することによって端末装置7と付加装置とが固定される。 Therefore, when connecting the additional device to the terminal device 7, the additional device and is fixed to the terminal device 7 by four claws respectively engaging in four respective locking holes of. これによって、付加装置を端末装置7により強固に接続することができる。 This makes it possible to firmly connect the additional device by the terminal device 7. なお、他の実施形態においては、ハウジングに設けられる係止穴は、どのような配置であってもよい。 Note that in other embodiments, locking holes provided in the housing may be any arrangement.

図15および図16は、端末装置7に付加装置を装着した一例を示す図である。 15 and 16 are diagrams showing an example of mounting the additional device to the terminal device 7. 図15は、端末装置7の表面側から端末装置7および入力装置200を見た図であり、図16は、端末装置7の裏面側から端末装置7および入力装置200を見た図である。 Figure 15 is a view of the terminal device 7 and the input device 200 from the surface side of the terminal device 7, FIG. 16 is a view of the terminal device 7 and the input device 200 from the back side of the terminal device 7. 図15および図16においては、付加装置の一例である入力装置200が端末装置7に装着されている。 15 and 16, an input device 200 which is an example of an additional device is attached to the terminal device 7.

入力装置200は、第1グリップ部200aと第2グリップ部200bとを備えている。 Input device 200 includes a first grip part 200a and a second grip portion 200b. 各グリップ部200aおよび200bは、それぞれ、棒状(柱状)の形状であり、ユーザが片手で把持可能である。 Each grip portion 200a and 200b, respectively, in the form of rod-like (columnar), the user can be held by one hand. ユーザは、各グリップ部200aおよび200bのいずれか一方のみを把持して入力装置200(および端末装置7)を使用することも、両方を把持して入力装置200を使用することも可能である。 The user can also, it is also possible to use the input device 200 by grasping both to use the input device 200 by grasping only one of the gripping portions 200a and 200b (and the terminal device 7). なお、入力装置200は、グリップ部を1つのみ備える構成であってもよい。 The input device 200 may be configured to include only one handle portion. また、入力装置200は、支持部205を備えている。 The input device 200 includes a support portion 205. 本実施形態においては、支持部205は、端末装置7の背面(裏面)を支持する。 In the present embodiment, the supporting portion 205 supports the back of the terminal device 7 (back side). 具体的には、支持部205は4つの爪部を有し、4つの爪部は、それぞれ係止穴50a、50b、59aおよび59bにそれぞれ係止可能である。 Specifically, the support portion 205 has four claws, four claws are each locking hole 50a, 50b, respectively 59a and 59b is lockable.

図15に示すように、端末装置7に入力装置200を接続する場合には、4つの爪部が上記4つの係止穴50a、50b、59aおよび59bにそれぞれ係止することによって端末装置7と付加装置とが固定される。 As shown in FIG. 15, when connecting the input device 200 to the terminal device 7, four claws the four locking hole 50a, 50b, the terminal device 7 by respectively locking the 59a and 59b additional device and is fixed. これによって、入力装置200を端末装置7に強固に固定することができる。 Thus, it is possible to firmly fix the input device 200 to the terminal device 7. なお、他の実施形態においては、爪部と係止穴との係止に加えて(または係止に代えて)、入力装置200と端末装置7とをネジ止めする等によって、端末装置7に入力装置200がより強固に固定されてもよい。 Note that in other embodiments, in addition to the engagement of the claw portion and the engagement hole (or instead of locking), such as by screwing the input device 200 and the terminal device 7, the terminal device 7 input device 200 may be more firmly fixed. なお、ネジ止めの位置は、どこであってもよいが、例えば、ハウジング50の背面に当接する入力装置200の支持部205と、庇部59とがネジ止めされてもよい。 The position of the screws is anywhere but may be, for example, a support portion 205 of the input device 200 abuts against the rear surface of the housing 50, and the eaves section 59 may be screwed.

このように、本実施形態においては、係止穴59aおよび59bによって付加装置を端末装置7にしっかりと固定することができる。 Thus, in the present embodiment, it is possible to securely fasten the additional device by retaining hole 59a and 59b to the terminal device 7. なお、端末装置7は、端末装置7の動きや傾きを検出するためのセンサ(磁気センサ72、加速度センサ73、およびジャイロセンサ74)を有しているので、端末装置7自体を動かして使用することも可能である。 The terminal device 7, a sensor for detecting the movement or inclination of the terminal device 7 (a magnetic sensor 72, an acceleration sensor 73, and the gyro sensor 74) since they have to use to move the terminal device 7 itself it is also possible. 例えば、図15および図16に示した入力装置200を端末装置7に接続する場合には、ユーザが入力装置200のグリップ部200aおよび/または200bを持って、入力装置200を銃のように動かして操作する態様も可能である。 For example, when connecting the input device 200 shown in FIGS. 15 and 16 to the terminal device 7, the user has a grip portion 200a and / or 200b of the input device 200, moves the input device 200 as a gun mode of operation Te is also possible. 本実施形態のように、端末装置7自体を動かして使用することが想定される場合には、係止穴59aおよび59bによって付加装置をしっかりと固定することが特に有効である。 As in the present embodiment, when it is envisioned to use by moving the terminal device 7 itself, it is particularly effective to firmly fix the additional device by retaining hole 59a and 59b.

また、本実施形態においては、支持部205は、第1グリップ部200a(または第2グリップ部200b)が鉛直方向を向く場合にLCD51の画面が略鉛直向きとなるように端末装置7を着脱可能に支持する。 In the present embodiment, the supporting portion 205 detachably mountable to the terminal device 7 as screen LCD51 when the first grip portion 200a (or the second grip part 200b) faces the vertical direction is substantially vertically oriented to support to. 各グリップ部200aおよび200bは、入力装置200に接続された端末装置7の表示部(ハウジング50の表面)と略平行となるように形成される。 Each grip portion 200a and 200b is substantially formed so as to be parallel to the display unit of the terminal apparatus 7 connected to the input device 200 (the surface of the housing 50). 換言すれば、各グリップ部200aおよび200bは、入力装置200に接続された端末装置7の表示部の上下方向を向くように形成される。 In other words, the grip portions 200a and 200b are formed so as to face the vertical direction of the display unit of the terminal apparatus 7 connected to the input device 200. このように、入力装置200は、(ユーザが入力装置200を把持した場合に)端末装置7の表示部がユーザの方を向く姿勢で端末装置7と接続される。 Thus, the input device 200 is connected to the terminal device 7 in a posture facing the (if the user holds the input device 200) display unit of the terminal device 7 by the user. ユーザは、各グリップ部200aおよび200b(の少なくともいずれか)を略鉛直にして把持することで、表示部の画面を自分の方を向けることができるので、表示部の画面を見ながら入力装置200を用いて操作を行うことができる。 The user can be grasped by a substantially vertical respective grip portions 200a and 200b (at least one of), since the screen of the display unit can be directed towards the own, the input device while viewing the screen of the display unit 200 it can be operated using. なお、本実施形態においては、第2グリップ部200bは、第1グリップ部200aと略平行な方向を向くが、他の実施形態においては、少なくとも1つのグリップ部がLCD51の画面と略平行な向きに形成されてもよい。 In the present embodiment, the second grip portion 200b is oriented substantially parallel to the first grip part 200a, in other embodiments, at least one grip portion LCD51 screen substantially parallel orientation it may be formed on. これによって、ユーザは、当該グリップ部を掴むことで、LCD51が自分の方を向くようにして入力装置200(および端末装置7)を容易に把持することができる。 Thus, the user can grab the grip portion, it is possible to easily grasp the LCD51 is a manner input device facing towards you 200 (and the terminal device 7).

また、上記実施形態では、支持部205は、第1グリップ部200aと第2グリップ部200bとを接続する接続部材206に設けられる。 In the above embodiment, the supporting portion 205 is provided on the connecting member 206 connecting the first grip part 200a and a second grip portion 200b. つまり、支持部205は2つのグリップ部200aおよび200bの間に設けられるので、入力装置200に接続された端末装置7は、2つのグリップ部200aおよび200bの間に配置される。 That is, since the support portion 205 is provided between the two gripping portions 200a and 200b, the terminal device 7 connected to the input device 200 is arranged between the two grip parts 200a and 200b. このとき、端末装置7と入力装置200とからなる操作装置(操作システム)の重心は2つのグリップ部200aおよび200bの間となるので、ユーザは2つのグリップ部200aおよび200bを掴んで把持することによって操作装置を楽に把持することができる。 At this time, the center of gravity of the operating device (operating system) consisting of a terminal device 7 input device 200. becomes between the two gripping portions 200a and 200b, the user be gripped by gripping two gripping portions 200a and 200b can be comfortably holds the operation device by. なお、上記実施形態では、一方のグリップ部(第1グリップ部200a)は、入力装置200に装着された端末装置7の画面の前側となる位置に設けられ、他方のグリップ部(第2グリップ部200b)は、当該画面の後側となる位置に設けられる。 In the above embodiment, one of the grip portion (first grip portion 200a) is provided on the front side and a position on the screen of the terminal device 7 mounted on the input device 200, the other of the grip portion (second grip portion 200b) is provided at a position to be the rear side of the screen. そのため、ユーザは、一方の手を画面の前方にし、他方の手を画面の後方にして、銃を持つような持ち方で2つのグリップを把持することで、容易に操作装置を把持することができる。 This system enables the user to hand and in front of the screen, the other hand to the rear of the screen, by gripping the two grips at the way of holding like having a gun, is possible to easily grasp the operation device it can. したがって、例えば上記操作装置を銃に見立ててゲーム操作を行う射撃ゲーム等において上記操作装置が特に好適である。 Thus, for example, the operation device in a shooting game or the like for game operation while regarding the operating device guns are particularly preferred.

また、入力装置200は、操作部として、第1ボタン201、第2ボタン202、第3ボタン203、およびスティック204を備えている。 The input device 200 includes, as the operation unit, the first button 201, second button 202, a third button 203, and the stick 204. 各ボタン201〜203は、それぞれユーザによって押下可能なボタンである。 Each button 201 to 203 is a button that can be pressed by the user, respectively. スティック204は、方向を指示することが可能なデバイスである。 Stick 204 is a device capable of indicating the direction. 上記操作部は、ユーザがグリップ部を把持した場合に把持した手の指で操作可能な位置に設けられることが好ましい。 The operation unit is preferably user provided location that enables operation by a finger of the hand holding the case holding the grip portion. 本実施形態においては、第1ボタン201と第2ボタン202とスティック204は、第1グリップ部200aを把持した手の親指で操作可能な位置に設けられる。 In the present embodiment, the first button 201 second button 202 and the stick 204 is provided in operable position with the thumb of the hand holding the first grip portion 200a. また、第3ボタン203は、第2グリップ部200bを把持した手の親指で操作可能な位置に設けられる。 The third button 203 is provided on the operable position with the thumb of the hand holding the second grip portion 200b.

なお、入力装置200は、撮像装置(撮像部)を備えていてもよい。 The input device 200 may include an imaging device (imaging unit). 例えば、入力装置200は、上記コントローラ5が備える撮像情報演算部35と同様の構成を備えていてもよい。 For example, input device 200 may comprise the same configuration as the imaging information calculation section 35 that the controller 5 is provided. このとき、撮像情報演算部の撮像素子は、入力装置200の前方(端末装置7の画面の後方)を撮像する向きに設けられてもよい。 At this time, the imaging element of the imaging information calculation section may be provided in a direction for imaging the front of the input device 200 (behind the screen of the terminal device 7). 例えば、赤外線フィルタが第3ボタン203に代えて第3ボタン203の位置に配置され、その内側に撮像素子が配置されてもよい。 For example, an infrared filter is disposed at the position of the third button 203 in place of the third button 203 may be the image pickup element is arranged inside. これによれば、ユーザが入力装置200の前方をテレビ2(マーカ装置6)に向けて使用することで、ゲーム装置3は入力装置200の向きや位置を算出することができる。 According to this, by using the front of the user input device 200 toward the television 2 (the marker device 6), the game apparatus 3 can calculate the direction or position of the input device 200. したがって、ユーザは、入力装置200を所望の方向へ向ける操作を行うことができ、入力装置200を用いて直感的かつ容易な操作を行うことができる。 Thus, the user can perform an operation to direct the input device 200 in a desired direction, it is possible to perform intuitive and easy operation using the input device 200. また、入力装置200は、撮像情報演算部に代えて、カメラ56と同様のカメラを備える構成であってもよい。 The input device 200 includes, in place of the imaging information calculation section, may be configured to include the same camera as the camera 56. このとき、カメラは、上記撮像素子と同様、入力装置200の前方を撮像する向きに設けられてもよい。 At this time, the camera, like the imaging device may be provided in a direction for imaging the front of the input device 200. これによれば、ユーザが入力装置200の前方をテレビ2(マーカ装置6)に向けて使用することで、端末装置7のカメラ56とは反対向きの撮像方向で画像を撮像することができる。 According to this, the use toward the front of the user input device 200 to the television 2 (the marker device 6), the camera 56 of the terminal apparatus 7 can capture an image in the imaging direction of the opposite.

また、入力装置200は、図示しないコネクタを備えており、コネクタは、端末装置7が入力装置200に装着された場合に端末装置7の拡張コネクタ58と接続される。 The input device 200 is provided with a connector (not shown), the connector is connected to the extension connector 58 of the terminal device 7 when the terminal device 7 is mounted on the input device 200. これによって、入力装置200と端末装置7との間でデータの送受信が可能となる。 This allows transmission and reception of data between the input device 200 and the terminal device 7. 例えば、入力装置200に対する操作を表すデータや、上記撮像装置による撮像結果を表すデータが端末装置7へ送信されてもよい。 For example, data representing an operation of the input device 200, data representing the imaging result by the imaging device may be transmitted to the terminal device 7. このとき、端末装置7は、端末装置7に対して行われた操作を表す操作データと、入力装置から送信されてきたデータとをゲーム装置3へ無線で送信してもよい。 In this case, the terminal device 7 may transmit the operation data indicating an operation performed on the terminal device 7, and a data transmitted from the input device to the game apparatus 3 by wireless. また、入力装置200は、端末装置7が入力装置200に装着された場合に端末装置7の充電端子66と接続される充電端子を備えていてもよい。 The input device 200 may include a charging terminal connected to the charging terminal 66 of the terminal device 7 when the terminal device 7 is mounted on the input device 200. これによれば、端末装置7が入力装置200に装着された場合に、一方の装置から他方の装置へ電力を供給することができる。 According to this, when the terminal device 7 is mounted on the input device 200, power can be supplied from one device to the other. 例えば、入力装置200が充電器に接続され、端末装置7は入力装置200を介して充電器から電力を取得することによって充電が行われてもよい。 For example, the input device 200 is connected to the charger, the terminal device 7 may be performed charged by obtaining power from the charger through the input device 200.

また、他の実施形態においては、端末装置7と入力装置200とが一体となった操作装置が提供されてもよい。 Also, in other embodiments, the terminal device 7 and the input device 200 may be provided an operation device that integrates. この場合、端末装置7における各係止穴50a、50b、59aおよび59bや、入力装置200における爪部等、端末装置7と入力装置200とを着脱可能に接続するための機構は不要である。 In this case, the locking hole 50a in the terminal device 7, 50b, and 59a and 59b, the pawl portion and the like in the input device 200, mechanisms for detachably connecting the terminal device 7 and an input device 200 is not needed.

図17は、端末装置7に付加装置を接続した他の一例を示す図である。 Figure 17 is a diagram showing another example of connecting the additional device to the terminal device 7. 図17においては、付加装置の一例であるスタンド210に端末装置7が接続(装着)されている。 17, the terminal device 7 to the stand 210 is connected (attached), which is an example of an additional device. スタンド210は、端末装置7を所定の角度に立てて載置するための支持装置である。 Stand 210 is a support device for placing upright the terminal device 7 to a predetermined angle. スタンド210は、支持部材211と、充電端子212と、ガイド部材213aおよび213bとを備えている。 Stand 210 includes a support member 211, a charging terminal 212, and a guide member 213a and 213b.

支持部材211は、端末装置7の裏面を所定の角度で支持するためのものである。 Support member 211 is for supporting the rear surface of the terminal device 7 at a predetermined angle. また、ガイド部材213aおよび213bは、端末装置7の第2係止穴50aおよび50bに挿入可能であり、スタンド210に対して端末装置7が接続される位置を決めるためのものである。 The guide members 213a and 213b can be inserted into the second locking hole 50a and 50b of the terminal device 7 is intended to position the terminal device 7 with respect to the stand 210 is connected. 各ガイド部材213aおよび213bは、端末装置7の係止穴50aおよび50bに対応する位置に設けられる。 The guide members 213a and 213b are provided at positions corresponding to the locking hole 50a and 50b of the terminal device 7. 端末装置7がスタンド210に接続された場合には、ガイド部材213aおよび213bの一部がそれぞれ係止穴50aおよび50bに挿入された状態となる。 When the terminal device 7 is connected to the stand 210 is in a state in which a part of the guide members 213a and 213b are inserted into the respective locking holes 50a and 50b. また、端末装置7がスタンド210に接続された場合には、端末装置7の裏面が支持部材211に当接することによって、端末装置7が所定の角度でスタンド210上に載置される。 The terminal device 7 when it is connected to the stand 210 by the rear surface of the terminal device 7 abuts against the support member 211, the terminal device 7 is placed on the stand 210 at a predetermined angle. なお、他の実施形態においては、端末装置7の下面に設けられる係止穴の数に応じた数のガイド部材が設けられてもよく、スタンド210はガイド部材を1つのみ備えていてもよいし、3つ以上備えていてもよい。 Note that in other embodiments, may be provided a number of guide members corresponding to the number of engagement holes provided on the lower surface of the terminal device 7, the stand 210 may comprise only one guide member and it may include three or more.

また、本実施形態においては、スタンド210は、充電器としての機能も有しており、充電端子212を有する。 In the present embodiment, the stand 210 also has a function as a charger having a charging terminal 212. 端末装置7がスタンド210に接続された場合には、スタンド210の充電端子212と端末装置7の充電端子66とが接触し、スタンド210から端末装置7に電力が供給され、充電を行うことができる。 When the terminal device 7 is connected to the stand 210 is in contact with the charging terminals 66 of the charging terminal 212 and the terminal device 7 of the stand 210, power is supplied from the stand 210 to the terminal device 7, it is charged it can.

また、本実施形態においては、ガイド部材213aおよび213bは、回転可能な車輪部材(ローラー部)である。 In the present embodiment, the guide members 213a and 213b are rotatable wheel member (roller portion). 各ガイド部材213aおよび213bは、端末装置7がスタンド210に接続された場合に、端末装置7の左右方向に回転可能である。 The guide members 213a and 213b, when the terminal device 7 is connected to the stand 210 and is rotatable in the lateral direction of the terminal device 7. 端末装置7がスタンド210に接続される際、係止穴50aおよび50bがガイド部材213aおよび213bからずれている場合には、ガイド部材213aおよび213bが回転することによって端末装置7の位置が修正されて接続される。 When the terminal device 7 is connected to the stand 210, when the locking hole 50a and 50b is deviated from the guide members 213a and 213b, the position of the terminal device 7 is corrected by the guide members 213a and 213b are rotated It is connected to Te. つまり、ガイド部材213aおよび213bの各一部が係止穴50aおよび50bに挿入された状態で端末装置7がスタンド210上に載置されるので、スタンド210の充電端子212と端末装置7の充電端子66とが接触し、確実に充電が行われる。 That is, since the terminal device 7 with a portion each of the guide members 213a and 213b are inserted into the locking hole 50a and 50b is placed on the stand 210, the charging of the charging terminal 212 and the terminal device 7 of the stand 210 and the terminal 66 contacts reliably charging is performed. したがって、ユーザは、端末装置7をスタンド210に容易に接続することができる。 Thus, the user can easily connect the terminal device 7 to the stand 210. また、本実施形態においては、係止穴50aおよび50bは、付加装置の爪部を係止するための穴として用いられるとともに、ガイド部材を挿入する対象としても用いられる。 In the present embodiment, the locking hole 50a and 50b, together used as a hole for locking the claw portion of the additional device, also used as a target for inserting the guide member. したがって、端末装置7のハウジング50に設ける穴の数を少なくすることができ、ハウジング50の形状を簡易にすることができる。 Therefore, it is possible to reduce the number of holes provided in the housing 50 of the terminal device 7, the shape of the housing 50 can be simplified.

[5. [5. ゲーム処理] Game processing]
次に、本ゲームシステムにおいて実行されるゲーム処理の詳細を説明する。 Next, details of the game process executed in the game system. まず、ゲーム処理において用いられる各種データについて説明する。 First, a description will be given various data used in the game process. 図18は、ゲーム処理において用いられる各種データを示す図である。 Figure 18 is a diagram showing various data used in the game process. 図18において、ゲーム装置3のメインメモリ(外部メインメモリ12または内部メインメモリ11e)に記憶される主なデータを示す図である。 18 is a diagram illustrating main data stored in the main memory of the game apparatus 3 (the external main memory 12 or the internal main memory 11e). 図18に示すように、ゲーム装置3のメインメモリには、ゲームプログラム90、受信データ91、および処理用データ106が記憶される。 As shown in FIG. 18, the main memory of the game apparatus 3, a game program 90, the received data 91, and processing data 106 are stored. なお、メインメモリには、図18に示すデータの他、ゲームに登場する各種オブジェクトの画像データやゲームに使用される音声データ等、ゲームに必要なデータが記憶される。 Incidentally, in the main memory, in addition to the data shown in FIG. 18, the audio data to be used for image data and game of various objects appearing in the game, data necessary for the game is stored.

ゲームプログラム90は、ゲーム装置3に電源が投入された後の適宜のタイミングで光ディスク4からその一部または全部が読み込まれてメインメモリに記憶される。 Game program 90, a portion thereof from the optical disc 4 at an appropriate timing after the power is turned to the game apparatus 3 or the whole is stored in the read main memory. なお、ゲームプログラム90は、光ディスク4に代えて、フラッシュメモリ17やゲーム装置3の外部装置から(例えばインターネットを介して)取得されてもよい。 The game program 90, instead of the optical disc 4, an external device of the flash memory 17 and the game apparatus 3 (e.g., via the internet) may be obtained. また、ゲームプログラム90に含まれる一部(例えば、コントローラ5および/または端末装置7の姿勢を算出するためのプログラム)については、ゲーム装置3内に予め記憶されていてもよい。 A part included in the game program 90 (e.g., a program for calculating the attitude of the controller 5 and / or the terminal device 7) may be previously stored in the game apparatus 3.

受信データ91は、コントローラ5および端末装置7から受信される各種のデータである。 Received data 91 is various data received from the controller 5 and the terminal device 7. 受信データ91は、コントローラ操作データ92、端末操作データ97、カメラ画像データ104、および、マイク音データ105を含む。 Receiving data 91, the controller operation data 92, terminal operation data 97, the camera image data 104, and includes a microphone sound data 105. コントローラ5が複数接続される場合には、コントローラ操作データ92も複数になる。 When the controller 5 is connected to a plurality also becomes more controller operation data 92. 端末装置7が複数接続される場合には、端末操作データ97、カメラ画像データ104、および、マイク音データ105も複数になる。 When the terminal device 7 is connected to a plurality of the terminal operation data 97, the camera image data 104, and also makes it more microphone sound data 105.

コントローラ操作データ92は、コントローラ5に対するユーザ(プレイヤ)の操作を表すデータである。 Controller operation data 92 is data representing an operation of the user (player) to the controller 5. コントローラ操作データ92は、コントローラ5から送信されてゲーム装置3において取得され、メインメモリに記憶される。 Controller operation data 92 is transmitted from the controller 5 is acquired by the game apparatus 3, it is stored in the main memory. コントローラ操作データ92は、第1操作ボタンデータ93、第1加速度データ94、第1角速度データ95、およびマーカ座標データ96を含む。 Controller operation data 92 includes a first operation button data 93, the first acceleration data 94, the first angular velocity data 95 and marker coordinate data 96,. なお、メインメモリには、最新の(最後に取得された)ものから順に所定個数のコントローラ操作データが記憶されてもよい。 Incidentally, in the main memory, (obtained at the end) latest controller operation data of a predetermined number of the order may be stored from those.

第1操作ボタンデータ93は、コントローラ5に設けられる各操作ボタン32a〜32iに対する入力状態を表すデータである。 The first operation button data 93 is data representing an input state of each of the operation buttons 32a~32i provided on the controller 5. 具体的には、第1操作ボタンデータ93は、各操作ボタン32a〜32iが押下されているか否かを表す。 Specifically, the first operation button data 93 indicating whether the operation buttons 32a~32i is pressed.

第1加速度データ94は、コントローラ5の加速度センサ37によって検出された加速度(加速度ベクトル)を表すデータである。 First acceleration data 94 is data representing the detected acceleration (acceleration vector) by the acceleration sensor 37 of the controller 5. ここでは、第1加速度データ94は、図3に示すXYZの3軸の方向に関する加速度を各成分とする3次元の加速度を表すものであるが、他の実施形態においては、任意の1以上の方向に関する加速度を表すものであればよい。 Here, the first acceleration data 94 is the acceleration in directions of three axes of the XYZ shown in FIG. 3 illustrates a three-dimensional acceleration to the components, in other embodiments, any one or more as long as it represents the acceleration in the direction.

第1角速度データ95は、コントローラ5におけるジャイロセンサ48によって検出された角速度を表すデータである。 First angular velocity data 95 is data representing the angular velocity detected by the gyro sensor 48 in the controller 5. ここでは、第1角速度データ95は、図3に示すXYZの3軸回りのそれぞれの角速度を表すものであるが、他の実施形態においては、任意の1軸以上の軸回り角速度を表すものであればよい。 Here, the first angular velocity data 95 is illustrates a respective angular velocities around three axes XYZ shown in FIG. 3, in other embodiments, intended to represent any one or more axes axis angular velocity it is sufficient.

マーカ座標データ96、撮像情報演算部35の画像処理回路41によって算出される座標、すなわち上記マーカ座標を表すデータである。 Marker coordinate data 96, the coordinates calculated by the image processing circuit 41 of the imaging information calculation section 35, that is, data representing the marker coordinates. マーカ座標は、撮像画像に対応する平面上の位置を表すための2次元座標系で表現され、マーカ座標データ96は、当該2次元座標系における座標値を表す。 Marker coordinates are represented by a two-dimensional coordinate system for representing positions on the plane corresponding to the captured image, the marker coordinate data 96 represents a coordinate value in the two-dimensional coordinate system.

なお、コントローラ操作データ92は、コントローラ5を操作するユーザの操作を表すものであればよく、上記各データ93〜96の一部のみを含むものであってもよい。 The controller operation data 92, as long as it represents the operation of the user operating the controller 5, may include only some of the respective data 93 to 96. また、コントローラ5が他の入力手段(例えば、タッチパネルやアナログスティック等)を有する場合には、コントローラ操作データ92は、当該他の入力手段に対する操作を表すデータを含んでいてもよい。 Further, when the controller 5 has an other input means (e.g., a touch panel, an analog stick, etc.), the controller operation data 92 may include data representing the operation on the other input means. なお、本実施形態のようにコントローラ5自体の動きをゲーム操作として用いる場合には、コントローラ操作データ92は、第1加速度データ94、第1角速度データ95、またはマーカ座標データ96のように、コントローラ5自体の動きに応じて値が変化するデータを含むようにする。 In the case of using the motion of the controller 5 itself, as in the present embodiment as a game operation, the controller operation data 92 includes first acceleration data 94, as in the first angular velocity data 95 or the marker coordinate data 96, the controller to include a data value varies according to the 5 itself moves.

端末操作データ97は、端末装置7に対するユーザの操作を表すデータである。 Terminal operation data 97 is data representing an operation of a user on the terminal device 7. 端末操作データ97は、端末装置7から送信されてゲーム装置3において取得され、メインメモリに記憶される。 Terminal operation data 97 is transmitted from the terminal device 7 is acquired by the game apparatus 3, it is stored in the main memory. 端末操作データ97は、第2操作ボタンデータ98、スティックデータ99、タッチ位置データ100、第2加速度データ101、第2角速度データ102、および方位データを含む。 Terminal operation data 97 includes a second operation button data 98, the stick data 99, touch position data 100, the second acceleration data 101, the second angular velocity data 102, and the orientation data. なお、メインメモリには、最新の(最後に取得された)ものから順に所定個数の端末操作データが記憶されてもよい。 Incidentally, in the main memory, (obtained at the end) the latest terminal operation data of a predetermined number of the order may be stored from those.

第2操作ボタンデータ98は、端末装置7に設けられる各操作ボタン54A〜54Lに対する入力状態を表すデータである。 The second operation button data 98 ​​is data representing an input state of each of the operation buttons 54A~54L provided in the terminal device 7. 具体的には、第2操作ボタンデータ98は、各操作ボタン54A〜54Lが押下されているか否かを表す。 More specifically, the second operation button data 98 ​​indicating whether each of the operation buttons 54A~54L is pressed.

スティックデータ99は、アナログスティック53(アナログスティック53Aおよび53B)のスティック部がスライドした(または傾倒した)方向および量を表すデータである。 Stick data 99, the stick of the analog stick 53 (the analog sticks 53A and 53B) is (or tilted) slides is data representing the direction and amount. 上記方向および量は、例えば2次元座標や2次元ベクトルとして表されてもよい。 The direction and amount, for example may be represented as two-dimensional coordinates and two-dimensional vectors.

タッチ位置データ100は、タッチパネル52の入力面において入力が行われた位置(タッチ位置)を表すデータである。 Touch position data 100 is data representing the input is made a position on the input surface of the touch panel 52 (touch position). 本実施形態では、タッチ位置データ100は、上記入力面上の位置を示すための2次元座標系の座標値を表す。 In the present embodiment, the touch position data 100 represents a coordinate value of a two-dimensional coordinate system for indicating a position on the input surface. なお、タッチパネル52がマルチタッチ方式である場合には、タッチ位置データ100は複数のタッチ位置を表すこともある。 Incidentally, when the touch panel 52 is a multi-touch system, the touch position data 100 may represent a plurality of touch positions.

第2加速度データ101は、加速度センサ73によって検出された加速度(加速度ベクトル)を表すデータである。 Second acceleration data 101 is data representing the acceleration detected by the acceleration sensor 73 (acceleration vector). 本実施形態では、第2加速度データ101は、図8に示すxyzの3軸の方向に関する加速度を各成分とする3次元の加速度を表すものであるが、他の実施形態においては、任意の1以上の方向に関する加速度を表すものであればよい。 In this embodiment, the second acceleration data 101 is acceleration with respect to the direction of the three axes of xyz shown in FIG. 8 illustrates a 3-dimensional acceleration to the components, in other embodiments, any 1 as long as it represents an acceleration in more directions.

第2角速度データ102は、ジャイロセンサ74によって検出された角速度を表すデータである。 The second angular velocity data 102 is data representing the angular velocity detected by the gyro sensor 74. 本実施形態では、第2角速度データ102は、図8に示すxyzの3軸回りのそれぞれの角速度を表すものであるが、他の実施形態においては、任意の1軸以上の軸回り角速度を表すものであればよい。 In this embodiment, the second angular velocity data 102, but represents the respective angular velocities around three axes xyz shown in FIG. 8, in other embodiments, represents any one or more axes axis angular velocity it may be one.

方位データ103は、磁気センサ72によって検出された方位を表すデータである。 Orientation data 103 is data representing the direction detected by the magnetic sensor 72. 本実施形態では、方位データ103は、端末装置7を基準として所定の方位(例えば北)の向きを表す。 In this embodiment, the orientation data 103 represents the direction of the predetermined direction relative to the terminal device 7 (e.g. north). ただし、地磁気以外の磁界が発生している場所においては、方位データ103は厳密には絶対的な方位(北等)を示さないことになるが、その場所における磁界の方向に対する端末装置7の相対的な方向が示されるので、そのような場合であっても端末装置7の姿勢変化を算出することが可能である。 However, in the area where a magnetic field other than geomagnetism is occurring, but the orientation data 103 will be strictly not exhibit an absolute orientation (north, etc.), relative to the terminal device 7 with respect to the direction of the magnetic field at that location because direction is indicated, it is possible to calculate the change in the attitude of the terminal device 7 even in such a case.

なお、端末操作データ97は、端末装置7を操作するユーザの操作を表すものであればよく、上記各データ98〜103のいずれか1つのみを含むものであってもよい。 The terminal operation data 97 may be one representing the operation of the user operating the terminal device 7, may include only one of each data 98-103. また、端末装置7が他の入力手段(例えば、タッチパッドや、コントローラ5の撮像手段等)を有する場合には、端末操作データ97は、当該他の入力手段に対する操作を表すデータを含んでいてもよい。 Further, when the terminal device 7 has the other input means (e.g., a touchpad or the imaging means of the controller 5, etc.), terminal operation data 97 include data representing the operation on the other input means it may be. なお、本実施形態のように端末装置7自体の動きをゲーム操作として用いる場合には、端末操作データ97は、第2加速度データ101、第2角速度データ102、または方位データ103のように、端末装置7自体の動きに応じて値が変化するデータを含むようにする。 In the case of using the motion of the terminal apparatus 7 itself as in the present embodiment as a game operation, terminal operation data 97, the second acceleration data 101, as in the second angular velocity data 102 or orientation data 103, the terminal movement of the device 7 itself to include a data value varies according to the.

カメラ画像データ104は、端末装置7のカメラ56によって撮像された画像(カメラ画像)を表すデータである。 Camera image data 104 is data representing the captured image (camera image) by the camera 56 of the terminal device 7. カメラ画像データ104は、端末装置7からの圧縮された画像データがコーデックLSI27によって伸張された画像データであり、入出力プロセッサ11aによってメインメモリに記憶される。 Camera image data 104, compressed image data from the terminal device 7 is an image data expanded by the codec LSI 27, is stored in the main memory by the input-output processor 11a. なお、メインメモリには、最新の(最後に取得された)ものから順に所定個数のカメラ画像データが記憶されてもよい。 Incidentally, in the main memory, the camera image data of the predetermined number in order from the most recent (last obtained) that may be stored.

マイク音データ105は、端末装置7のマイク79によって検出された音声(マイク音)を表すデータである。 Microphone sound data 105 is data representing audio (microphone sound) detected by the microphone 79 of the terminal device 7. マイク音データ105は、端末装置7から送信されてくる圧縮された音声データがコーデックLSI27によって伸張された音声データであり、入出力プロセッサ11aによってメインメモリに記憶される。 Microphone sound data 105, audio data compressed transmitted from the terminal device 7 is a voice data expanded by the codec LSI 27, is stored in the main memory by the input-output processor 11a.

処理用データ106は、後述するゲーム処理(図19)において用いられるデータである。 Processing data 106 is data used in the later-described game processing (FIG. 19). 処理用データ106は、制御データ107、コントローラ姿勢データ108、端末姿勢データ109、画像認識データ110、および音声認識データ111を含む。 Processing data 106 includes control data 107, the controller attitude data 108, terminal attitude data 109, the image recognition data 110, and the speech recognition data 111. なお、図18に示すデータの他、処理用データ106は、ゲームに登場する各種オブジェクトに設定される各種パラメータを表すデータ等、ゲーム処理において用いられる各種データを含む。 Incidentally, in addition to the data shown in FIG. 18, processing the data 106, data and the like representing various parameters set in various objects appearing in the game, including various data used in the game process.

制御データ107は、端末装置7が備える構成要素に対する制御指示を表すデータである。 Control data 107 is data representing the control instruction for the component terminal device 7 is provided. 制御データ107は、例えば、マーカ部55の点灯を制御する指示や、カメラ56の撮像を制御する指示等を表す。 Control data 107 represents, for example, instructions and to control the lighting of the marker section 55, an instruction for controlling the imaging of the camera 56. 制御データ107は、適宜のタイミングで端末装置7へ送信される。 Control data 107 is transmitted to the terminal device 7 at appropriate timing.

コントローラ姿勢データ108は、コントローラ5の姿勢を表すデータである。 Controller attitude data 108 is data representing the attitude of the controller 5. 本実施形態では、コントローラ姿勢データ108は、上記コントローラ操作データ92に含まれる第1加速度データ94、第1角速度データ95、およびマーカ座標データ96に基づいて算出される。 In the present embodiment, the controller attitude data 108, first acceleration data 94 included in the controller operation data 92 is calculated based on the first angular velocity data 95 and marker coordinate data 96,. コントローラ姿勢データ108の算出方法についてはステップS23で後述する。 Later in step S23 the calculation method of the controller attitude data 108.

端末姿勢データ109は、端末装置7の姿勢を表すデータである。 Terminal attitude data 109 is data representing the attitude of the terminal device 7. 本実施形態では、端末姿勢データ109は、上記端末操作データ97に含まれる第2加速度データ101、第2角速度データ102、および方位データ103に基づいて算出される。 In the present embodiment, the terminal attitude data 109, second acceleration data 101 included in the terminal operation data 97 is calculated based on the second angular velocity data 102 and the orientation data 103,. 端末姿勢データ109の算出方法についてはステップS24で後述する。 A method for calculating the terminal attitude data 109 will be described later in step S24.

画像認識データ110は、上記カメラ画像に対する所定の画像認識処理の結果を表すデータである。 Image recognition data 110 is data representing the result of the predetermined image recognition processing on the camera image. この画像認識処理は、カメラ画像から何らかの特徴を検知してその結果を出力するものであればどのような処理であってもよく、例えば、カメラ画像から所定の対象(例えば、ユーザの顔やマーカ等)を抽出し、抽出した対象に関する情報を算出する処理であってもよい。 The image recognition process is to detect some feature from the camera image may be any process as long as it outputs the result, for example, a predetermined target from a camera image (e.g., the user's face and markers extract the like), information may be a process of calculating the related extracted object.

音声認識データ111は、上記マイク音声に対する所定の音声認識処理の結果を表すデータである。 Speech recognition data 111 is data representing the result of a predetermined speech recognition process for the microphone sound. この音声認識処理は、マイク音声から何らかの特徴を検知してその結果を出力するものであればどのような処理であってもよく、例えば、ユーザの言葉を検知する処理であってもよいし、単に音量を出力する処理であってもよい。 The speech recognition process may be any process as long as it outputs the result to detect some feature from the microphone audio, for example, it may be a process of detecting the words of the user, it may simply be a process of outputting the sound volume.

次に、図19を参照して、ゲーム装置3において行われるゲーム処理の詳細を説明する。 Next, with reference to FIG. 19, the details of the game process performed by the game apparatus 3. 図19は、ゲーム装置3において実行されるゲーム処理の流れを示すメインフローチャートである。 Figure 19 is a main flowchart showing the flow of the game processing executed by the game apparatus 3. ゲーム装置3の電源が投入されると、ゲーム装置3のCPU10は、図示しないブートROMに記憶されている起動プログラムを実行し、これによってメインメモリ等の各ユニットが初期化される。 When the game apparatus 3 is turned on, CPU 10 of the game apparatus 3 executes a boot program stored in the unillustrated boot ROM, which each unit such as the main memory are initialized. そして、光ディスク4に記憶されたゲームプログラムがメインメモリに読み込まれ、CPU10によって当該ゲームプログラムの実行が開始される。 Then, the game program stored in the optical disc 4 is loaded to the main memory, the execution of the game program is started by the CPU 10. なお、ゲーム装置3においては、電源投入後に光ディスク4に記憶されたゲームプログラムがすぐに実行される構成であってもよいし、電源投入後にまず所定のメニュー画面を表示する内蔵プログラムが実行され、その後ユーザによってゲームの開始が指示されたときに光ディスク4に記憶されたゲームプログラムが実行される構成であってもよい。 In the game apparatus 3 may be a configuration in which the game program stored in the optical disc 4 is executed immediately after power-on, the built-program is executed to first display a predetermined menu screen after power-on, then may be configured to the game program stored in the optical disc 4 is executed when the start of the game is instructed by the user. 図19に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。 Flowchart shown in FIG. 19 is a flowchart showing a process performed after the above processing is completed.

なお、図19に示すフローチャートの各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよい。 The processing in each step of the flowchart shown in FIG. 19 is merely an example, as long as the same result is obtained, may be changed processing order of the steps. また、変数の値や、判断ステップで利用される閾値も、単なる一例に過ぎず、必要に応じて他の値を採用してもよい。 The value or variable threshold to be used in judging step also merely illustrative and may be employed other values ​​as required. また、本実施形態では、上記フローチャートの各ステップの処理をCPU10が実行するものとして説明するが、CPU10以外のプロセッサや専用回路が上記各ステップの一部のステップの処理を実行するようにしてもよい。 Further, in the present embodiment, for explaining the processes of the steps of the flow chart that CPU10 performs, also a processor or a dedicated circuit other than CPU10 is so as to execute the processing of some steps of the above steps good.

まずステップS1において、CPU10は初期処理を実行する。 First, in step S1, CPU 10 executes the initial processing. 初期処理は、例えば、仮想のゲーム空間を構築し、ゲーム空間に登場する各オブジェクトを初期位置に配置したり、ゲーム処理で用いる各種パラメータの初期値を設定したりする処理である。 Initial processing, for example, to construct a virtual game space, or to place the objects appearing in the game space in the initial position, a process or set the initial values ​​of various parameters used in the game process.

また、本実施形態においては、初期処理において、CPU10は、ゲームプログラムの種類に基づいてマーカ装置6およびマーカ部55の点灯を制御する。 In the present embodiment, in the initialization process, CPU 10 controls the lighting of the marker device 6 and the marker portion 55 based on the type of game program. ここで、ゲームシステム1は、コントローラ5の撮像手段(撮像情報演算部35)の撮像対象として、マーカ装置6と端末装置7のマーカ部55との2つを有している。 Here, the game system 1, as the imaging target of the imaging means of the controller 5 (the imaging information calculation section 35), has two of the marker portion 55 of the marker device 6 and the terminal device 7. ゲームの内容(ゲームプログラムの種類)によっては、マーカ装置6とマーカ部55のうちいずれかが使用されたり、あるいは、両方が使用されたりする。 Some games content (type of game program), or any can be used out of the marker device 6 and the marker portion 55, or both or used. なお、ゲームプログラム90には、マーカ装置6およびマーカ部55のそれぞれについて点灯させるか否かを表すデータ含まれている。 Note that the game program 90 includes data indicating whether or not to light up for each of the marker device 6 and the marker portion 55. CPU10は、当該データを読み出して点灯させるか否かを判断する。 CPU10 determines whether or not to light reads the data. そして、マーカ装置6および/またはマーカ部55を点灯させる場合には以下の処理を実行する。 When lighting the marker device 6 and / or the marker unit 55 executes the following process.

すなわち、マーカ装置6を点灯する場合、CPU10は、マーカ装置6が備える各赤外LEDを点灯させる旨の制御信号をマーカ装置6へ送信する。 That is, when turning on the marker device 6, CPU 10 transmits a control signal for turning on the each infrared LED of the marker device 6 to the marker device 6. この制御信号の送信は単に電力を供給するというだけのことであってもよい。 Transmission of the control signal may simply be only that say powering. これに応じてマーカ装置6の各赤外LEDが点灯される。 Each infrared LED of the marker device 6 is turned on in accordance with the. 一方、マーカ部55を点灯する場合、CPU10は、マーカ部55を点灯する指示を表す制御データを生成してメインメモリに記憶する。 On the other hand, if turning on the marker section 55, CPU 10 stores in the main memory to generate the control data representing an instruction to light up the marker portion 55. 生成された制御データは、後述するステップS10において端末装置7へ送信される。 Generated control data is transmitted to the terminal device 7 in step S10 to be described later. 端末装置7の無線モジュール80において受信された制御データは、コーデックLSI76を介してUIコントローラ75へ送られ、UIコントローラ75はマーカ部55に点灯する指示を行う。 Control data received in the wireless module 80 of the terminal device 7 is sent to the UI controller 75 via the codec LSI 76, the UI controller 75 performs an instruction to light up the marker portion 55. これによってマーカ部55の赤外LEDが点灯する。 This infrared LED of the marker section 55 is turned on. なお、上記においてはマーカ装置6およびマーカ部55を点灯させる場合を説明したが、マーカ装置6およびマーカ部55の消灯は、点灯する場合と同様の処理によって行うことができる。 In the above explained a case of lighting the marker device 6 and the marker portion 55, but off of the marker device 6 and the marker portion 55 can be performed by the same processing as for lighting.

以上のステップS1の次にステップS2の処理が実行される。 Processing of a step S2 in the above step S1 is executed. 以降、ステップS2〜S11の一連の処理からなる処理ループが所定時間(1フレーム時間)に1回の割合で繰り返し実行される。 Hereinafter, the process loop consisting of a series of processes of steps S2~S11 is repeatedly executed every predetermined time (1 frame time).

ステップS2において、CPU10は、コントローラ5から送信されてくるコントローラ操作データを取得する。 In step S2, CPU 10 obtains the controller operation data transmitted from the controller 5. コントローラ5はコントローラ操作データをゲーム装置3へ繰り返し送信するので、ゲーム装置3においては、コントローラ通信モジュール19が当該コントローラ操作データを逐次受信し、受信されたコントローラ操作データが入出力プロセッサ11aによってメインメモリに逐次記憶される。 Since the controller 5 repeatedly transmits the controller operation data to the game apparatus 3, the game apparatus 3, the main memory controller communication module 19 by the controller operation data sequentially receive, the received controller operation data input-output processor 11a It is sequentially stored in. 送受信の間隔はゲームの処理時間よりも短い方が好ましく、例えば200分の1秒である。 Distance transmission and reception shorter than the processing time of the game is preferably, for example, 200 minutes 1 second. ステップS2においては、CPU10は、最新のコントローラ操作データ92をメインメモリから読み出す。 In step S2, CPU 10 reads out the latest controller operation data 92 from the main memory. ステップS2の次にステップS3の処理が実行される。 Processing of a step S3 in the step S2 is executed.

ステップS3において、CPU10は、端末装置7から送信されてくる各種のデータを取得する。 In step S3, CPU 10 obtains various kinds of data transmitted from the terminal device 7. 端末装置7は、端末操作データとカメラ画像データとマイク音データとをゲーム装置3へ繰り返し送信するので、ゲーム装置3はこれらのデータを逐次受信する。 The terminal device 7, so repeatedly transmits the terminal operation data and the camera image data and the microphone sound data to the game apparatus 3, the game apparatus 3 receives these data sequentially. ゲーム装置3においては、端末通信モジュール28がこれらのデータを逐次受信し、カメラ画像データおよびマイク音データについてはコーデックLSI27によって伸張処理が逐次施される。 In the game apparatus 3, the terminal communication module 28 receives these data sequentially, the camera image data and the microphone sound data decompression process by the codec LSI27 is performed sequentially. そして、入出力プロセッサ11aが端末操作データとカメラ画像データとマイク音データとをメインメモリに逐次記憶する。 Then, the input-output processor 11a is sequentially stores the terminal operation data and the camera image data and the microphone sound data to the main memory. ステップS3においては、CPU10は、最新の端末操作データ97をメインメモリから読み出す。 In step S3, CPU 10 reads the latest terminal operation data 97 from the main memory. ステップS3の次にステップS4の処理が実行される。 Processing of a step S4 in the step S3 is executed.

ステップS4において、CPU10はゲーム制御処理を実行する。 In step S4, CPU 10 executes the game control process. ゲーム制御処理は、ユーザによるゲーム操作に従ってゲーム空間内のオブジェクトを動作させる処理等を実行し、ゲームを進行させる処理である。 Game control process, executes the processing for operating the object in the game space according to the game operation by the user, is proceeding with a game. 本実施形態においては、ユーザは、コントローラ5および/または端末装置7を用いて種々のゲームを行うことが可能である。 In the present embodiment, the user can perform various game using the controller 5 and / or the terminal device 7. 以下、図20を参照して、ゲーム制御処理について説明する。 Referring to FIG. 20, described game control process.

図20は、ゲーム制御処理の詳細な流れを示すフローチャートである。 Figure 20 is a flowchart showing a detailed flow of the game control process. なお、図20に示す一連の処理は、コントローラ5および端末装置7を操作装置として用いる場合において実行され得る種々の処理であるが、各処理の必ずしも全てが実行される必要はなく、ゲームの種類や内容によっては一部の処理のみが実行されてもよい。 A series of processes shown in FIG. 20 is a variety of processes that may be performed in the case of using the controller 5 and the terminal device 7 as an operation device, not necessarily all be performed in each process, the type of game or it may be only a part of the processing is performed depending on the contents.

ゲーム制御処理においては、まずステップS21において、CPU10は、使用するマーカを変更するか否かを判定する。 In the game control process, first, in step S21, CPU 10 determines whether or not to change the markers to be used. 上述のように、本実施形態においては、ゲーム処理の開始時(ステップS1)において、マーカ装置6およびマーカ部55の点灯を制御する処理が実行される。 As described above, in the present embodiment, at the start of the game processing in (step S1), the process of controlling the lighting of the marker device 6 and the marker portion 55 is executed. ここで、ゲームによっては、ゲームの途中でマーカ装置6およびマーカ部55のうちで使用する(点灯する)対象を変更する場合も考えられる。 Here, depending on the game, (lit) use among the marker device 6 and the marker portion 55 in the middle of a game may be a case of changing the target. また、ゲームによってはマーカ装置6およびマーカ部55の両方を使用することも考えられるが、両方を点灯させると、一方のマーカを他方のマーカと誤検出してしまうおそれがある。 Also, some games it is conceivable to use both marker device 6 and the marker portion 55, and light up both, there is a possibility that one of the marker erroneously detected as the other markers. そのため、ゲーム中において、いずれか一方のみを点灯させるように点灯を切り替えて使用することが好ましい場合もある。 Therefore, during the game, it may be preferable to use switch the lighting to be turned only one. ステップS21の処理は、かかる場合を考慮し、点灯する対象をゲーム途中で変更するか否かを判定する処理である。 Processing in step S21, considering such a case, the object to be lit a process of determining whether to change the way the game.

上記ステップS21の判定は、例えば以下の方法で行うことができる。 Determination in step S21 can be performed, for example, by the following method. すなわち、CPU10は、ゲーム状況(ゲームのステージや操作対象等)が変化したか否かによって上記判定を行うことができる。 That, CPU 10, depending whether or not the game situation (game stage or the operation target, etc.) has changed it is possible to perform the determination. ゲーム状況が変化する場合、マーカ装置6の方を向けてコントローラ5を操作する操作方法と、マーカ部55の方を向けてコントローラ5を操作する操作方法との間で、操作方法が変更されることが考えられるからである。 If the game situation is changed, between the operating method of operating a controller 5 toward the direction of the marker device 6, an operating method of operating a controller 5 toward the direction of the marker portion 55, the operation method is changed it is because it is considered. また、CPU10は、コントローラ5の姿勢に基づいて上記判定を行うことができる。 Further, CPU 10 may perform the determination based on the attitude of the controller 5. すなわち、コントローラ5がマーカ装置6の方を向いているか、マーカ部55の方を向いているかによって上記判定を行うことができる。 That is, it is possible to controller 5 or facing towards the marker device 6 performs the determination depending on whether faces the marker portion 55. なお、コントローラ5の姿勢は、例えば加速度センサ37やジャイロセンサ48の検出結果に基づいて算出することができる(後述するステップS23参照)。 Incidentally, the attitude of the controller 5 can be calculated based on, for example, on the detection result of the acceleration sensor 37 and gyro sensor 48 (see step S23 to be described later). また、CPU10は、ユーザによる変更指示があったか否かによって上記判定を行うこともできる。 Further, CPU 10 may also perform the determination on whether or not there is a change instruction from the user.

上記ステップS21の判定結果が肯定である場合、ステップS22の処理が実行される。 When the determination result of the step S21 is affirmative, the process of step S22 is executed. 一方、上記ステップS21の判定結果が否定である場合、ステップS22の処理がスキップされてステップS23の処理が実行される。 On the other hand, when the determination result of the step S21 is negative, the process of step S22 is skipped and processing in step S23 is executed.

ステップS22において、CPU10は、マーカ装置6およびマーカ部55の点灯を制御する。 In step S22, CPU 10 controls the lighting of the marker device 6 and the marker portion 55. すなわち、マーカ装置6および/またはマーカ部55の点灯状態を変更する。 That is, it changes the lighting state of the marker device 6 and / or the marker section 55. なお、マーカ装置6および/またはマーカ部55を点灯または消灯する具体的な処理は、上記ステップS1の場合と同様に行うことができる。 A specific process of turning on or off the marker device 6 and / or the marker 55 can be performed as in the case of the step S1. ステップS22の次にステップS23の処理が実行される。 Processing of a step S23 in step S22 is executed.

以上のように本実施形態によれば、上記ステップS1の処理によって、ゲームプログラムの種類に応じてマーカ装置6およびマーカ部55の発光(点灯)を制御することができるとともに、上記ステップS21およびS22の処理によって、ゲーム状況に応じてマーカ装置6およびマーカ部55の発光(点灯)を制御することができる。 According to this embodiment as described above, by the processing of step S1, it is possible to control the light emission of the marker device 6 and the marker portion 55 (light) in accordance with the type of game program, the steps S21 and S22 the processing, it is possible to control the light emission of the marker device 6 and the marker portion 55 (light) in accordance with the game situation.

ステップS23において、CPU10はコントローラ5の姿勢を算出する。 In step S23, CPU 10 calculates the attitude of the controller 5. 本実施形態では、コントローラ5の姿勢は、第1加速度データ94、第1角速度データ95、およびマーカ座標データ96に基づいて算出される。 In the present embodiment, the attitude of the controller 5, the first acceleration data 94 is calculated based on the first angular velocity data 95 and marker coordinate data 96,. 以下、コントローラ5の姿勢の算出方法について説明する。 Hereinafter, the method for calculating the attitude of the controller 5.

まず、CPU10は、メインメモリに記憶されている第1角速度データ95に基づいてコントローラ5の姿勢を算出する。 First, CPU 10 calculates the attitude of the controller 5 based on the first angular velocity data 95 stored in the main memory. コントローラ5の姿勢を角速度から算出する方法はどのような方法であってもよいが、当該姿勢は、前回の姿勢(前回に算出された姿勢)と、今回の角速度(今回の処理ループにおけるステップS2で取得された角速度)とを用いて算出される。 Method for calculating the attitude of the controller 5 from the angular velocity may be any method, the posture, the previous orientation (calculated posture last), the step S2 in the current angular velocity (current process loop It is calculated using the acquired angular velocity) and in. 具体的には、CPU10は、前回の姿勢を今回の角速度で単位時間分だけ回転させることによって姿勢を算出する。 Specifically, CPU 10 calculates the attitude by rotating by unit time the last position in this angular velocity. なお、前回の姿勢は、メインメモリに記憶されているコントローラ姿勢データ108により表され、今回の角速度は、メインメモリに記憶されている第1角速度データ95により表される。 Incidentally, the last position is represented by the controller posture data 108 stored in the main memory, this angular velocity is represented by the first angular velocity data 95 stored in the main memory. したがって、CPU10は、メインメモリからコントローラ姿勢データ108および第1角速度データ95を読み出して、コントローラ5の姿勢を算出する。 Thus, CPU 10 reads the controller posture data 108 and the first angular velocity data 95 from the main memory, calculates the attitude of the controller 5. 以上のようにして算出された「角速度に基づく姿勢」を表すデータはメインメモリに記憶される。 Data indicating "position based on the angular velocity," which is calculated as described above is stored in the main memory.

なお、角速度から姿勢を算出する場合、初期姿勢を定めておくのがよい。 In the case of calculating the attitude from the angular velocity, good idea to set the initial position. つまり、コントローラ5の姿勢を角速度から算出する場合には、CPU10は、最初にコントローラ5の初期姿勢を算出しておく。 That is, when calculating the attitude of the controller 5 from the angular velocity, CPU 10 may advance to calculate the initial attitude of the first controller 5. コントローラ5の初期姿勢は、加速度データに基づいて算出されてもよいし、コントローラ5を特定の姿勢にした状態でプレイヤに所定の操作を行わせることで、所定の操作が行われた時点における特定の姿勢を初期姿勢として用いるようにしてもよい。 Initial attitude of the controller 5 may be calculated based on the acceleration data, by causing a predetermined operation to the player in a state where the controller 5 to a specific position, the specific at the time a predetermined operation is performed the attitude may be used as the initial attitude. なお、空間における所定方向を基準とした絶対的な姿勢としてコントローラ5の姿勢を算出する場合には上記初期姿勢を算出することが良いが、例えばゲーム開始時点におけるコントローラ5の姿勢を基準とした相対的な姿勢としてコントローラ5の姿勢を算出する場合には、上記初期姿勢は算出されなくても良い。 Although it is better to calculate the initial attitude in the case of calculating the attitude of the controller 5 as an absolute position relative to the predetermined direction in space, for example with reference to the posture of the controller 5 in the game start time relative specifically in the case of calculating the attitude of the controller 5 as attitude, the initial posture may not be calculated.

次に、CPU10は、角速度に基づいて算出したコントローラ5の姿勢を、第1加速度データ94を用いて補正する。 Then, CPU 10 is the attitude of the controller 5 which is calculated on the basis of the angular velocity is corrected by using the first acceleration data 94. 具体的には、CPU10はまず、メインメモリから第1加速度データ94を読み出して、第1加速度データ94に基づいてコントローラ5の姿勢を算出する。 Specifically, CPU 10 first reads the first acceleration data 94 from the main memory, calculates the attitude of the controller 5 based on the first acceleration data 94. ここで、コントローラ5がほぼ静止している状態では、コントローラ5に対して加えられる加速度は重力加速度を意味する。 Here, in the state where the controller 5 is substantially stationary, acceleration applied to the controller 5 refers to the gravitational acceleration. したがって、この状態においては、加速度センサ37が出力する第1加速度データ94を用いて重力加速度の方向(重力方向)を算出することができるので、重力方向に対するコントローラ5の向き(姿勢)を当該第1加速度データ94に基づいて算出することができる。 Therefore, in this state, it is possible to use the first acceleration data 94 by the acceleration sensor 37 outputs to calculate the direction of the gravitational acceleration (gravity direction), the orientation of the controller 5 relative to the gravity direction (posture) the first it can be calculated based on the first acceleration data 94. 以上のようにして算出された「加速度に基づく姿勢」を表すデータはメインメモリに記憶される。 Data indicating "position based on the acceleration" which is calculated as described above is stored in the main memory.

加速度に基づく姿勢を算出すると、CPU10は次に、加速度に基づく姿勢を用いて、角速度に基づく姿勢を補正する。 After calculating the posture based on the acceleration, CPU 10 then uses the position based on the acceleration, it corrects the posture based on the angular velocity. 具体的には、CPU10は、角速度に基づく姿勢を表すデータと加速度に基づく姿勢を表すデータとをメインメモリから読み出し、角速度データに基づく姿勢を、加速度データに基づく姿勢へ所定の割合で近づける補正を行う。 Specifically, CPU 10 reads out the data representing the attitude based on the data and the acceleration representing the attitude based on the angular velocity from the main memory, an attitude based on the angular velocity data, a correction to approach at a predetermined rate to the attitude based on the acceleration data do. この所定の割合は、予め定められた固定値であってもよいし、第1加速度データ94が示す加速度等に応じて設定されてもよい。 The predetermined rate may be a predetermined fixed value, or may be set according to the acceleration, etc. of the first acceleration data 94 is shown. また、加速度に基づく姿勢に関しては、重力方向を軸とする回転方向については姿勢を算出することができないので、CPU10は、当該回転方向に関しては補正を行わないようにしてもよい。 Regarding the posture based on acceleration, since the rotational direction of the gravity direction and the axis can not calculate the orientation, CPU 10 may be configured not to perform the correction with respect to the direction of rotation. 本実施形態においては、以上のようにして得られた補正後の姿勢を表すデータはメインメモリに記憶される。 In the present embodiment, the data representing the attitude after correction obtained in the above manner is stored in the main memory.

上記のようにして角速度に基づく姿勢を補正した後、CPU10は、補正後の姿勢をマーカ座標データ96を用いてさらに補正する。 After as described above to correct the posture based on the angular velocity, CPU 10 is further corrected by using the marker coordinate data 96 the attitude after correction. まず、CPU10は、マーカ座標データ96に基づいてコントローラ5の姿勢(マーカ座標に基づく姿勢)を算出する。 First, CPU 10 calculates the attitude of the controller 5 (the posture based on the marker coordinates) based on the marker coordinate data 96. マーカ座標データ96は、撮像画像内におけるマーカ6Rおよび6Lの位置を示すので、これらの位置から、ロール方向(Z軸回りの回転方向)に関するコントローラ5の姿勢を算出することができる。 Marker coordinate data 96, it indicates the position of the markers 6R and 6L in the captured image, can be obtained from these positions, it calculates the attitude of the controller 5 with respect to a roll direction (Z-axis rotation direction). つまり、撮像画像内においてマーカ6Rの位置とマーカ6Lの位置とを結ぶ直線の傾きから、ロール方向に関するコントローラ5の姿勢を算出することができる。 That is, from the slope of a straight line connecting the positions of the marker 6L of the marker 6R in the captured image, it is possible to calculate the attitude of the controller 5 with respect to the rolled direction. また、マーカ装置6に対するコントローラ5の位置が特定できる場合(例えば、マーカ装置6の正面にコントローラ5が位置すると想定できる場合)には、撮像画像内におけるマーカ装置6の位置から、ピッチ方向およびヨー方向に関するコントローラ5の姿勢を算出することができる。 Also, if the position of the controller 5 relative to the marker device 6 can be identified (for example, if it assumed that the controller 5 is positioned in front of the marker device 6), from the position of the marker device 6 in the captured image, the pitch direction and yaw it is possible to calculate the attitude of the controller 5 with respect to the direction. 例えば、撮像画像内においてマーカ6Rおよび6Lの位置が左に移動した場合、コントローラ5は右に向き(姿勢)を変えたと判断することができる。 For example, if the positions of the markers 6R and 6L in the captured image moves to the left, the controller 5 can determine that changing the direction (posture) to the right. このように、マーカ6Rおよびマーカ6Lの位置から、ピッチ方向およびヨー方向に関するコントローラ5の姿勢を算出することができる。 Thus, from the position of the markers 6R and a marker 6L, it is possible to calculate the attitude of the controller 5 with respect to the pitch and yaw directions. 以上のようにして、マーカ座標データ96に基づいてコントローラ5の姿勢を算出することができる。 As described above, it is possible to calculate the attitude of the controller 5 based on the marker coordinate data 96.

マーカ座標に基づく姿勢を算出すると、CPU10は次に、上記補正後の姿勢(加速度に基づく姿勢によって補正された姿勢)を、マーカ座標に基づく姿勢で補正する。 After calculating the posture based on the marker coordinates, CPU 10 then the attitude of the corrected (the posture corrected by the posture based on the acceleration), is corrected in a posture based on the marker coordinates. すなわち、CPU10は、補正後の姿勢を、マーカ座標に基づく姿勢へ所定の割合で近づける補正を行う。 That, CPU 10 has the posture corrected is corrected to approach at a predetermined rate to the attitude based on the marker coordinates. この所定の割合は、予め定められた固定値であってもよい。 The predetermined percentage may be a fixed value set in advance. また、マーカ座標に基づく姿勢による補正は、ロール方向、ピッチ方向、およびヨー方向のいずれか1つまたは2つの方向のみについて行われてもよい。 The correction due to the attitude based on the marker coordinate in the roll direction may be performed for only any one or two directions in the pitch direction, and the yaw direction. 例えば、マーカ座標データ96を用いる場合、ロール方向については精度良く姿勢を算出することができるので、CPU10は、ロール方向についてのみ、マーカ座標データ96に基づく姿勢を用いて補正を行ってもよい。 For example, when using the marker coordinate data 96, since the roll direction can be calculated accurately position, CPU 10, for the roll direction only, it may be corrected using the attitude based on the marker coordinate data 96. また、コントローラ5の撮像素子40によってマーカ装置6またはマーカ部55が撮像されていない場合は、マーカ座標データ96に基づく姿勢を算出することができないので、この場合にはマーカ座標データ96を用いる補正処理は実行されなくてもよい。 Further, if the marker device 6 or the marker portion 55 is not captured by the imaging device 40 of the controller 5, it is not possible to calculate the attitude based on the marker coordinate data 96, in this case using the marker coordinate data 96 corrected processing may not be executed.

上記によれば、CPU10は、第1角速度データ95に基づいて算出されたコントローラ5の第1姿勢を、第1加速度データ94およびマーカ座標データ96を用いて補正した。 According to the above, CPU 10 has a first attitude of the controller 5 that is calculated based on the first angular velocity data 95, it corrected using the first acceleration data 94 and marker coordinate data 96. ここで、コントローラ5の姿勢を算出する方法のうち、角速度を用いる方法では、コントローラ5がどのように動いているときであっても姿勢を算出することができる。 Here, out of the way of calculating the attitude of the controller 5, the method using an angular velocity, even when the controller 5 is how movement can be calculated attitude. 一方、角速度を用いる方法では、逐次検出される角速度を累積加算していくことによって姿勢を算出するので、誤差が累積すること等によって精度が悪くなったり、いわゆる温度ドリフトの問題でジャイロセンサの精度が悪くなったりするおそれがある。 On the other hand, in the method of using the angular velocity, so calculates the attitude by going angular velocity to be detected successively cumulatively added, or worse accuracy by such errors accumulate, the gyro sensor of the so-called temperature drift problems precision there is a fear that may become worse. また、加速度を用いる方法は、誤差が蓄積しない一方、コントローラ5が激しく動かされている状態では、(重力方向を正確に検出することができないので)姿勢を精度良く算出することができない。 Further, a method using the acceleration, while the error is not accumulated, in the state where the controller 5 is being violently moved, it is impossible to calculate accurately (it is not possible to accurately detect the direction of gravity) position. また、マーカ座標を用いる方法は、(特にロール方向に関して)姿勢を精度良く算出することができる一方、マーカ部55を撮像できない状態では姿勢を算出することができない。 Further, a method of using the marker coordinates, (particularly with regard to the roll direction), while orientation can be accurately calculated, it is impossible to calculate the orientation in the state that can not image the marker portion 55. これに対して、本実施形態によれば、上記のように特長の異なる3種類の方法を用いるので、コントローラ5の姿勢をより正確に算出することができる。 In contrast, according to this embodiment, since using the features of three different methods as described above, it is possible to more accurately calculate the attitude of the controller 5. なお、他の実施形態においては、上記3つの方法のうちいずれか1つまたは2つを用いて姿勢を算出するようにしてもよい。 Note that in other embodiments, may be calculated either one or two attitude using one of the above three methods. また、上記ステップS1またはS22の処理においてマーカの点灯制御を行う場合には、CPU10は、少なくともマーカ座標を用いてコントローラ5の姿勢を算出することが好ましい。 Further, when the lighting control of the marker in the process of step S1 or S22,, CPU 10, it is preferable to calculate the attitude of the controller 5 by using at least a marker coordinate.

上記ステップS23の次に、ステップS24の処理が実行される。 Following the step S23, the processing of step S24 is executed. ステップS24においては、CPU10は、端末装置7の姿勢を算出する。 In step S24, CPU 10 calculates the attitude of the terminal device 7. すなわち、端末装置7から取得される端末操作データ97には、第2加速度データ101、第2角速度データ102、および方位データ103が含まれるので、CPU10は、これらのデータに基づいて端末装置7の姿勢を算出する。 That is, the terminal operation data 97 is acquired from the terminal device 7, the second acceleration data 101, the second angular velocity data 102, and since the orientation data 103 is included, CPU 10 is a terminal device 7 on the basis of these data to calculate the attitude. ここで、CPU10は、第2角速度データ102によって端末装置7の単位時間当たりにおける回転量(姿勢の変化量)を知ることができる。 Here, CPU 10 may be the second angular velocity data 102 know the rotation amount per unit time of the terminal device 7 (the amount of change of the posture). また、端末装置7がほぼ静止している状態では、端末装置7に対して加えられる加速度は重力加速度を意味するので、第2加速度データ101によって端末装置7に加えられる重力方向(すなわち、重力方向を基準とした端末装置7の姿勢)を知ることができる。 In a state where the terminal device 7 are substantially stationary, since acceleration applied to the terminal device 7 means gravitational acceleration, the gravitational direction exerted on the terminal device 7 by the second acceleration data 101 (i.e., the direction of gravity it is possible to know the posture) of the terminal device 7 relative to the. また、方位データ103によって、端末装置7を基準とした所定の方位(すなわち、所定の方位を基準とした端末装置7の姿勢)を知ることができる。 Furthermore, the orientation data 103, predetermined orientation relative to the terminal device 7 (i.e., the posture of the terminal device 7 relative to the predetermined direction) can be known. なお、地磁気以外の磁界が発生している場合であっても、端末装置7の回転量を知ることができる。 Even when the magnetic field other than geomagnetism is occurring, it is possible to know the rotation amount of the terminal device 7. したがって、CPU10は、これら第2加速度データ101、第2角速度データ102、および方位データ103に基づいて端末装置7の姿勢を算出することができる。 Thus, CPU 10 can these second acceleration data 101, based on the second angular velocity data 102 and the orientation data 103, calculates the attitude of the terminal device 7. なお、本実施形態においては、上記3つのデータに基づいて端末装置7の姿勢を算出するが、他の実施形態においては、上記3つのデータのうち1つまたは2つに基づいて姿勢を算出するようにしてもよい。 In the present embodiment, to calculate the attitude of the terminal device 7 based on the three data, in other embodiments, to calculate the one or two position on the basis of one of the three data it may be so.

なお、端末装置7の姿勢の具体的な算出方法はどのような方法であってもよいが、例えば、第2角速度データ102が表す角速度に基づいて算出される姿勢を、第2加速度データ101および方位データ103を用いて補正する方法が考えられる。 Incidentally, specific method for calculating the attitude of the terminal device 7 may be any method, for example, the posture calculated based on the angular velocity which the second angular velocity data 102 represents second acceleration data 101 and method of correcting by using the orientation data 103 is considered. 具体的には、CPU10は、まず、第2角速度データ102に基づいて端末装置7の姿勢を算出する。 Specifically, CPU 10 first calculates the attitude of the terminal device 7 based on the second angular velocity data 102. なお、角速度に基づいて姿勢を算出する方法は、上記ステップS23における方法と同様であってもよい。 A method of calculating the orientation on the basis of the angular velocity may be similar to the method in step S23. 次に、CPU10は、適宜のタイミング(例えば、端末装置7が静止状態に近い場合に)で、角速度に基づいて算出される姿勢を、第2加速度データ101に基づいて算出される姿勢、および/または、方位データ103に基づいて算出される姿勢によって補正する。 Tsugini, CPU10 is Tekigi of Taimingu (eg, to case Tanmatsu apparatus 7 is Chikai to Seishi Jotai) at, a Shisei being calculated in Motozui on Kakusokudo, Shisei are calculated in Motozui on first 2 Kasokudo data 101 and / or, corrected by the attitude calculated based on the orientation data 103. なお、角速度に基づく姿勢を加速度に基づく姿勢で補正する方法は、上述したコントローラ5の姿勢を算出する場合と同様の方法であってもよい。 A method for correcting a posture based posture based on the angular velocity to the acceleration may be a same method as in the case of calculating the attitude of the controller 5 described above. また、角速度に基づく姿勢を方位データに基づく姿勢で補正する場合には、CPU10は、角速度に基づく姿勢を、方位データに基づく姿勢へと所定の割合で近づけるようにしてもよい。 Further, in correcting a posture based posture based on the angular velocity in azimuth data, CPU 10 is an attitude based on the angular velocity, it may be to position based on the orientation data close at a predetermined rate. 以上によれば、CPU10は、端末装置7の姿勢を正確に算出することができる。 According to the above, CPU 10 can accurately calculate the orientation of the terminal device 7.

なお、コントローラ5は、赤外線検知手段である撮像情報演算部35を備えているので、ゲーム装置3はマーカ座標データ96を取得することができる。 The controller 5 is provided with the imaging information calculation section 35 is an infrared detection means, the game apparatus 3 can obtain the marker coordinate data 96. そのため、コントローラ5に関しては、ゲーム装置3は、実空間における絶対的な姿勢(実空間に設定された座標系においてコントローラ5がどのような姿勢であるか)をマーカ座標データ96から知ることができる。 Therefore, with respect to the controller 5, the game apparatus 3 is able to know the absolute position in the real space (or the controller 5 in the set coordinate system in the real space is in any form) from the marker coordinate data 96 . 一方、端末装置7は撮像情報演算部35のような赤外線検知手段を備えていない。 On the other hand, the terminal device 7 does not include an infrared detector, such as the imaging information calculation section 35. そのため、ゲーム装置3は、第2加速度データ101および第2角速度データ102からのみでは、重力方向を軸とした回転方向に関して実空間における絶対的な姿勢を知ることができない。 Therefore, the game apparatus 3 only from the second acceleration data 101 and the second angular velocity data 102, can not know the absolute position in the real space with respect to the rotational direction in which the direction of gravity and the axis. そこで、本実施形態では端末装置7が磁気センサ72を備える構成とし、ゲーム装置3は方位データ103を取得するようにしている。 Therefore, in this embodiment, a configuration in which the terminal device 7 is provided with a magnetic sensor 72, the game apparatus 3 is configured to acquire orientation data 103. これによれば、ゲーム装置3は、重力方向を軸とした回転方向に関して実空間における絶対的な姿勢を方位データ103から算出することができ、端末装置7の姿勢をより正確に算出することができる。 According to this, the game apparatus 3, an absolute attitude in the real space with respect to the rotational direction in which the gravity direction and the axis can be calculated from the azimuth data 103, is possible to calculate the attitude of the terminal device 7 more accurately it can.

上記ステップS24の具体的な処理としては、CPU10は、第2加速度データ101、第2角速度データ102、および方位データ103をメインメモリから読み出し、これらのデータに基づいて端末装置7の姿勢を算出する。 As a specific process of step S24, CPU 10, the second acceleration data 101, reads the second angular velocity data 102, and the orientation data 103 from the main memory, and calculates the attitude of the terminal device 7 on the basis of these data . そして、算出された端末装置7の姿勢を表すデータを端末姿勢データ109としてメインメモリに記憶する。 Then, in the main memory data representing the attitude of the calculated terminal apparatus 7 as the terminal attitude data 109. ステップS24の次にステップS25の処理が実行される。 Processing of a step S25 in step S24 is executed.

ステップS25において、CPU10は、カメラ画像の認識処理を実行する。 In step S25, CPU 10 executes a recognition process of the camera image. すなわち、CPU10は、カメラ画像データ104に対して所定の認識処理を行う。 That, CPU 10 performs predetermined recognition processing on the camera image data 104. この認識処理は、カメラ画像から何らかの特徴を検知してその結果を出力するものであればどのようなものであってもよい。 The recognition process is to detect some feature from the camera images may be any as long as it outputs the result. 例えば、カメラ画像にプレイヤの顔が含まれている場合には、顔を認識する処理であってもよい。 For example, when the camera image contains a face of the player can be a process of recognizing a face. 具体的には、顔の一部(目や鼻や口等)を検出する処理であってもよいし、顔の表情を検出する処理であってもよい。 More specifically, the present invention may be a process for detecting a part of the face (eyes, nose, mouth, etc.), or may be a process of detecting facial expressions. また、認識処理の結果を表すデータは、画像認識データ110としてメインメモリに記憶される。 Further, data representing the result of the recognition processing is stored as image recognition data 110 into the main memory. ステップS25の次にステップS26の処理が実行される。 Processing of a step S26 in step S25 is executed.

ステップS26において、CPU10は、マイク音声の認識処理を実行する。 In step S26, CPU 10 executes a recognition process of the microphone sound. すなわち、CPU10は、マイク音データ105に対して所定の認識処理を行う。 That, CPU 10 performs predetermined recognition processing for the microphone sound data 105. この認識処理は、マイク音声から何らかの特徴を検知してその結果を出力するものであればどのようなものであってもよい。 The recognition process may be any as long as it outputs the result to detect some feature from the microphone sound. 例えば、マイク音声からプレイヤの指示を検出する処理であってもよいし、単にマイク音声の音量を検出する処理であってもよい。 For example, it may be a process of detecting an instruction of the player from the microphone sound may simply be a process for detecting the volume of the microphone sound. また、認識処理の結果を表すデータは、音声認識データ111としてメインメモリに記憶される。 Further, data representing the result of the recognition processing is stored in the main memory as the speech recognition data 111. ステップS26の次にステップS27の処理が実行される。 Processing of a step S27 in step S26 is executed.

ステップS27において、CPU10は、ゲーム入力に応じたゲーム処理を実行する。 In step S27, CPU 10 executes a game process according to the game input. ここで、ゲーム入力とは、コントローラ5または端末装置7から送信されてくるデータ、あるいは、当該データから得られるデータであればどのようなものであってもよい。 Here, the game input, data transmitted from the controller 5 or the terminal device 7 or may be of any type as long as the data obtained from the data. 具体的には、ゲーム入力は、コントローラ操作データ92および端末操作データ97に含まれる各データの他、当該各データから得られるデータ(コントローラ姿勢データ108、端末姿勢データ109、画像認識データ110、および音声認識データ111)であってもよい。 Specifically, the game input, in addition to the data included in the controller operation data 92 and terminal operation data 97, data (controller posture data 108 obtained from the respective data, the terminal attitude data 109, the image recognition data 110 and, it may be a speech recognition data 111). また、ステップS27におけるゲーム処理の内容はどのようなものであってもよく、例えば、ゲームに登場するオブジェクト(キャラクタ)を動作させる処理、仮想カメラを制御する処理、または、画面に表示されるカーソルを移動する処理であってもよい。 Further, it whatever the content of the game processing in step S27, for example, processing for operating an object (character) in the game, the process controls the virtual camera, or the cursor on the screen it may be a process of moving. また、カメラ画像(またはその一部)をゲーム画像として用いる処理、または、マイク音声をゲーム音声として用いる処理等であってもよい。 The processing using the camera image (or portion thereof) as a game image, or may be a process of using a microphone sound as a game sound. なお上記ゲーム処理の例については後述する。 Is described later examples of the game process. ステップS27においては、例えば、ゲームに登場するキャラクタ(オブジェクト)に設定される各種パラメータのデータや、ゲーム空間に配置される仮想カメラに関するパラメータのデータや、得点のデータ等、ゲーム制御処理の結果を表すデータがメインメモリに記憶される。 In step S27, for example, data of various parameters set for the character (object) appearing in the game, and parameters of the data relating to the virtual camera placed in the game space, data and the like scores, the results of the game control process data representing is stored in the main memory. ステップS27の後、CPU10はステップS4のゲーム制御処理を終了する。 After step S27, CPU 10 ends the game control process in step S4.

図19の説明に戻り、ステップS5において、テレビ2に表示するためのテレビ用ゲーム画像がCPU10およびGPU11bによって生成される。 Referring back to FIG. 19, in step S5, the television game image to be displayed on the television 2 is generated by the CPU10 and GPU 11b. すなわち、CPU10およびGPU11bは、ステップS4のゲーム制御処理の結果を表すデータをメインメモリから読み出し、また、ゲーム画像を生成するために必要なデータをVRAM11dから読み出し、ゲーム画像を生成する。 That, CPU 10 and GPU11b reads the data representing the result of the game control process in step S4 from the main memory and reading the data necessary for generating a game image from the VRAM 11 d, to generate the game image. ゲーム画像は、ステップS4のゲーム制御処理の結果を表すものであればよく、どのような方法で生成されてもよい。 Game image may be one representing the result of the game control process in step S4, it may be generated by any method. 例えば、ゲーム画像の生成方法は、仮想のゲーム空間内に仮想カメラを配置して、仮想カメラから見たゲーム空間を計算することによって3次元のCG画像を生成する方法であってもよいし、(仮想カメラを用いずに)2次元の画像を生成する方法であってもよい。 For example, a method of generating a game image by arranging the virtual camera in the virtual game space may be a method for generating a 3-dimensional CG image by calculating the game space seen from the virtual camera, (without using the virtual camera) or a method of generating a two-dimensional image. 生成されたテレビ用ゲーム画像はVRAM11dに記憶される。 The generated television game image is stored in the VRAM11d. 上記ステップS5の次にステップS6の処理が実行される。 Processing of a step S6 in the step S5 is executed.

ステップS6において、端末装置7に表示するための端末用ゲーム画像がCPU10およびGPU11bによって生成される。 In step S6, the terminal game image to be displayed on the terminal device 7 is generated by the CPU10 and GPU 11b. 端末用ゲーム画像も上記テレビ用ゲーム画像と同様、ステップS4のゲーム制御処理の結果を表すものであればよく、どのような方法で生成されてもよい。 Similar to the game image is also the television game image terminal, as long as it represents the result of the game control process in step S4, may be generated by any method. また、端末用ゲーム画像は、上記テレビ用ゲーム画像と同様の方法で生成されてもよいし、異なる方法で生成されてもよい。 Further, the terminal game image may be generated in the same manner as the television game image may be generated in different ways. 生成された端末用ゲーム画像はVRAM11dに記憶される。 The generated terminal game image is stored in the VRAM 11 d. なお、ゲームの内容によってはテレビ用ゲーム画像と端末用ゲーム画像とは同一であってもよく、この場合、ステップS6においてゲーム画像の生成処理は実行されなくてもよい。 Incidentally, depending on the contents of the game may be the same as the television game image and the terminal game image, in this case, the process of generating the game image in step S6 may not be performed. 上記ステップS6の次にステップS7の処理が実行される。 Processing of a step S7 in the step S6 is executed.

ステップS7においては、テレビ2のスピーカ2aに出力するためのテレビ用ゲーム音声が生成される。 In step S7, the video-game sound to be outputted to the speaker 2a of the television 2 is generated. すなわち、CPU10は、ステップS4のゲーム制御処理の結果に応じたゲーム音声をDSP11cに生成させる。 That, CPU 10 causes the generated game sound corresponding to the result of the game control process in step S4 in DSP 11 c. なお、生成されるゲーム音声は、例えばゲームの効果音や、ゲームに登場するキャラクタの声や、BGM等であってもよい。 It should be noted that the game sound that is generated, for example, a game sound effects and the voice and the character appearing in the game, it may be a BGM and the like. 上記ステップS7の次にステップS8の処理が実行される。 Processing of a step S8 in the step S7 is executed.

ステップS8においては、端末装置7のスピーカ77に出力するための端末用ゲーム音声が生成される。 In step S8, the terminal game sound to be output to the speaker 77 of the terminal device 7 is generated. すなわち、CPU10は、ステップS4のゲーム制御処理の結果に応じたゲーム音声をDSP11cに生成させる。 That, CPU 10 causes the generated game sound corresponding to the result of the game control process in step S4 in DSP 11 c. なお、端末用ゲーム音声は、上記テレビ用ゲーム音声と同じであってもよいし、異なっていてもよい。 In addition, the terminal game sound may be the same as that of the television game sound, may be different. また、例えば効果音は異なるが、BGMは同じである、というように、一部のみが異なっていてもよい。 Further, for example, sound effects are different, BGM is the same, and so, may be only partially different. なお、テレビ用ゲーム音声と端末用ゲーム音声とが同一である場合、ステップS8においてゲーム音声の生成処理は実行されなくてもよい。 Incidentally, when the game sound and the terminal game sound television the same, the process of generating the game sound in Step S8 may not be performed. 上記ステップS8の次にステップS9の処理が実行される。 Processing of a step S9 in step S8 is executed.

ステップS9において、CPU10は、テレビ2へゲーム画像およびゲーム音声を出力する。 In step S9, CPU 10 outputs the game image and the game sound to the television 2. 具体的には、CPU10は、VRAM11dに記憶されたテレビ用ゲーム画像のデータと、ステップS7でDSP11cによって生成されたテレビ用ゲーム音声のデータとをAV−IC15へ送る。 Specifically, CPU 10 sends the data of the television game image stored in the VRAM 11 d, and a television game sound data generated by DSP11c in step S7 to the AV-IC 15. これに応じて、AV−IC15は画像および音声のデータをAVコネクタ16を介してテレビ2へ出力する。 In response to this, AV-IC 15 via an AV connector 16 to video and audio data and outputs it to the television 2. これによって、テレビ用ゲーム画像がテレビ2に表示されるとともに、テレビ用ゲーム音声がスピーカ2aから出力される。 Thus, with the television game image is displayed on the television 2, the television game sound is output from the speaker 2a. ステップS9の次にステップS10の処理が実行される。 Processing of a step S10 in the step S9 is executed.

ステップS10において、CPU10は、端末装置7へゲーム画像およびゲーム音声を送信する。 In step S10, CPU 10 sends the game image and the game sound to the terminal device 7. 具体的には、VRAM11dに記憶された端末用ゲーム画像の画像データ、および、ステップS8でDSP11cによって生成された音声データは、CPU10によってコーデックLSI27に送られ、コーデックLSI27によって所定の圧縮処理が行われる。 Specifically, the image data of the stored terminal game image in VRAM 11 d, and the voice data generated by DSP11c at step S8, is sent to the codec LSI27 by CPU 10, a predetermined compression process is performed by the codec LSI27 . さらに、圧縮処理が施された画像および音声のデータは、端末通信モジュール28によってアンテナ29を介して端末装置7へ送信される。 Moreover, data compression processing is performed images and sound are transmitted to the terminal device 7 via the antenna 29 by the terminal communication module 28. 端末装置7は、ゲーム装置3から送信されてくる画像および音声のデータを無線モジュール80によって受信し、コーデックLSI76によって所定の伸張処理が行われる。 The terminal device 7 receives the image and sound data transmitted from the game apparatus 3 by the wireless module 80, predetermined extension processing by the codec LSI76 is performed. 伸張処理が行われた画像データはLCD51に出力され、伸張処理が行われた音声データはサウンドIC78に出力される。 The image data expansion processing has been performed is output to the LCD 51, the audio data decompression processing is performed is output to the sound IC 78. これによって、端末用ゲーム画像がLCD51に表示されるとともに、端末用ゲーム音声がスピーカ77から出力される。 Thus, together with the terminal game image is displayed on the LCD 51, the terminal game sound is output from the speaker 77. ステップS10の次にステップS11の処理が実行される。 Processing of a step S11 in step S10 is executed.

ステップS11において、CPU10は、ゲームを終了するか否かを判定する。 In step S11, CPU 10 determines whether or not to end the game. ステップS11の判定は、例えば、ゲームオーバーになったか否か、あるいは、ユーザがゲームを中止する指示を行ったか否か等によって行われる。 Determination of step S11, for example, whether the game is over, or the user is performed by such whether issues an instruction to cancel the game. ステップS11の判定結果が否定の場合、ステップS2の処理が再度実行される。 When the determination result of step S11 is negative, step S2 is executed again. 一方、ステップS11の判定結果が肯定の場合、CPU10は図19に示すゲーム処理を終了する。 On the other hand, the determination result of step S11 is affirmative, CPU 10 ends the game process shown in FIG. 19. 以降、ステップS2〜S11の一連の処理は、ステップS11でゲームを終了すると判定されるまで繰り返し実行される。 Thereafter, the series of processes of steps S2~S11 is repeatedly performed until it is determined to end the game at step S11.

以上のように、本実施形態では、端末装置7は、タッチパネル52と、加速度センサ73またはジャイロセンサ74といった慣性センサとを備えており、タッチパネル52および慣性センサの出力が操作データとしてゲーム装置3へ送信されてゲームの入力として用いられる(ステップS3,S4)。 As described above, in the present embodiment, the terminal device 7 includes a touch panel 52, and a inertial sensors such acceleration sensor 73 or the gyro sensor 74, the output of the touch panel 52 and the inertial sensor to the game apparatus 3 as the operation data It sent used as input for the game (step S3, S4). さらに、端末装置7は表示装置(LCD51)を備えており、ゲーム処理によって得られるゲーム画像がLCD51に表示される(ステップS6,S10)。 Further, the terminal device 7 is provided with the display device (LCD 51), a game image obtained by the game processing is displayed on the LCD 51 (step S6, S10). したがって、ユーザは、タッチパネル52を用いてゲーム画像に対して直接タッチする操作を行うことができ、また、(端末装置7の動きが慣性センサによって検出されるため)ゲーム画像が表示されるLCD51自体を動かす操作を行うことができる。 Therefore, the user uses the touch panel 52 can be operated to directly touch the game image, also (for the movement of the terminal device 7 is detected by the inertial sensor) LCD 51 itself a game image is displayed it is possible to perform the operation to move the. ユーザは、これらの操作によってゲーム画像に対して直接操作を行うような操作感覚でゲームを行うことができるので、例えば後述する第1および第2のゲーム例のような新規な操作感覚のゲームを提供することができる。 The user can perform a game operation feeling as the direct operation on the game image by these operations, for example, a new operation feeling game such as the first and second game examples described later it is possible to provide.

さらに、本実施形態では、端末装置7は、端末装置7を把持した状態で操作可能なアナログスティック53および操作ボタン54を備えており、ゲーム装置3は、アナログスティック53および操作ボタン54に対する操作をゲームの入力として用いることができる(ステップS3,S4)。 Furthermore, in the present embodiment, the terminal device 7 is provided with an analog stick 53 and operating buttons 54 operable while gripping the terminal device 7, the game apparatus 3, an operation on the analog stick 53 and operating buttons 54 it can be used as input for the game (step S3, S4). したがって、上記のようにゲーム画像に対して直接操作を行う場合においても、ユーザはボタン操作やスティック操作によってより詳細なゲーム操作を行うことができる。 Therefore, in the case of performing the direct operation on the game image as described above also, the user can perform a more detailed game operation by button operation and stick operation.

さらに、本実施形態では、端末装置7はカメラ56およびマイク79を備えており、カメラ56が撮像するカメラ画像のデータ、および、マイク79が検出するマイク音のデータはゲーム装置3へ送信される(ステップS3)。 Furthermore, in the present embodiment, the terminal device 7 is provided with a camera 56 and the microphone 79, the data of the camera image the camera 56 takes an image, and, the data of the microphone sound microphone 79 is detected is transmitted to the game apparatus 3 (step S3). したがって、ゲーム装置3は、上記カメラ画像および/またはマイク音をゲーム入力として用いることが可能であるので、ユーザは、カメラ56で画像を撮像する操作や、マイク79に音声を入力する操作によってゲーム操作を行うことも可能である。 Thus the game, the game apparatus 3, since it is possible to use the camera image and / or microphone sound as a game input, a user operation or for capturing an image by the camera 56, the operation of inputting a speech to the microphone 79 it is also possible to perform the operation. なお、これらの操作は端末装置7を把持した状態で行うことが可能であるので、上記のようにゲーム画像に対して直接操作を行う場合においてこれらの操作を行うことによって、ユーザはより多彩なゲーム操作を行うことができる。 Since these operations can be performed while holding the terminal device 7, by performing these operations in a case of performing the direct operation on the game image as described above, the user is more versatile it is possible to perform the game operation.

また、本実施形態では、可搬型である端末装置7のLCD51にゲーム画像が表示される(ステップS6,S10)ので、ユーザは、端末装置7を自由に配置することができる。 Further, in the present embodiment, since a game image is displayed on the LCD51 of the terminal device 7 is portable (step S6, S10), the user can freely arrange the terminal device 7. したがって、コントローラ5をマーカの方へ向けて操作を行う場合において、ユーザは、端末装置7を自由な位置に配置することによってコントローラ5を自由な方向に向けてゲームを行うことができ、コントローラ5に対する操作の自由度を向上することができる。 Therefore, in the case of performing the operation toward the controller 5 toward the marker, the user can perform a game toward the controller 5 in any direction by placing the terminal device 7 to a free position, the controller 5 it is possible to improve the flexibility of operation on. また、端末装置7を任意の位置に配置することができるので、例えば後述する第5のゲーム例のように、ゲーム内容に適した位置に端末装置7を配置することによって、より現実感のあるゲームを提供することができる。 Further, since the terminal device 7 can be arranged at any position, for example, as in the fifth game examples described later, by placing the terminal device 7 to a position suitable for the game content, a more realistic it is possible to provide a game.

また、本実施形態によれば、ゲーム装置3は、コントローラ5および端末装置7から操作データ等を取得する(ステップS2,S3)ので、ユーザは、コントローラ5および端末装置7という2つの装置を操作手段として用いることができる。 Further, according to this embodiment, the game apparatus 3, so acquires operation data, etc. from the controller 5 and the terminal device 7 (Step S2, S3), the user operates the two devices that the controller 5 and the terminal device 7 it can be used as a means. したがって、ゲームシステム1においては、各装置を複数人のユーザが使用することによって複数人でゲームを行うこともでき、また、1人のユーザが2つの装置を使用してゲームを行うこともできる。 Therefore, in the game system 1, can also play the game a plurality of people by the devices is a plurality of users to use, can also be a single user performs a game using two devices .

また、本実施形態によれば、ゲーム装置3は2種類のゲーム画像を生成し(ステップS5,S6)、テレビ2と端末装置7とにゲーム画像を表示させる(ステップS9,S10)ことができる。 Further, according to this embodiment, the game apparatus 3 generates two types of game image (step S5, S6), it is possible to display a game image on the television 2 and the terminal device 7 (Step S9, S10) . このように、2種類のゲーム画像を異なる装置に表示させることによって、ユーザにとってより見やすいゲーム画像を提供することができ、ゲームの操作性を向上することができる。 Thus, by displaying the different devices of two game image, it is possible to provide a more easily seen game image for the user, it is possible to improve the game operability. 例えば、2人でゲームを行う場合には、後述する第3または第4のゲーム例のように、一方のユーザにとって見やすい視点のゲーム画像をテレビ2に表示し、他方のユーザにとって見やすい視点のゲーム画像を端末装置7に表示することによって、それぞれのプレイヤが見やすい視点でゲームを行うことができる。 For example, a game when performing the the two people, as in the third or fourth game example described later, the game image easily viewable viewpoints for one user and displayed on the television 2, legible perspective game for the other users by displaying an image on the terminal device 7, it is possible to each player performs the game in legible perspective. また、例えば1人でゲームを行う場合においても、後述する第1、第2および第5のゲーム例のように、異なる2箇所の視点で2種類のゲーム画像を表示することによって、プレイヤはゲーム空間の様子をより容易に把握することができ、ゲームの操作性を向上することができる。 Further, even in a case where the game alone, first to be described later, as in the second and fifth game example, by displaying the two types of game images in perspective of two different points, the player game it is possible to more easily grasp the state of the space, it is possible to improve the game of operability.

[6. [6. ゲーム例] Game Example]
次に、ゲームシステム1において行われるゲームの具体例について説明する。 Next, a specific example of a game executed by the game system 1. なお、以下に説明するゲーム例においては、ゲームシステム1における各装置の構成のうち一部を利用しない場合もあり、また、図19および図20に示す一連の処理のうち一部の処理を実行しない場合もある。 In the game examples described below, may not use a part of the configuration of each device in the game system 1, also perform some of the processing of the series of processes shown in FIGS. 19 and 20 there may not be. つまり、ゲームシステム1は、上述した全ての構成を備えていなくてもよく、また、ゲーム装置3は図19および図20に示す一連の処理の一部を実行しなくてもよい。 That is, the game system 1 may not include all of the above-described configuration, also, the game apparatus 3 may not perform a part of a series of processes shown in FIGS. 19 and 20.

(第1のゲーム例) (First game example)
第1のゲーム例は、端末装置7を操作することによってゲーム空間内においてオブジェクト(手裏剣)を飛ばすゲームである。 The first game example is a game skip object (Shuriken) in the game space by operating the terminal device 7. プレイヤは、端末装置7の姿勢を変化させる操作と、タッチパネル52上に線を描く操作とによって、手裏剣を発射する方向を指示することができる。 Player, the operation of changing the attitude of the terminal device 7, the operation and drawing a line on the touch panel 52 can indicate the direction to fire Shuriken.

図21は、第1のゲーム例におけるテレビ2の画面と端末装置7とを示す図である。 Figure 21 is a diagram showing the screen and the terminal device 7 of the television 2 in the first game example. 図21においては、テレビ2および端末装置7のLCD51には、ゲーム空間を表すゲーム画像が表示されている。 In Figure 21, the LCD51 of the television 2 and the terminal device 7, a game image representing the game space is displayed. テレビ2には、手裏剣121、制御面122、および標的123が表示されている。 The television 2, dart 121, control surface 122, and the target 123 is displayed. LCD51には、制御面122(および手裏剣121)が表示されている。 The LCD 51, the control surface 122 (and Shuriken 121) is displayed. 第1のゲーム例においては、プレイヤは、端末装置7を用いた操作によって手裏剣121を飛ばして標的123に当てて遊ぶ。 In the first game example, the player may play against the target 123 by skipping throwing star 121 by operation using the terminal device 7.

手裏剣121を飛ばす場合、プレイヤは、まず、端末装置7の姿勢を操作することによって、仮想のゲーム空間内に配置される制御面122の姿勢を変化させて所望の姿勢にする。 If you skip shuriken 121, the player first, by operating the attitude of the terminal device 7, to a desired position by changing the posture of the control surface 122 which is disposed in the virtual game space. すなわち、CPU10は、慣性センサ(加速度センサ73およびジャイロセンサ74)ならびに磁気センサ72の出力に基づいて端末装置7の姿勢を算出し(ステップS24)、算出された姿勢に基づいて制御面122の姿勢を変化させる(ステップS27)。 That, CPU 10 based on the output of the inertial sensor (acceleration sensor 73 and the gyro sensor 74) and the magnetic sensor 72 to calculate the attitude of the terminal device 7 (step S24), and the attitude of the control surface 122 based on the calculated posture changing the (step S27). 第1のゲーム例では、制御面122の姿勢は、現実空間における端末装置7の姿勢に応じた姿勢となるように制御される。 In the first game example, the posture of the control surface 122 is controlled such that the posture corresponding to the posture of the terminal device 7 in the real space. つまり、プレイヤは、端末装置7(端末装置7に表示されている制御面122)の姿勢を変化させることで、ゲーム空間内において制御面122の姿勢を変化させることができる。 That is, the player, by changing the attitude of the terminal device 7 (control surface 122 that is displayed on the terminal device 7), it is possible to change the posture of the control surface 122 in the game space. なお、第1のゲーム例においては、制御面122の位置は、ゲーム空間における所定位置に固定される。 In the first game example, the position of the control surface 122 is fixed to a predetermined position in the game space.

次に、プレイヤは、タッチペン124等を用いてタッチパネル52上に線を描く操作を行う(図21に示す矢印参照)。 Then, the player performs an operation of drawing a line on the touch panel 52 using the touch pen 124 or the like (see an arrow shown in FIG. 21). ここで、第1のゲーム例においては、端末装置7のLCD51には、タッチパネル52の入力面と制御面122とが対応するように制御面122が表示される。 Here, in the first game example, the LCD51 of the terminal device 7, the control plane 122 is displayed as an input surface of the touch panel 52 and the control surface 122 corresponds. したがって、タッチパネル52上に描かれた線によって、制御面122上での方向(当該線が表す方向)を算出することができる。 Therefore, it is possible by the line drawn on the touch panel 52, calculates a direction (direction in which the line is represented) of the on the control surface 122. 手裏剣121は、このようにして決定された方向へ発射される。 Shuriken 121 is fired to thus determined by the direction. 以上より、CPU10は、タッチパネル52のタッチ位置データ100から制御面122上での方向を算出し、算出された方向へ手裏剣121を移動させる処理を行う(ステップS27)。 From the above, CPU 10 calculates the direction on the control surface 122 from the touch position data 100 of the touch panel 52, the process of moving the dart 121 to the calculated direction (step S27). なお、CPU10は、例えば線の長さや線を描く速度に応じて手裏剣121の速度を制御するようにしてもよい。 Incidentally, CPU 10 may be adapted to control the speed of the throwing star 121 according to the speed draw length or line, for example line.

以上のように、第1のゲーム例によれば、ゲーム装置3は、慣性センサの出力をゲーム入力として用いることによって、端末装置7の動き(姿勢)に応じて制御面122を動かすとともに、タッチパネル52の出力をゲーム入力として用いることによって、制御面122上における方向を特定することができる。 As described above, according to the first exemplary game, the game apparatus 3 by using the output of the inertial sensor as a game input, with movement of the control surface 122 in accordance with the movement of the terminal device 7 (attitude), the touch panel by using 52 output as a game input, it is possible to specify the direction of the control surface 122. これによれば、プレイヤは、端末装置7に表示されたゲーム画像(制御面122の画像)を動かしたり、当該ゲーム画像に対してタッチ操作を行ったりすることができるので、ゲーム画像に対して直接操作を行っているような新規な操作感覚でゲームを行うことができる。 According to this, the player move the game image (image of the control surface 122) displayed on the terminal device 7, it is possible or perform touch operation on the game image, the game image the game can be carried out in a novel operation feeling such as that carried out the direct manipulation.

また、第1のゲーム例においては、慣性センサおよびタッチパネル52のセンサ出力をゲーム入力として用いることで、3次元空間における方向を容易に指示することができる。 In the first game example, by using the sensor output of the inertial sensor and the touch panel 52 as a game input, it is possible to instruct readily directions in three-dimensional space. すなわち、プレイヤは、一方の手で端末装置7の姿勢を実際に調整し、もう一方の手でタッチパネル52に線で方向を入力することによって、空間内で実際に方向を入力しているような直感的な操作で容易に方向を指示することができる。 In other words, the player can actually adjust the attitude of the terminal device 7 in one hand, by entering the direction of the line on the touch panel 52 with the other hand, such as by entering the actual direction in space it can be easily designate directions in intuitive operation. さらに、プレイヤは、端末装置7の姿勢の操作とタッチパネル52に対する入力操作とを同時に並行して行うことができるので、3次元空間における方向を指示する操作を迅速に行うことができる。 Moreover, the player can perform an input operation to the operation and the touch panel 52 of the attitude of the terminal device 7 simultaneously in parallel, can be rapidly performed an operation of specifying a direction in three-dimensional space.

また、第1のゲーム例によれば、制御面122に対するタッチ入力の操作を行いやすくするために、端末装置7には画面全体に制御面122が表示される。 Further, according to the first game example, in order to facilitate the operation of the touch input to the control surface 122, the terminal device 7 control surface 122 is displayed on the entire screen. 一方、テレビ2には、制御面122の姿勢を把握しやすいように、また、標的123を狙いやすいように、制御面122の全体および標的123を含むゲーム空間の画像が表示される(図21参照)。 On the other hand, the TV 2, for easier understanding of the orientation of the control surface 122, also to make it easier aiming target 123, an image is displayed in the game space including the entire and target 123 of the control plane 122 (FIG. 21 reference). すなわち、上記ステップS27においては、テレビ用ゲーム画像を生成するための第1仮想カメラは、制御面122の全体および標的123が視野範囲に含まれるように設定されるとともに、端末用ゲーム画像を生成するための第2仮想カメラは、LCD51の画面(タッチパネル52の入力面)と制御面122とが画面上において一致するように設定される。 That is, in step S27, the first virtual camera for generating a television game image, along with the overall and the target 123 is configured to be in the field of view of the control surface 122, generating a game image terminal second virtual camera for includes a LCD51 screen (input surface of the touch panel 52) and the control surface 122 is set so as to coincide on the screen. したがって、第1のゲーム例においては、テレビ2と端末装置7とに異なる視点から見たゲーム空間の画像を表示することによって、ゲーム操作をより行いやすくしている。 Thus, in the first game example, it is by displaying the image of the game space seen from different viewpoints in the television 2 and the terminal device 7, easier to perform and more a game operation.

(第2のゲーム例) (The second of the game example)
なお、慣性センサおよびタッチパネル52のセンサ出力をゲーム入力として用いるゲームは、上記第1のゲーム例に限らず、種々のゲーム例が考えられる。 The game using the sensor output of the inertial sensor and the touch panel 52 as a game input is not limited to the first game example, it can be considered a variety of games example. 第2のゲーム例は、第1のゲーム例と同様、端末装置7を操作することによってゲーム空間内においてオブジェクト(大砲の弾)を飛ばすゲームである。 Second game example, as in the first game example, a game skip object (cannon) in the game space by operating the terminal device 7. プレイヤは、端末装置7の姿勢を変化させる操作と、タッチパネル52上の位置を指定する操作とによって、弾を発射する方向を指示することができる。 Player, the operation of changing the attitude of the terminal device 7, the operation and for designating a position on the touch panel 52 can indicate the direction to fire the bullet.

図22は、第2のゲーム例におけるテレビ2の画面と端末装置7とを示す図である。 Figure 22 is a diagram showing the screen and the terminal device 7 of the television 2 in the second game example. 図22においては、テレビ2には、大砲131、弾132、および標的133が表示されている。 In Figure 22, the television 2, cannons 131 are displayed bullet 132, and target 133. 端末装置7には、弾132および標的133が表示されている。 The terminal device 7 are displayed bullet 132 and the target 133. 端末装置7に表示される端末用ゲーム画像は、大砲131の位置からゲーム空間を見た画像である。 Terminal game image displayed on the terminal device 7 is an image of the game space is seen from the position of the cannon 131.

第2のゲーム例においては、プレイヤは、端末装置7の姿勢を操作することによって、端末用ゲーム画像として端末装置7に表示される表示範囲を変化させることができる。 In the second game example, the player, by operating the attitude of the terminal device 7, it is possible to change the display range to be displayed on the terminal device 7 as the terminal game image. すなわち、CPU10は、慣性センサ(加速度センサ73およびジャイロセンサ74)ならびに磁気センサ72の出力に基づいて端末装置7の姿勢を算出し(ステップS24)、算出された姿勢に基づいて、端末用ゲーム画像を生成するための第2仮想カメラの位置および姿勢を制御する(ステップS27)。 That, CPU 10 is an inertial sensor based on the output of the (acceleration sensor 73 and the gyro sensor 74) and the magnetic sensor 72 to calculate the attitude of the terminal device 7 (step S24), and based on the calculated position, the terminal game image controlling the position and attitude of the second virtual camera for generating (step S27). 具体的には、第2仮想カメラは、大砲131の位置に設置され、端末装置7の姿勢に応じて向き(姿勢)が制御される。 Specifically, the second virtual camera is installed at a position of the cannon 131, orientation (attitude) is controlled according to the attitude of the terminal device 7. このように、プレイヤは、端末装置7の姿勢を変化させることによって、端末装置7に表示されるゲーム空間の範囲を変化させることができる。 Thus, the player, by changing the attitude of the terminal device 7, it is possible to change the range of the game space displayed on the terminal device 7.

また、第2のゲーム例においては、プレイヤは、タッチパネル52上において点を入力する操作(タッチする操作)によって弾132の発射方向を指定する。 In the second game example, the player specifies the firing direction of the bullet 132 by operation of inputting a point on the touch panel 52 (touch operated). 具体的には、上記ステップS27の処理として、CPU10は、タッチ位置に対応するゲーム空間内の位置(制御位置)を算出し、ゲーム空間内における所定位置(例えば大砲131の位置)から制御位置への方向を発射方向として算出する。 Specifically, as the processing of step S27, CPU 10 calculates the position in the game space corresponding to the touch position (control position), the control position from the predetermined position in the game space (for example, the position of the cannon 131) calculating the direction as launch direction. そして、発射方向へ弾132を移動させる処理を行う。 Then, the process of moving the bullet 132 to launch direction. このように、上記第1のゲーム例ではプレイヤはタッチパネル52上に線を描く操作を行ったが、第2のゲーム例では、タッチパネル52上の点を指定する操作を行う。 Thus, in the first exemplary game player has performed an operation to draw a line on the touch panel 52, in the second game example, it performs an operation for designating a point on the touch panel 52. なお、上記制御位置は、上記第1のゲーム例と同様の制御面を設定する(ただし、第2のゲーム例では制御面は表示されない)ことで算出することができる。 Incidentally, the control position can be calculated by setting the control surface similar to the above first exemplary game (provided that the control surface in the second game example is not displayed). すなわち、端末装置7における表示範囲に対応するように、第2仮想カメラの姿勢に応じて制御面を配置する(具体的には、制御面は、大砲131の位置を中心として、端末装置7の姿勢の変化に応じて回転移動する)ことで、タッチ位置に対応する制御面上の位置を制御位置として算出することができる。 In other words, so as to correspond to the display range on the terminal device 7, to place the control surface in accordance with the attitude of the second virtual camera (specifically, the control surface about the position of the cannon 131, the terminal device 7 by rotating movement in response to changes in posture), it is possible to calculate the position on the control surface corresponding to the touch position as a control position.

上記第2のゲーム例によれば、ゲーム装置3は、慣性センサの出力をゲーム入力として用いることによって、端末装置7の動き(姿勢)に応じて端末用ゲーム画像の表示範囲を変化させるとともに、当該表示範囲内の位置を指定するタッチ入力をゲーム入力として用いることによって、ゲーム空間内における方向(弾132の発射方向)を特定することができる。 According to the second exemplary game, the game apparatus 3 by using the output of the inertial sensor as a game input, together with changing the display range of the terminal game image in response to movement of the terminal device 7 (posture), by using a touch input for designating a position within the display range as a game input, it is possible to specify the direction (firing direction of the bullet 132) in the game space. したがって、第2のゲーム例においても第1のゲーム例と同様、プレイヤは、端末装置7に表示されたゲーム画像を動かしたり、当該ゲーム画像に対してタッチ操作を行ったりすることができるので、ゲーム画像に対して直接操作を行っているような新規な操作感覚でゲームを行うことができる。 Therefore, as in the first exemplary game in the second game example, the player move the game image displayed on the terminal device 7, it is possible or perform touch operation on the game image, the game can be carried out in a novel operation feel like we have done a direct operation to the game image.

また、第2の実施例においても第1の実施例と同様、プレイヤは、一方の手で端末装置7の姿勢を実際に調整し、もう一方の手でタッチパネル52に対してタッチ入力を行うことによって、空間内で実際に方向を入力しているような直感的な操作で容易に方向を指示することができる。 Also in the second embodiment as in the first embodiment, the player actually adjusts the attitude of the terminal device 7 in one hand, by performing a touch input on the touch panel 52 with the other hand Accordingly, it is possible to instruct the easy direction intuitive operation, such as by entering the actual direction in space. さらに、プレイヤは、端末装置7の姿勢の操作とタッチパネル52に対する入力操作とを同時に並行して行うことができるので、3次元空間における方向を指示する操作を迅速に行うことができる。 Moreover, the player can perform an input operation to the operation and the touch panel 52 of the attitude of the terminal device 7 simultaneously in parallel, can be rapidly performed an operation of specifying a direction in three-dimensional space.

なお、第2のゲーム例において、テレビ2に表示される画像は端末装置7と同じ視点からの画像であってもよいが、図22では、ゲーム装置3は別視点からの画像を表示させるようにしている。 In the second game example, as an image to be displayed on the television 2 may be an image from the same viewpoint as the terminal device 7, but in FIG. 22, the game apparatus 3 to display the images from different viewpoints I have to. すなわち、端末用ゲーム画像を生成するための第2仮想カメラは大砲131の位置に設定されるのに対して、テレビ用ゲーム画像を生成するための第1仮想カメラは大砲131の後方の位置に設定される。 That is, whereas the second virtual camera for generating a game image terminal is set to the position of the cannon 131 at the rear of the position of the first virtual camera cannon 131 for generating the television game image It is set. ここで、例えば、端末装置7の画面には見えない範囲をテレビ2に表示させるようにすることによって、端末装置7の画面では見えない標的133をプレイヤがテレビ2の画面を見て狙うような遊び方を実現することができる。 Here, for example, by the range which are not visible on the screen of the terminal device 7 so as to be displayed on the television 2, the target 133 is not visible in the screen of the terminal device 7 player such aim by looking at the screen of the television 2 it is possible to realize how to play. このように、テレビ2と端末装置7との表示範囲を異なるようにすることで、ゲーム空間内の様子をより把握しやすくするだけでなく、ゲームの興趣性をより向上することも可能である。 Thus, by such different display range of the television 2 and the terminal device 7, not only easier to understand the state of the game space, it is possible to further improve the playability of the game .

以上のように、本実施形態によれば、タッチパネル52と慣性センサを備える端末装置7を操作装置として用いることができるので、上記第1および第2のゲーム例のような、ゲーム画像に対して直接操作を行うような操作感覚のゲームを実現することができる。 As described above, according to this embodiment, it is possible to use a terminal device 7 comprising a touch panel 52 and the inertial sensor as an operation device, such as the first and second game example, the game image it is possible to realize a game of the operation feeling such as the direct operation.

(第3のゲーム例) (Third game example)
以下、図23および図24を参照して、第3のゲーム例について説明する。 Referring to FIGS. 23 and 24, a description will be given of a third exemplary game. 第3のゲーム例は、2人のプレイヤが対戦する形式の野球ゲームである。 The third game example, in the form baseball game of two players to play against. すなわち、第1プレイヤは、コントローラ5を用いて打者を操作し、第2プレイヤは端末装置7を用いて投手を操作する。 That is, the first player operates the batter using the controller 5, the second player operates the pitcher using the terminal device 7. また、テレビ2および端末装置7には各プレイヤにとってゲーム操作が行いやすいゲーム画像が表示される。 Further, the television 2 and the terminal device 7 easily performed game operation game image is displayed for each player.

図23は、第3のゲーム例においてテレビ2に表示されるテレビ用ゲーム画像の一例を示す図である。 Figure 23 is a diagram showing an example of a television game image displayed on the television 2 in the third game examples. 図23に示すテレビ用ゲーム画像は、主に第1プレイヤのための画像である。 Television game image shown in FIG. 23 is a main image for the first player. すなわち、テレビ用ゲーム画像は、第1プレイヤの操作対象である打者(打者オブジェクト)141の側から、第2プレイヤの操作対象である投手(投手オブジェクト)142の方を見たゲーム空間を表す。 That is, the television game image, from the side of the first batter player is the operation target (the batter object) 141, represents the game space seen towards the pitcher (pitcher object) 142, which is a second player of the operation target. テレビ用ゲーム画像を生成するための第1仮想カメラは、打者141の後方の位置に、打者141から投手142の方へ向くように配置される。 First virtual camera for generating a television game image, the rear position of the batter 141 is disposed such that the batter 141 towards the pitcher 142.

一方、図24は、第3のゲーム例において端末装置7に表示される端末用ゲーム画像の一例を示す図である。 On the other hand, FIG. 24 is a diagram showing an example of the terminal game image displayed on the terminal device 7 in the third exemplary game. 図24に示す端末用ゲーム画像は、主に第2プレイヤのための画像である。 Terminal game image shown in FIG. 24 is a main image for the second player. すなわち、端末用ゲーム画像は、第2プレイヤの操作対象である投手142の側から、第1プレイヤの操作対象である打者141の方を見たゲーム空間を表す。 That is, the terminal game image, from the side of the pitcher 142 is the second player's operation target, representing the game space seen towards the batter 141 is the first player operation target. 具体的には、上記ステップS27において、CPU10は、端末用ゲーム画像を生成するために用いる第2仮想カメラを端末装置7の姿勢に基づいて制御する。 Specifically, in step S27, CPU 10 controls based on the second virtual camera used for generating a game image terminal with the attitude of the terminal device 7. 第2仮想カメラの姿勢は、上述した第2のゲーム例と同様、端末装置7の姿勢と対応するように算出される。 The attitude of the second virtual camera, as in the second game examples described above, are calculated to correspond to the attitude of the terminal device 7. また、第2仮想カメラの位置は、予め定められた所定位置に固定される。 The position of the second virtual camera is fixed to a predetermined position determined in advance. なお、端末用ゲーム画像には、投手142がボールを投げる方向を示すためのカーソル143が含まれる。 Note that the terminal game image, a pitcher 142 includes a cursor 143 to indicate the direction to throw the ball.

なお、第1プレイヤによる打者141の操作方法、および、第2プレイヤによる投手142の操作方法は、どのような方法であってもよい。 The operation method of the batter 141 by the first player, and method of operating a pitcher 142 by the second player may be any method. 例えば、CPU10は、コントローラ5の慣性センサの出力データに基づいてコントローラ5に対する振り操作を検出し、振り操作に応じて打者141にバットを振る動作を行わせるようにしてもよい。 For example, CPU 10 detects the swing operation for the controller 5 based on the output data of the inertial sensor of the controller 5 may be made to perform an action of swinging the bat batter 141 in accordance with the swing operation. また例えば、CPU10は、アナログスティック53に対する操作に従ってカーソル143を移動させ、操作ボタン54のうちの所定のボタンが押下された場合、カーソル143が指し示す位置に向かってボールを投げる動作を投手142に行わせてもよい。 Further, for example, CPU 10 moves the cursor 143 in accordance with an operation on the analog stick 53, when a predetermined button of the manipulation button 54 is pressed, the line operation of throwing a ball toward a position where the cursor 143 is pointing to the pitcher 142 Align and may be. また、カーソル143は、アナログスティック53に対する操作に代えて、端末装置7の姿勢に応じて移動されてもよい。 Also, the cursor 143 instead of the operation on the analog stick 53 may be moved in accordance with the attitude of the terminal device 7.

以上のように、第3のゲーム例においては、テレビ2および端末装置7に互いに異なる視点でゲーム画像を生成することによって、各プレイヤにとって見やすく操作しやすいゲーム画像が提供される。 As described above, in the third game example, by generating a game image at different viewpoints to the television 2 and the terminal device 7, legible maneuverable game image for each player is provided.

また、第3のゲーム例においては、単一のゲーム空間に2つの仮想カメラが設定され、ゲーム空間を各仮想カメラから見た2種類のゲーム画像がそれぞれ表示される(図23および図24)。 In the third game example, two virtual cameras in a single game space are set, two kinds of game images the game space is seen from the virtual camera is displayed, respectively (FIGS. 23 and 24) . したがって、第3のゲーム例において生成される2種類のゲーム画像に関しては、ゲーム空間に対するゲーム処理(ゲーム空間内のオブジェクトの制御等)はほとんどが共通であって、共通のゲーム空間に関して描画処理を2回行なうだけでそれぞれのゲーム画像が生成できるので、当該ゲーム処理をそれぞれ行う場合に比べると処理効率が高いという利点がある。 Thus, for the two types of game image generated in the third game example, the game processing for the game space (control of objects in the game space) is a common mostly, a drawing process with respect to the common game space since each game image only by performing two times can be generated, the processing efficiency compared with the case of performing the game process each is advantageous in that high.

また、第3のゲーム例においては、投球方向を表すカーソル143は端末装置7側にのみ表示されるので、第1プレイヤはカーソル143が指し示す位置を見ることができない。 In the third game example, a cursor 143 representing the pitching direction is because it is displayed only on the terminal apparatus 7 side, the first player can not see the position of the cursor 143 is pointing. そのため、第1プレイヤに投球方向が知られて第2プレイヤが不利になるといったゲーム上の不都合が生じない。 Therefore, it does not occur inconvenience in the game such as the second player with pitching direction is known to the first player is disadvantageous. このように、本実施形態においては、一方のプレイヤがそのゲーム画像を見てしまうと他方のプレイヤにとってゲーム上の不都合が生じる場合には、当該ゲーム画像を端末装置7に表示すればよい。 Thus, in the present embodiment, when the disadvantages of the game occurs for the one of the player will look at the game image other player may be displayed the game image to the terminal device 7. これによって、ゲームの戦略性が低下する等の不都合を防止することができる。 This can strategy of the game to prevent inconveniences such a decrease. なお、他の実施形態において、ゲームの内容によっては(例えば、端末用ゲーム画像が第1プレイヤに見られても上記のような不都合が生じない場合には)、ゲーム装置3は、端末用ゲーム画像をテレビ用ゲーム画像とともにテレビ2に表示するようにしてもよい。 Note that in other embodiments, depending on the contents of the game (e.g., if the terminal game image inconvenience as described above does not occur even seen the first player), the game apparatus 3, the game terminal the image along with the television game image may be displayed on the television 2.

(第4のゲーム例) (Fourth game example)
以下、図25および図26を参照して、第4のゲーム例について説明する。 Referring to FIGS. 25 and 26, a description will be given of a fourth exemplary game. 第4のゲーム例は、2人のプレイヤが協力する形式のシューティングゲームである。 The fourth game example is in the form of a shooting game in which two players to cooperate. すなわち、第1プレイヤは、コントローラ5を用いて飛行機を移動させる操作を行い、第2プレイヤは、端末装置7を用いて飛行機の大砲の発射方向を制御する操作を行う。 That is, the first player performs an operation of moving the aircraft using the controller 5, the second player performs an operation for controlling the firing direction of the cannon of the airplane using the terminal device 7. 第4のゲーム例においても第3のゲーム例と同様、テレビ2および端末装置7には各プレイヤにとってゲーム操作が行いやすいゲーム画像が表示される。 Similarly the third exemplary game in the fourth game example, the television 2 and the terminal device 7 easily performed game operation game image is displayed for each player.

図25は、第4のゲーム例においてテレビ2に表示されるテレビ用ゲーム画像の一例を示す図である。 Figure 25 is a diagram showing an example of a television game image displayed on the television 2 in the fourth game example. また、図26は、第4のゲーム例において端末装置7に表示される端末用ゲーム画像の一例を示す図である。 Further, FIG. 26 is a diagram showing an example of the terminal game image displayed on the terminal device 7 in the fourth game example. 図25に示すように、第4のゲーム例では、仮想のゲーム空間に飛行機(飛行機オブジェクト)151と標的(風船オブジェクト)153とが登場する。 As shown in FIG. 25, in the fourth game example, the airplane in the virtual game space (plane object) 151 and the target (balloon objects) 153 and the advent. また、飛行機151は大砲(大砲オブジェクト)152を有している。 Moreover, aircraft 151 has a cannon (cannon object) 152.

図25に示すように、テレビ用ゲーム画像としては、飛行機151を含むゲーム空間の画像が表示される。 As shown in FIG. 25, the television game image, the image of the game space including the aircraft 151 are displayed. テレビ用ゲーム画像を生成するための第1仮想カメラは、飛行機151を後方から見たゲーム空間の画像を生成するように設定される。 First virtual camera for generating a television game image is set to generate an image of the game space viewed aircraft 151 from the rear. すなわち、第1仮想カメラは、飛行機151の後方の位置に、飛行機151が撮影範囲(視野範囲)に含まれる姿勢で配置される。 That is, the first virtual camera, behind the position of the airplane 151 is arranged in a posture in which aircraft 151 is included in the imaging range (field of view). また、第1仮想カメラは、飛行機151の移動に伴って移動するように制御される。 The first virtual camera is controlled so as to move with the movement of the airplane 151. つまり、CPU10は、上記ステップS27の処理において、コントローラ操作データに基づいて飛行機151の移動を制御するとともに、第1仮想カメラの位置および姿勢を制御する。 That, CPU 10, in the processing of step S27, and controls the movement of the aircraft 151 on the basis of the controller operation data, and controls the position and attitude of the first virtual camera. このように、第1仮想カメラの位置および姿勢は、第1プレイヤの操作に応じて制御される。 Thus, the position and attitude of the first virtual camera is controlled according to the operation of the first player.

一方、図26に示すように、端末用ゲーム画像としては、飛行機151(より具体的には大砲152)から見たゲーム空間の画像が表示される。 On the other hand, as shown in FIG. 26, the terminal game image, the image of the game space (more specifically cannons 152) plane 151 as viewed from is displayed. したがって、端末用ゲーム画像を生成するための第2仮想カメラは、飛行機151の位置(より具体的には大砲152の位置)に配置される。 Therefore, the second virtual camera for generating a game image terminal is located at the position of the airplane 151 (more specifically, the position of the cannon 152). CPU10は、上記ステップS27の処理において、コントローラ操作データに基づいて飛行機151の移動を制御するとともに、第2仮想カメラの位置を制御する。 CPU10 is determined at step S27, and controls the movement of the aircraft 151 on the basis of the controller operation data, and controls the position of the second virtual camera. なお、第2仮想カメラは、飛行機151あるいは大砲152の周辺の位置(例えば、大砲152のやや後方の位置)に配置されてもよい。 Note that the second virtual camera, the position near the airplane 151 or cannons 152 (e.g., slightly behind the position of the cannon 152) may be disposed. 以上のように、第2仮想カメラの位置は、(飛行機151の移動を操作する)第1プレイヤの操作によって制御されることになる。 As described above, the position of the second virtual camera will be controlled by (operating the movement of the aircraft 151) Operation of the first player. したがって、第4のゲーム例においては、第1仮想カメラと第2仮想カメラは連動して移動する。 Therefore, in the fourth game example, the first virtual camera and the second virtual camera is moved in conjunction with each other.

また、端末用ゲーム画像としては、大砲152の発射方向の向きに見たゲーム空間の画像が表示される。 As the terminal game image, the image of the game space as viewed in the firing direction of the orientation of the gun 152 is displayed. ここで、大砲152の発射方向は、端末装置7の姿勢に対応するように制御される。 Here, the firing direction of the gun 152 is controlled so as to correspond to the attitude of the terminal device 7. つまり、本実施形態においては、第2仮想カメラの姿勢は、第2仮想カメラの視線方向が大砲152の発射方向と一致するように制御される。 That is, in the present embodiment, the attitude of the second virtual camera, the viewing direction of the second virtual camera is controlled so as to coincide with the firing direction of the cannon 152. CPU10は、上記ステップS27の処理において、上記ステップS24で算出される端末装置7の姿勢に応じて、大砲152の向きおよび第2仮想カメラの姿勢を制御する。 CPU10, in the processing of step S27, in accordance with the attitude of the terminal device 7 calculated in step S24, controls the posture of the orientation and the second virtual camera cannon 152. このように、第2仮想カメラの姿勢は、第2プレイヤの操作によって制御される。 Thus, the attitude of the second virtual camera is controlled by the operation of the second player. また、第2プレイヤは、端末装置7の姿勢を変化させることによって、大砲152の発射方向を変化させることができる。 The second player, by changing the attitude of the terminal device 7, it is possible to change the firing direction of the cannon 152.

なお、大砲152から弾を発射する場合、第2プレイヤは、端末装置7の所定のボタンを押下する。 In the case of firing a bullet from a cannon 152, the second player presses the predetermined button of the terminal device 7. 所定のボタンが押下されると、大砲152の向きに弾が発射される。 When a predetermined button is pressed, the bullet is fired in the direction of gun 152. 端末用ゲーム画像においては、LCD51の画面中央に照準154が表示され、照準154が指し示す方向へ弾が発射される。 In the terminal game image, displays the sight 154 in the center of the screen of the LCD 51, the bullet is fired in the direction in which the sight 154 points.

以上のように、第4のゲーム例においては、第1プレイヤは、飛行機151の進行方向の方を見たゲーム空間を表すテレビ用ゲーム画像(図25)を主に見ながら、(例えば所望の標的153の方向へ移動するように)飛行機151を操作する。 As described above, in the fourth game example, the first player, television game image representing the game space seen towards the traveling direction of the airplane 151 while mainly looking at (Fig. 25), (e.g., the desired to move in the direction of the target 153) to operate the aircraft 151. 一方、第2プレイヤは、大砲152の発射方向の方を見たゲーム空間を表す端末用ゲーム画像(図26)を主に見ながら、大砲152を操作する。 On the other hand, the second player while mainly looking at the terminal game image representing the game space seen towards the firing direction of the gun 152 (FIG. 26), operating the cannon 152. このように、第4のゲーム例においては、2人のプレイが協力する形式のゲームにおいて、それぞれのプレイヤにとって見やすく操作しやすいゲーム画像を、テレビ2と端末装置7とにそれぞれ表示することができる。 Thus, in the fourth game example, in the form of games that two play to cooperate, the legible operation easy game image for each player can be displayed respectively to the television 2 and the terminal device 7 .

また、第4のゲーム例においては、第1プレイヤの操作によって第1仮想カメラおよび第2仮想カメラの位置が制御され、第2プレイヤの操作によって第2仮想カメラの姿勢が制御される。 Further, in the fourth game example, the position of the first virtual camera and the second virtual camera is controlled by the operation of the first player, the attitude of the second virtual camera is controlled by the operation of the second player. つまり、本実施形態においては、各プレイヤのそれぞれのゲーム操作に応じて仮想カメラの位置または姿勢が変化する結果、各表示装置に表示されるゲーム空間の表示範囲が変化する。 That is, in the present embodiment, the position or attitude of the virtual camera is a result of changing the display range of the game space displayed on the display device changes in accordance with the respective game operation of each player. 表示装置に表示されるゲーム空間の表示範囲が各プレイヤの操作に応じて変化するので、各プレイヤは、自己のゲーム操作がゲーム進行に十分に反映されていることを実感することができ、ゲームを十分に楽しむことができる。 Since the display range of the game space displayed on the display device is changed according to an operation of each player, each player can own game operation to realize that it is fully reflected in the game progress, the game it is possible to enjoy fully.

なお、第4のゲーム例においては、飛行機151の後方から見たゲーム画像がテレビ2に表示され、飛行機151の大砲の位置から見たゲーム画像が端末装置7に表示された。 In the fourth game example, a game image as viewed from the rear of the aircraft 151 are displayed on the TV 2, a game image as viewed from the position of the cannon of an airplane 151 is displayed on the terminal device 7. ここで、他のゲーム例においては、ゲーム装置3は、飛行機151の後方から見たゲーム画像を端末装置7に表示させ、飛行機151の大砲152の位置から見たゲーム画像がテレビ2に表示させるようにしてもよい。 Here, in another exemplary game, the game apparatus 3 may display the game image as viewed from the rear of the airplane 151 in the terminal device 7, a game image is displayed on the TV 2 when viewed from the position of the cannon 152 of the airplane 151 it may be so. このとき、各プレイヤの役割は上記第4のゲーム例と入れ替わり、第1プレイヤがコントローラ5を用いて大砲152の操作を行い、第2プレイヤが端末装置7を用いて飛行機151の操作を行うようにするとよい。 At this time, the role of each player replaces the aforementioned fourth game example, the first player do the cannon 152 using the controller 5, so that the second player performs an operation of aircraft 151 using the terminal device 7 better to.

(第5のゲーム例) (Fifth game example of)
以下、図27を参照して、第5のゲーム例について説明する。 Referring to FIG. 27, an explanation will be given of a fifth exemplary game. 第5のゲーム例は、プレイヤがコントローラ5を用いて操作を行うゲームであり、端末装置7は操作装置ではなく表示装置として用いられる。 Game of the fifth, the player is the game to perform the operation using the controller 5, the terminal device 7 is used as a rather display device in the operating device. 具体的には、第5のゲーム例はゴルフゲームであり、プレイヤがコントローラ5をゴルフクラブのように振る操作(スイング操作)に応じて、ゲーム装置3は仮想のゲーム空間におけるプレイヤキャラクタにゴルフのスイング動作を行わせる。 Specifically, the game of the fifth is a golf game, the player in response to an operation of swinging the controller 5 as a golf club (swing operation), the game apparatus 3 golf player character in the virtual game space to perform the swing motion.

図27は、第5のゲーム例におけるゲームシステム1の使用の様子を示す図である。 Figure 27 is a diagram showing a state of use of the game system 1 in the fifth game example. 図27において、テレビ2の画面には、プレイヤキャラクタ(のオブジェクト)161およびゴルフクラブ(のオブジェクト)162を含むゲーム空間の画像が表示される。 27, the screen of the television 2, the image of the game space including the player character (object) 161 and golf club (object) 162 is displayed. なお、図27では、ゴルフクラブ162に隠れているので表示されていないが、ゲーム空間に配置されたボール(のオブジェクト)163もテレビ2に表示される。 It should be noted that in FIG. 27, has not been displayed because it is hidden in the golf club 162, placed in the game space a ball (of objects) 163 is also displayed on the television 2. 一方、図27に示すように、端末装置7は、LCD51の画面が鉛直上向きとなるように、テレビ2の前方正面の床面に配置される。 On the other hand, as shown in FIG. 27, the terminal device 7, as the screen of the LCD51 is vertically upward, it is placed on the floor of the front the front of the television 2. 端末装置7には、ボール163を表す画像と、ゴルフクラブ162の一部(具体的には、ゴルフクラブのヘッド162a)を表す画像と、ゲーム空間の地面を表す画像とが表示される。 The terminal device 7, and an image representing a ball 163 (specifically, the head 162a of the golf club) portion of the golf club 162 and an image representing a image representing the ground of the game space is displayed. 端末用ゲーム画像は、ボールの周囲を上から見た画像である。 Terminal game image is an image viewed from above the periphery of the ball.

ゲームを行う際、プレイヤ160は、端末装置7の近傍に立ち、コントローラ5をゴルフクラブのように振るスイング操作を行う。 When playing a game, the player 160 is standing in the vicinity of the terminal device 7 performs the swing operation of swinging the controller 5 as a golf club. このとき、CPU10は、上記ステップS27において、上記ステップS23の処理で算出されるコントローラ5の姿勢に応じてゲーム空間におけるゴルフクラブ162の位置および姿勢を制御する。 At this time, CPU 10, in step S27, controls the position and orientation of the golf club 162 in the game space in accordance with the attitude of the controller 5 is calculated in the process at step S23. 具体的には、ゴルフクラブ162は、コントローラ5の先端方向(図3に示すZ軸正方向)がLCD51に表示されるボール163の画像を向く場合に、ゲーム空間内のゴルフクラブ162がボール163に当たるように、制御される。 Specifically, the golf club 162, when facing the image of a ball 163 that the tip end direction of the controller 5 (Z-axis positive direction shown in FIG. 3) is displayed on the LCD 51, a golf club 162 in the game space ball 163 to strike the, it is controlled.

また、コントローラ5の先端方向がLCD51の方へ向く場合には、ゴルフクラブ162の一部を表す画像(ヘッド画像)164がLCD51に表示される(図27参照)。 Further, when the tip end direction of the controller 5 is directed towards the LCD 51, an image (head image) 164 representing a portion of the golf club 162 is displayed on the LCD 51 (see FIG. 27). なお、端末用ゲーム画像に関しては、現実感を増すために、ボール163の画像が実物大で表示されてもよいし、コントローラ5のZ軸回りの回転に応じてヘッド画像164の向きが回転するように表示されてもよい。 Regarding the terminal game image, in order to increase the reality, the image of the ball 163 may be displayed to scale, the orientation of the head image 164 is rotated according to the rotation around the Z-axis of the controller 5 it may be displayed as. また、端末用ゲーム画像は、ゲーム空間に設置される仮想カメラを用いて生成されてもよいし、予め用意された画像データを用いて生成されてもよい。 Further, the terminal game image may be generated using a virtual camera to be installed in a game space may be generated using the image data prepared in advance. 予め用意された画像データを用いて生成する場合には、ゴルフコースの地形モデルを詳細に構築することなく、詳細でリアルな画像を小さい処理負荷で生成することができる。 When produced using the previously prepared image data without constructing a terrain model of the golf course in detail, it can be produced with a small processing load realistic image detail.

プレイヤ160が上記スイング操作を行うことによってゴルフクラブ162が振られた結果、ゴルフクラブ162がボール163に当たると、ボール163が移動する(飛んでいく)。 Results player 160 golf club 162 is swung by performing the swing operation, when the golf club 162 strikes the ball 163, the ball 163 moves (flies). すなわち、CPU10は、上記ステップS27においてゴルフクラブ162とボール163とが接触したか否かを判定し、接触した場合にはボール163を移動させる。 That, CPU 10 determines whether the contact between the golf club 162 and the ball 163 in step S27, when contacted moves the ball 163. ここで、テレビ用ゲーム画像は、移動後のボール163が含まれるように生成される。 Here, television game image is generated so as to include the ball 163 after the movement. すなわち、CPU10は、テレビ用ゲーム画像を生成するための第1仮想カメラは、移動するボールがその撮影範囲に含まれるように位置および姿勢が制御される。 That, CPU 10 may first virtual camera for generating a television game image, position and orientation as moving ball is included in the imaging range is controlled. 一方、端末装置7においては、ゴルフクラブ162がボール163に当たると、ボール163の画像が移動されてすぐに画面外に消える。 On the other hand, in the terminal device 7, the golf club 162 strikes the ball 163, immediately disappears out of the screen image of the ball 163 is moved. したがって、第5のゲーム例においては、ボールが移動する様子は主にテレビ2に表示され、プレイヤ160は、スイング操作によって飛んでいったボールの行方をテレビ用ゲーム画像で確認することができる。 Accordingly, in the fifth game example, how the ball travels mainly displayed on the television 2, the player 160 can confirm the whereabouts of the ball flew by swing operation in the television game image.

以上のように、第5のゲーム例においては、プレイヤ160は、コントローラ5を振ることでゴルフクラブ162を振る(プレイヤキャラクタ161にゴルフクラブ162を振らせる)ことができる。 As described above, in the fifth game example, the player 160 can swing the golf club 162 by swinging the controller 5 (the player character 161 to shake the golf club 162). ここで、第5のゲーム例においては、コントローラ5の先端方向がLCD51に表示されるボール163の画像を向く場合に、ゲーム空間内のゴルフクラブ162がボール163に当たるように制御される。 Here, in the fifth game example, when facing an image of a ball 163 that the tip end direction of the controller 5 is displayed on the LCD 51, a golf club 162 in the game space is controlled to strike the ball 163. したがって、プレイヤは、スイング操作によって実際のゴルフクラブを打っているかのような感覚を得ることができ、スイング操作をより現実感のあるものにすることができる。 Therefore, the player can get a feeling as if they hit the actual golf club by swing operation, it is possible to make the swing operation to those more realistic.

第5のゲーム例においてはさらに、コントローラ5の先端方向が端末装置7の方を向く場合にはヘッド画像164がLCD51に表示される。 Further in the fifth game example, when the tip end direction of the controller 5 is directed towards the terminal device 7 head image 164 is displayed on the LCD 51. したがって、プレイヤは、コントローラ5の先端方向を端末装置7の方へ向けることによって、仮想空間におけるゴルフクラブ162の姿勢が現実空間におけるコントローラ5の姿勢と対応している感覚を得ることができ、スイング操作をより現実感のあるものにすることができる。 Therefore, the player, by directing the tip direction of the controller 5 toward the terminal device 7, it is possible to obtain a sense of orientation of the golf club 162 in the virtual space correspond to the attitude of the controller 5 in the real space, a swing it is possible to manipulate it more realistic.

以上のように、第5のゲーム例は、端末装置7を表示装置として利用する場合には、端末装置7を適切な位置に配置することによって、コントローラ5を用いた操作をより現実感のあるものにすることができる。 As described above, the game fifth example, the case of using the terminal device 7 as a display device, by placing the terminal device 7 in an appropriate position, realistic and more the operation using the controller 5 it can be to those.

また、上記第5のゲーム例においては、端末装置7は床面に配置され、端末装置7にはボール163の周辺のみのゲーム空間を表す画像が表示される。 Further, in the above-described fifth game example, the terminal device 7 is arranged on the floor, the terminal device 7 displays an image representing the game space only around the ball 163. そのため、ゲーム空間におけるゴルフクラブ162全体の位置・姿勢を端末装置7では表示することはできず、また、スイング操作後においてボール163が移動する様子を端末装置7では表示することはできない。 Therefore, the position and orientation of the entire golf club 162 can not be displayed in the terminal device 7 in the game space, also the ball 163 can not be displayed in the terminal device 7 how to move after the swing operation. そこで、第5のゲーム例では、ボール163の移動前においてはゴルフクラブ162の全体がテレビ2に表示され、ボール163の移動後においてはボール163が移動する様子がテレビ2に表示される。 Therefore, in the fifth game example, before the movement of the ball 163 across the golf club 162 is displayed on the television 2, after the movement of the ball 163 how the ball 163 is moved is displayed on the television 2. このように、第5のゲーム例によれば、現実感のある操作をプレイヤに提供することができるとともに、テレビ2および端末装置7の2つの画面を用いることで見やすいゲーム画像をプレイヤに対して提示することができる。 Thus, according to the fifth game example, it is possible to provide a realistic operation to the player, the player an easily viewable game image by using the two screens of the television 2 and the terminal device 7 it can be presented.

また、上記第5のゲーム例においては、コントローラ5の姿勢を算出するために、端末装置7のマーカ部55が用いられる。 Further, in the above-described fifth game example, in order to calculate the attitude of the controller 5, the marker portion 55 of the terminal device 7 is used. すなわち、CPU10は、上記ステップS1の初期処理においてマーカ部55を点灯させ(マーカ装置6は点灯させない)、CPU10は、上記ステップS23においてマーカ座標データ96に基づいてコントローラ5の姿勢を算出する。 That, CPU 10 causes the light the marker portion 55 in the initialization process of step S1 (no marker device 6 is turned), CPU 10 calculates the attitude of the controller 5 based on the marker coordinate data 96 at step S23. これによれば、コントローラ5の先端方向がマーカ部55の方を向く姿勢か否かを正確に判定することができる。 According to this, it is possible to tip direction of the controller 5 is to accurately determine whether the posture facing the marker portion 55. なお、上記第5のゲーム例では、上記ステップS21およびS22は実行されなくてもよいが、他のゲーム例においては、上記ステップS21およびS22の処理を実行することによって、点灯すべきマーカをゲームの途中で変更するようにしてもよい。 Incidentally, in the fifth game example, the steps S21 and S22 may not be performed, but in another game example, by executing the processes in steps S21 and S22, the to be lighted marker game it may be changed in the middle of. 例えば、CPU10は、ステップS21において、第1加速度データ94に基づいてコントローラ5の先端方向が重力方向を向くか否かを判定し、ステップS22において、重力方向を向く場合にはマーカ部55を点灯させ、重力方向を向かない場合にはマーカ装置6を点灯させるように制御してもよい。 For example, CPU 10 is turned in step S21, the tip direction of the controller 5 based on the first acceleration data 94 determines whether faces the direction of gravity, in step S22, the marker portion 55 when facing the direction of gravity it is, if not suitable gravity direction may be controlled so as to light up the marker device 6. これによれば、コントローラ5の先端方向が重力方向を向く場合には、マーカ部55のマーカ座標データを取得することで、コントローラ5の姿勢を精度良く算出することができるとともに、コントローラ5の先端方向がテレビ2の方を向く場合には、マーカ装置6のマーカ座標データを取得することで、コントローラ5の姿勢を精度良く算出することができる。 According to this, when the tip end direction of the controller 5 is directed to the direction of gravity, by acquiring the marker coordinate data of the marker portion 55, it is possible to accurately calculate the attitude of the controller 5, the tip of the controller 5 direction when facing the television 2, by acquiring the marker coordinate data of the marker device 6, it is possible to accurately calculate the attitude of the controller 5.

上記第5のゲーム例で説明したように、ゲームシステム1は、端末装置7を自由な位置に設置して表示装置として利用することができる。 As described in the exemplary game of the fifth, the game system 1 can utilize the terminal device 7 as a display device installed in a free position. これによれば、マーカ座標データをゲーム入力として用いる場合において、コントローラ5をテレビ2の方へ向けて使用する他、端末装置7を所望の位置に設定することによってコントローラ5を自由な方向に向けて使用することができる。 According to this, in the case of using the marker coordinate data as a game input, in addition to use toward the controller 5 toward the television 2, toward the controller 5 in any direction by setting the terminal device 7 to a desired position it is possible to use Te. すなわち、本実施形態によれば、コントローラ5を使用できる向きが制限されることないので、コントローラ5の操作の自由度を向上することができる。 That is, according to this embodiment, since it will not be restricted orientation that can use the controller 5, it is possible to improve the degree of freedom of operation of the controller 5.

[7. [7. ゲームシステムの他の動作例] Another example of the operation of the game system]
上記ゲームシステム1は、上記で説明したように種々のゲームを行うための動作を行うことが可能である。 The game system 1 is capable of performing an operation for performing various game as described above. 端末装置7は、可搬形のディスプレイや第2のディスプレイとしても使用することができる一方で、タッチ入力や動きによる入力を行うコントローラとしても使用することができ、上記ゲームシステム1によれば、幅広いゲームを実施することが可能となる。 The terminal device 7, while it can be also used as a display and a second display of portable, can also be used as a controller for performing input by touch input or movement, according to the game system 1, a wide range of it is possible to carry out the game. また、ゲーム以外の用途も含め、以下のような動作を行うことも可能である。 Also, including non-game applications, it is also possible to perform the following operations.

(プレイヤが端末装置7のみを用いてゲームをプレイする動作例) (Operation Example the player plays a game using only the terminal device 7)
本実施形態において、端末装置7は、表示装置として機能するとともに、操作装置としても機能するものである。 In the present embodiment, the terminal device 7 functions as a display device, which also functions as an operation unit. そのため、テレビ2およびコントローラ5を使用せずに端末装置7を表示手段および操作手段として使用することによって、端末装置7を携帯型のゲーム装置のように使用することも可能である。 Therefore, by using as a display means and manipulation means terminal device 7 without the use of the television 2 and the controller 5, it is also possible to use a terminal device 7 as a portable game device.

図19に示したゲーム処理に即して具体的に説明すると、CPU10は、ステップS3において端末装置7から端末操作データ97を取得し、ステップS4において端末操作データ97のみをゲーム入力として用いて(コントローラ操作データを用いずに)ゲーム処理を実行する。 Specifically explaining with reference to the game processing shown in FIG. 19, CPU 10 obtains the terminal operation data 97 from the terminal device 7 in step S3, using only the terminal operation data 97 as a game input in In step S4 ( without using the controller operation data) for executing a game process. そして、ステップS6においてゲーム画像を生成し、ステップS10においてゲーム画像を端末装置7へ送信する。 Then, the generated game image at step S6, transmits a game image to the terminal device 7 in step S10. なお、このとき、ステップS2、S5、およびS9は実行されなくてもよい。 At this time, the step S2, S5, and S9 may not be performed. 以上によれば、端末装置7に対する操作に応じてゲーム処理が行われ、ゲーム処理結果を表すゲーム画像が端末装置7に表示されることとなる。 According to the above, the game processing in accordance with an operation on the terminal device 7 is performed, a game image representing the game processing result is to be displayed on the terminal device 7. このようにすれば、(実際にはゲーム処理はゲーム装置で実行されるが、)端末装置7を携帯型のゲーム装置として利用することも可能である。 In this way, (actually the game processing is executed by the game apparatus) it is also possible to use the terminal device 7 as a portable game device. したがって、本実施形態によれば、テレビ2が使用中である(例えば、他の人がテレビ放送を視聴中である)等の理由でテレビ2にゲーム画像を表示できない場合でも、ユーザは端末装置7を用いてゲームを行うことができる。 Therefore, according to this embodiment, the television 2 is in use (e.g., other people are in view television broadcasts) If you can not view the game image on the television 2 for reasons such as the user terminal it is possible to perform the game with 7.

なお、CPU10は、ゲーム画像に限らず、電源投入後に表示される上述のメニュー画面についても画像を端末装置7へ送信して表示させるようにしてもよい。 Incidentally, CPU 10 is not limited to the game image, the image may be displayed by transmitting to the terminal device 7 also above menu screen which is displayed after power-on. これによれば、プレイヤは最初からテレビ2を使用せずにゲームを行うことができるので、便利である。 According to this, the player the game can be carried out from the beginning without using the TV 2, which is convenient.

さらに、上記において、ゲーム画像を表示する表示装置を端末装置7からテレビ2へとゲーム中に変更することも可能である。 Further, in the above, it is also possible to change the display device for displaying a game image from the terminal device 7 and during the game to the television 2. 具体的には、CPU10は、上記ステップS9をさらに実行し、ゲーム画像をテレビ2へ出力するようにすればよい。 Specifically, CPU 10 may further perform the step S9, it is sufficient to output a game image to the television 2. なお、ステップS9でテレビ2へ出力される画像は、ステップS10で端末装置7へ送信されるゲーム画像と同じである。 Note that the image output in step S9 to the television 2 is the same as the game image transmitted to the terminal device 7 in step S10. これによれば、ゲーム装置3からの入力を表示させるようにテレビ2の入力を切り替えることで、端末装置7と同一のゲーム画像がテレビ2に表示されることとなるので、ゲーム画像を表示する表示装置をテレビ2に変更することができる。 According to this, by switching the input of the television 2 to display the input from the game apparatus 3, the same game image and the terminal device 7 and is displayed on the television 2 displays a game image it is possible to change the display device on the television 2. なお、テレビ2にゲーム画像が表示された後は、端末装置7の画面表示がオフにされてもよい。 Incidentally, after the game image is displayed on the television 2, screen display of the terminal device 7 may be turned off.

なお、ゲームシステム1においては、テレビ2に対する赤外線リモコン信号を赤外線出力手段(マーカ装置6、マーカ部55、あるいは赤外線通信モジュール82)から出力可能であるようにしてもよい。 In the game system 1, it may be can output an infrared remote control signal to the television 2 from the infrared output section (the marker device 6, the marker section 55 or the infrared communication module 82,). これによれば、ゲーム装置3は、端末装置7に対する操作に応じて上記赤外線リモコン信号を赤外線出力手段から出力させることによって、テレビ2に対する操作を行うことができる。 According to this, the game apparatus 3 by outputting the infrared remote control signal from the infrared output means in accordance with an operation on the terminal device 7, it is possible to perform the operation on the TV 2. この場合、ユーザはテレビ2のリモコンを操作することなく、端末装置7を用いてテレビ2を操作することができるので、上記のようにテレビ2の入力を切り替える場合等において便利である。 In this case, the user without operating the remote control TV 2, it is possible to operate the television 2 using the terminal device 7, it is convenient in the case for switching an input of the television 2, as described above.

(ネットワークを介して他の装置と通信を行う動作例) (Operation example of communicating with other devices via the network)
上述のように、ゲーム装置3はネットワークに接続する機能を有しているので、ゲームシステム1は、ネットワークを介して外部装置と通信を行う場合にも利用することができる。 As described above, since the game apparatus 3 has a function of connecting to the network, the game system 1 can also be used when over the network communicates with external devices. 図28は、ネットワークを介して外部装置と接続される場合におけるゲームシステム1に含まれる各装置の接続関係を示す図である。 Figure 28 is a diagram showing a connection relationship of each device included in the game system 1 when connected to an external apparatus via a network. 図28に示すように、ゲーム装置3は、外部装置191とネットワーク190を介して通信可能である。 As shown in FIG. 28, the game apparatus 3 can communicate through the external device 191 and the network 190.

上記のように外部装置191とゲーム装置3とが通信可能である場合、ゲームシステム1においては端末装置7をインターフェースとして外部装置191との間で通信を行うことができる。 If the external device 191 and the game apparatus 3 as described above can communicate, in the game system 1 can communicate with an external device 191 to the terminal device 7 as an interface. 例えば、外部装置191と端末装置7との間で画像および音声を送受信することによって、ゲームシステム1をテレビ電話として使用することができる。 For example, by transmitting and receiving image and audio to and from the external device 191 and the terminal device 7, it is possible to use a game system 1 as a videophone. 具体的には、ゲーム装置3は、外部装置191からの画像および音声(電話相手の画像および音声)をネットワーク190を介して受信し、受信した画像および音声を端末装置7に送信する。 Specifically, the game apparatus 3 receives the image and sound from an external device 191 (image and sound of a telephone party) via the network 190, and transmits the received image and sound to the terminal device 7. これによって、端末装置7は、外部装置191からの画像をLCD51に表示するとともに、外部装置191からの音声をスピーカ77から出力する。 Thus, the terminal device 7 displays an image from the external device 191 to LCD 51, and outputs the sound from the external device 191 from the speaker 77. また、ゲーム装置3は、カメラ56で撮像されたカメラ画像と、マイク79で検知されたマイク音声とを端末装置7から受信し、カメラ画像およびマイク音声をネットワーク190を介して外部装置191へ送信する。 Also, the game apparatus 3 transmits a camera image captured by the camera 56, receives the microphone sound detected by the microphone 79 from the terminal device 7, a camera image and the microphone audio to an external device 191 via the network 190 to. ゲーム装置3は、上記の画像および音声の送受信を外部装置191との間で繰り返すことによって、ゲームシステム1をテレビ電話として使用することができる。 The game apparatus 3 by repeating the transmission and reception of the image and sound with an external device 191, it is possible to use a game system 1 as a videophone.

なお、本実施形態においては端末装置7は可搬型であるので、ユーザは、端末装置7を自由な位置で使用したり、カメラ56を自由な方向に向けたりすることができる。 Since in this embodiment the terminal device 7 is portable, user can use the terminal device 7 at an arbitrary position, the camera 56 can be or towards the free direction. また、本実施形態においては端末装置7はタッチパネル52を備えているので、ゲーム装置3は、タッチパネル52に対する入力情報(タッチ位置データ100)を外部装置191へ送信することも可能である。 Further, since in this embodiment the terminal device 7 includes a touch panel 52, the game apparatus 3, it is also possible to transmit the input information to the touch panel 52 (touch position data 100) to the external device 191. 例えば、外部装置191からの画像および音声を端末装置7で出力するとともに、ユーザがタッチパネル52上に書いた文字等を外部装置191へ送信する場合には、いわゆるeラーニングシステムとしてゲームシステム1を使用することも可能である。 For example, and outputs images and audio from an external device 191 in the terminal device 7, when transmitting such letters written by the user on the touch panel 52 to the external device 191, using the game system 1 as a so-called e-learning system it is also possible to.

(テレビ放送と連動した動作例) (Operation example in conjunction with television broadcasting)
また、ゲームシステム1は、テレビ2でテレビ放送が視聴されている場合に、テレビ放送と連動して動作することも可能である。 The game system 1, when the television broadcast on the TV 2 is being viewed, it is also possible to work in conjunction with the television broadcast. すなわち、ゲームシステム1は、テレビ2でテレビ番組が視聴されている場合に、そのテレビ番組に関する情報等を端末装置7に出力させる。 That is, the game system 1, when the television program on the television 2 is viewed, to output the information concerning the television program to the terminal device 7. 以下、ゲームシステム1がテレビ放送と連動して動作する場合の動作例を説明する。 Below, the game system 1 will be described an example of the operation of the case which operates in conjunction with the television broadcast.

上記動作例においては、ゲーム装置3は、ネットワークを介してサーバと通信可能である(換言すれば、図28に示す外部装置191がサーバである。)。 In the above operation example, the game apparatus 3 via the network can communicate with the server (in other words, the external device 191 shown in FIG. 28 is a server.). サーバは、テレビ放送に関連する種々の情報(テレビ情報)をテレビ放送のチャンネル毎に記憶している。 The server stores various information relevant to the television broadcast (TV information) for each channel of the television broadcast. このテレビ情報は、字幕や出演者情報等の番組に関する情報でもよいし、EPG(電子番組表)の情報や、データ放送として放送される情報でもよい。 The television information may be information about the program, such as subtitles and performer information, and information of the EPG (electronic program guide), it may be information that is broadcast as data broadcasting. また、テレビ情報は、画像や、音声や、文字や、これらの組み合わせの情報であってもよい。 The television information, images and voice or characters, may be information of these combinations. また、サーバは1つである必要はなく、テレビ放送のチャンネル毎、あるいは番組毎にサーバが設置され、ゲーム装置3は各サーバと通信可能であってもよい。 The server need not be one server is installed for each channel of a television broadcast, or for each program, the game apparatus 3 may be capable of communicating with each server.

テレビ2においてテレビ放送の映像・音声が出力されている場合において、ゲーム装置3は、視聴中のテレビ放送のチャンネルを端末装置7を用いてユーザに入力させる。 In the case where the television 2 video and audio of the television broadcast is being output, the game apparatus 3 causes the input to the user a channel of a television broadcast being watched by using the terminal device 7. そして、入力されたチャンネルに対応するテレビ情報を送信するように、ネットワークを介してサーバに要求する。 Then, to transmit television information corresponding to the channel input, it requests the server via a network. これに応じて、サーバは上記チャンネルに対応するテレビ情報のデータを送信する。 In response, the server sends the data of the television information corresponding to the channel. サーバから送信されてくるデータ受信すると、ゲーム装置3は、受信したデータを端末装置7へ出力する。 Upon receiving data transmitted from the server, the game apparatus 3 outputs the received data to the terminal device 7. 端末装置7は、上記データのうち画像および文字のデータをLCD51に表示し、音声のデータをスピーカから出力する。 The terminal device 7, the image and character data among the data displayed on the LCD 51, and outputs the audio data from the speaker. 以上によって、ユーザは、現在視聴中のテレビ番組に関する情報等を端末装置7を用いて享受することができる。 Above, the user can enjoy using the terminal device 7 information concerning television program currently being viewed.

上記のように、ゲームシステム1は、ネットワークを介して外部装置(サーバ)と通信を行うことによって、テレビ放送と連動した情報を端末装置7によってユーザに提供することも可能である。 As described above, the game system 1, by communicating with an external device (server) via a network, it is possible to provide information in conjunction with the television broadcast to the user by the terminal device 7. 特に、本実施形態では端末装置7は可搬型であるので、ユーザは自由な位置で端末装置7を使用することができ、利便性が高い。 In particular, since in the present embodiment, the terminal device 7 is portable, the user can use the terminal device 7 at an arbitrary position, which is highly convenient.

以上のように、本実施形態においては、ユーザは、ゲームに使用する他にも、種々の用途・形態で端末装置7を使用することができる。 As described above, in the present embodiment, the user, in addition to use for the game, it is possible to use the terminal device 7 in a variety of applications, forms.

[8. [8. 変形例] Modification]
上記実施形態は本発明を実施する一例であり、他の実施形態においては例えば以下に説明する構成で本発明を実施することも可能である。 The above embodiment is merely an example for implementing the present invention, in other embodiments it is also possible to implement the present invention in a configuration described below, for example.

(複数の端末装置を有する変形例) (Modification having a plurality of terminal devices)
上記実施形態においては、ゲームシステム1は端末装置を1つのみ有する構成であったが、ゲームシステム1は複数の端末装置を有する構成であってもよい。 In the above embodiment, the game system 1 has a configuration having only one terminal device, the game system 1 may be configured to include a plurality of terminal devices. すなわち、ゲーム装置3は、複数の端末装置とそれぞれ無線通信可能であり、ゲーム画像のデータとゲーム音声のデータと制御データとを各端末装置へ送信し、操作データとカメラ画像データとマイク音データとを各端末装置から受信するものであってもよい。 That is, the game apparatus 3 are a plurality of terminal devices are capable wireless communication, the game image data and the game sound data and control data transmitted to each terminal apparatus, the operation data and the camera image data and the microphone sound data preparative or may be received from each terminal device. なお、ゲーム装置3は、複数の端末装置のそれぞれと無線通信を行うが、このとき、ゲーム装置3は、各端末装置との無線通信を時分割で行ってもよいし、周波数帯域を分割して行ってもよい。 The game apparatus 3 performs the respective wireless communication with a plurality of terminal devices, this time, the game apparatus 3 may be performed in a time division wireless communication with the terminal devices, to divide the frequency band it may be carried out.

上記のように複数の端末装置を有する場合には、ゲームシステムを用いてより多くの種類のゲームを行うことができる。 If having a plurality of terminal devices as described above can perform more types of game using a game system. 例えば、ゲームシステム1が2つの端末装置を有する場合には、ゲームシステム1は3つの表示装置を有することになるので、3人のプレイヤのそれぞれのためのゲーム画像を生成し、各表示装置に表示させることができる。 For example, in the case where the game system 1 has two terminals, because the game system 1 will have three display devices, and generates a game image for each of the three players, each display device it can be displayed. また、ゲームシステム1が2つの端末装置を有する場合には、コントローラと端末装置とを1組として用いるゲーム(例えば上記第5のゲーム例)において、2人のプレイヤが同時にゲームを行うことができる。 Further, if the game system 1 has two terminal device in the game (for example, a game example the fifth) using a controller and a terminal device as a set, two players can play a game simultaneously . さらに、2つのコントローラから出力されるマーカ座標データに基づいて上記ステップS27のゲーム処理が行われる場合には、コントローラをマーカ(マーカ装置6またはマーカ部55)に向けて行うゲーム操作を2人のプレイヤがそれぞれ行うことができる。 Further, when the game process in step S27 is performed based on the marker coordinate data outputted from the two controllers, the controller marker game operation the two performed toward the (marker device 6 or the marker portion 55) the player can be carried out, respectively. すなわち、一方のプレイヤは、マーカ装置6の方へコントローラを向けてゲーム操作を行い、他方のプレイヤは、マーカ部55の方へコントローラを向けてゲーム操作を行うことができる。 That is, one player performs a game operation toward the controller towards the marker device 6, the other player can perform a game operation toward the controller towards the marker portions 55.

(端末装置の機能に関する変形例) (Modification regarding the function of the terminal device)
上記実施形態においては、端末装置7は、ゲーム処理を実行しない、いわゆるシンクライアント端末として機能するものであった。 In the above embodiment, the terminal device 7 does not execute the game process, it was to function as a so-called thin client terminal. ここで、他の実施形態においては、上記実施形態においてゲーム装置3によって実行される一連のゲーム処理のうち、一部の処理は端末装置7等の他の装置によって実行されてもよい。 Here, in other embodiments, a series of game processing executed by the game apparatus 3 in the above embodiment, it may be part of the processing is performed by another device such as the terminal device 7. 例えば、一部の処理(例えば、端末用ゲーム画像の生成処理)を端末装置7が実行するようにしてもよい。 For example, part of the processing (e.g., generation processing of the terminal game image) may also as the terminal device 7 is performed. つまり、端末装置は、操作部に対する操作に基づいてゲーム処理を行い、ゲーム処理に基づいてゲーム画像を生成して表示部に表示させる、携帯型のゲーム装置として機能するものであってもよい。 In other words, the terminal apparatus performs a game process based on the operation on the operation unit, based on the game processing is displayed on the display unit to generate a game image may be one that functions as a portable game device. また例えば、互いに通信可能な複数の情報処理装置(ゲーム装置)を有するゲームシステムにおいて、当該複数の情報処理装置がゲーム処理を分担して実行するようにしてもよい。 Further, for example, in a game system having a plurality of information processing apparatuses capable of communicating with each other (game device), the plurality of information processing apparatuses may be shared and executed by the game processing.

(端末装置の構成に関する変形例) (Modification regarding the configuration of the terminal device)
上記実施形態における端末装置は一例であり、端末装置の各操作ボタンやハウジング50の形状や、各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。 The terminal apparatus of the above embodiment is one example, the shape of each operation button and the housing 50 of the terminal device, the number and the positions of the components are merely an example, other shapes, numbers, and installed positions it may be. 例えば、端末装置は、以下に示す構成であってもよい。 For example, the terminal device may be configured as shown below. 以下、図29〜図32を参照して、端末装置の変形例について説明する。 Hereinafter, with reference to FIGS. 29 to 32, it describes a variation of the terminal device.

図29は、上記実施形態の変形例に係る端末装置の外観構成を示す図である。 Figure 29 is a diagram showing an external configuration of a terminal device according to a modification of the above embodiment. 図29における(a)図は端末装置の正面図であり、(b)図は上面図であり、(c)図は右側面図であり、(d)図は下面図である。 (A) Figure in Figure 29 is a front view of the terminal device, (b) figure is a top view, (c) drawing is a right side view, a view is a bottom view (d). また、図30は、図29に示す端末装置をユーザが把持した様子を示す図である。 Further, FIG. 30 is a diagram showing a state where the user holds the terminal apparatus shown in FIG. 29. なお、図29および図30において、上記実施形態における端末装置7の構成要素に対応する構成要素については図8と同じ参照符号を付しているが、同一の物で構成される必要はない。 Note that in FIG. 29 and FIG. 30, the components corresponding to those of the terminal apparatus 7 in the above embodiment are denoted by the same reference numerals as in FIG. 8, but need not be configured with the same thing.

図29に示されるように、端末装置8は、大略的には横長の長方形の板状形状であるハウジング50を備える。 As shown in FIG. 29, the terminal device 8, the generally-comprise a housing 50 which is horizontally long rectangular plate shape. ハウジング50は、ユーザが把持することができる程度の大きさである。 The housing 50 is large enough that the user can grip. したがって、ユーザは、端末装置8を持って動かしたり、端末装置8の配置位置を変更したりすることができる。 Thus, the user can move with the terminal 8, and can change the position of the terminal device 8.

端末装置8は、ハウジング50の表面にLCD51を有する。 Terminal 8 includes a LCD51 on the surface of the housing 50. LCD51は、ハウジング50の表面の中央付近に設けられる。 LCD51 is provided near the center of the surface of the housing 50. したがって、ユーザは、図9に示すようにLCD51の両側部分のハウジング50を持つことによって、LCD51の画面を見ながら端末装置を持って動かすことができる。 Therefore, the user, by having the housing 50 in the end parts of the LCD 51 as shown in FIG. 9, can be moved with a terminal while watching the screen of the LCD 51. なお、図9ではユーザがLCD51の左右両側の部分のハウジング50を持つことで端末装置8を横持ちで(横に長い向きにして)持つ例を示しているが、端末装置8を縦持ちで(縦に長い向きにして)持つことも可能である。 Although the user in FIG. 9 shows an example in which (to the long direction laterally) with terminal device 8 held horizontally by having a housing 50 of the left and right side portions of the LCD 51, the terminal device 8 in portrait position (vertically in the long direction), it is also possible to have.

図29の(a)図に示すように、端末装置8は、操作手段(操作部)として、LCD51の画面上にタッチパネル52を有する。 As shown in (a) of FIG. 29, the terminal device 8, as an operation unit (operation unit), a touch panel 52 on the screen of the LCD 51. 本変形例では、タッチパネル52は抵抗膜方式のタッチパネルである。 In this modification, the touch panel 52 is a resistive film type touch panel. ただし、タッチパネルは抵抗膜方式に限らず、例えば静電容量方式等、任意の方式のタッチパネルを用いることができる。 However, the touch panel is not limited to the resistive film type, it can be used, for example a capacitive type, etc., a touch panel of an arbitrary method. また、タッチパネル52はシングルタッチ方式でもよいし、マルチタッチ方式であってもよい。 The touch panel 52 may be a single touch manner, or may be a multi-touch method. 本変形例では、タッチパネル52として、LCD51の解像度と同解像度(検出精度)のものを利用する。 In this modification, the touch panel 52, to utilize those LCD51 of the same resolution (detection accuracy). ただし、必ずしもタッチパネル52の解像度とLCD51の解像度が一致している必要はない。 However, it may not necessarily be the resolution and LCD51 resolution of the touch panel 52 are consistent. タッチパネル52に対する入力は通常タッチペンを用いて行われるが、タッチペンに限らずユーザの指でタッチパネル52に対する入力をすることも可能である。 Input to the touch panel 52 is usually performed using the touch pen, it is also possible to input to the touch panel 52 by the user's finger is not limited to the touch pen. なお、ハウジング50には、タッチパネル52に対する操作を行うために用いられるタッチペンを収納するための収納穴が設けられていてもよい。 Note that the housing 50 may be receiving hole is provided for accommodating the touch pen used for performing an operation on the touch panel 52. このように、端末装置8はタッチパネル52を備えるので、ユーザは、端末装置8を動かしながらタッチパネル52を操作することができる。 Thus, since the terminal 8 is provided with a touch panel 52, the user can operate the touch panel 52 while moving the terminal device 8. つまりユーザは、LCD51の画面を動かしつつ、その画面に対して直接(タッチパネル52によって)入力を行うことができる。 That user while moving the screen LCD 51, can be performed directly (through the touch panel 52) input to the screen.

図29に示すように、端末装置8は、操作手段(操作部)として、2つのアナログスティック53Aおよび53Bと、複数のボタン54A〜54Lとを備えている。 As shown in FIG. 29, the terminal device 8, as an operation unit (operation section) includes a two analog sticks 53A and 53B, and a plurality of buttons 54A~54L. 各アナログスティック53Aおよび53Bは、方向を指示するデバイスである。 The analog sticks 53A and 53B are a device for indicating a direction. 各アナログスティック53Aおよび53Bは、ユーザの指で操作されるスティック部がハウジング50の表面に対して任意の方向(上下左右および斜め方向の任意の角度)にスライドまたは傾倒することができるように構成されている。 The analog sticks 53A and 53B are configured to be able to stick that is operated by the user's finger slides or tilting in any direction (any angle vertical and horizontal and oblique directions) with respect to the surface of the housing 50 It is. また、左アナログスティック53AはLCD51の画面の左側に、右アナログスティック53BはLCD51の画面の右側にそれぞれ設けられる。 Further, the left analog stick 53A to the left of the screen of the LCD 51, the right analog stick 53B are respectively provided on the right side of the screen of the LCD 51. したがって、ユーザは、左右いずれの手でもアナログスティックを用いて方向を指示する入力を行うことができる。 Thus, the user can perform an input for indicating a direction by using the analog stick in right or left hand. また、図30に示すように、各アナログスティック53Aおよび53Bは、ユーザが端末装置8の左右部分を把持した状態で操作可能な位置に設けられるので、ユーザは、端末装置8を持って動かす場合においても各アナログスティック53Aおよび53Bを容易に操作することができる。 Further, as shown in FIG. 30, the analog sticks 53A and 53B, since the user is provided in operable position while gripping the left and right portions of the terminal 8, when the user moves with the terminal device 8 also it is possible to operate the respective analog sticks 53A and 53B easily in.

各ボタン54A〜54Lは、所定の入力を行うための操作手段である。 Each button 54A~54L is operation means for performing a predetermined input. 以下に示すように、各ボタン54A〜54Lは、ユーザが端末装置8の左右部分を把持した状態で操作可能な位置に設けられる(図30参照)。 As shown below, the buttons 54A~54L the user is provided operable position while gripping the left and right portions of the terminal device 8 (see FIG. 30). したがって、ユーザは、端末装置8を持って動かす場合においてもこれらの操作手段を容易に操作することができる。 Thus, the user can operate these operation means easily even when moving with terminal device 8.

図29の(a)図に示すように、ハウジング50の表面には、各操作ボタン54A〜54Lのうち、十字ボタン(方向入力ボタン)54Aと、ボタン54B〜54Hとが設けられる。 As shown in (a) of FIG. 29, on the surface of the housing 50, among the operation buttons 54A~54L, a cross button (direction input button) 54A, and a button 54B~54H provided. つまり、これらのボタン54A〜54Gは、ユーザの親指で操作可能な位置に配置されている(図30参照)。 In other words, these buttons 54A~54G is positioned so as to be operated by the user's thumb (see Figure 30).

十字ボタン54Aは、LCD51の左側であって、左アナログスティック53Aの下側に設けられる。 Cross button 54A is a left LCD 51, provided on the lower side of the left analog stick 53A. つまり、十字ボタン54Aはユーザの左手で操作可能な位置に配置されている。 That is, the cross button 54A is positioned so as to be operated by the left hand of the user. 十字ボタン54Aは、十字の形状を有しており、上下左右の方向を指示することが可能なボタンである。 Cross button 54A has a cross shape, a button capable of directing the vertical and horizontal directions. また、ボタン54B〜54Dは、LCD51の下側に設けられる。 Also, buttons 54B~54D is provided below the LCD 51. これら3つのボタン54B〜54Dは、左右両方の手で操作可能な位置に配置されている。 These three buttons 54B~54D is positioned so as to be operated in the hands of both left and right. また、4つのボタン54E〜54Hは、LCD51の右側であって、右アナログスティック53Bの下側に設けられる。 Also, four buttons 54E~54H is a right LCD 51, provided on the lower side of the right analog stick 53B. つまり、4つのボタン54E〜54Hはユーザの右手で操作可能な位置に配置されている。 That is, four buttons 54E~54H are positioned so as to be operated by the right hand of the user. さらに、4つのボタン54E〜54Hは、(4つのボタン54E〜54Hの中心位置に対して)上下左右の位置関係となるように配置されている。 Furthermore, four buttons 54E~54H is arranged so that (relative to the center position of the four buttons 54E~54H) vertical and lateral positional relationship. したがって、端末装置8は、ユーザに上下左右の方向を指示させるためのボタンとして4つのボタン54E〜54Hを機能させることも可能である。 Therefore, the terminal device 8, it is possible to function the four buttons 54E~54H as buttons for instructing vertical and horizontal directions to the user.

また、図29の(a)図、(b)図、および(c)図に示すように、第1Lボタン54Iおよび第1Rボタン54Jは、ハウジング50の斜め上部分(左上部分および右上部分)に設けられる。 Further, (a) view of FIG. 29, (b) drawing, and (c) as shown in the figure, the 1L button 54I and the 1R button 54J is obliquely upper portion of the housing 50 (the upper left portion and upper right portion) It is provided. 具体的には、第1Lボタン54Iは、板状のハウジング50における上側の側面の左端に設けられ、上側および左側の側面から露出している。 Specifically, the 1L button 54I is provided at the left end of the upper side of the plate-shaped housing 50, are exposed from the upper and left sides. また、第1Rボタン54Jは、ハウジング50における上側の側面の右端に設けられ、上側および右側の側面から露出している。 Further, the 1R button 54J is provided at the right end of the upper side of the housing 50, are exposed from the upper side and right side. このように、第1Lボタン54Iは、ユーザの左手人差し指で操作可能な位置に配置され、第1Rボタン54Jは、ユーザの右手人差し指で操作可能な位置に配置される(図9参照)。 Thus, the 1L button 54I is positioned so as to be operated by the left hand index finger of the user, the 1R button 54J is positioned so as to be operated by the right hand forefinger of the user (see FIG. 9).

また、図29の(b)図および(c)図に示すように、第2Lボタン54Kおよび第2Rボタン54Lは、板状のハウジング50の裏面(すなわちLCD51が設けられる表面の反対側の面)に突起して設けられる足部59Aおよび59Bに配置される。 Further, as shown in (b) view and (c) diagram of Figure 29, the 2L button 54K and the 2R button 54L is the back surface of the plate-shaped housing 50 (i.e. the surface opposite to the surface where LCD51 is provided) It is placed on the foot portion 59A and 59B are provided with projections. 上記実施形態の庇部59と同様、各足部59Aおよび59Bは、表示部の左右にそれぞれ設けられる操作部(各アナログスティック53Aおよび53B)の反対側の位置を含む領域に設けられる。 Similar to the eaves portion 59 of the embodiment, each foot 59A and 59B are provided in a region including a position opposite each provided is operating section to the left and right of the display section (the analog sticks 53A and 53B). また、第2Lボタン54Kは、ハウジング50の裏面の左側(表面側から見たときの左側)のやや上方に設けられ、第2Rボタン54Lは、ハウジング50の裏面の右側(表面側から見たときの右側)のやや上方に設けられる。 Further, the 2L button 54K is slightly provided above (on the left as viewed from the surface side) left of the back surface of the housing 50, the 2R button 54L, when viewed from the right side (the surface side of the rear surface of the housing 50 provided slightly above the right). 換言すれば、第2Lボタン54Kは、表面に設けられる左アナログスティック53Aの概ね反対側の位置に設けられ、第2Rボタン54Lは、表面に設けられる右アナログスティック53Bの概ね反対側の位置に設けられる。 In other words, the 2L button 54K is provided in a generally opposite the position of the left analog stick 53A provided on a surface, the 2R button 54L is disposed in a generally opposite the position of the right analog stick 53B provided on the surface It is. このように、第2Lボタン54Kは、ユーザの左手中指で操作可能な位置に配置され、第2Rボタン54Lは、ユーザの右手中指で操作可能な位置に配置される(図9参照)。 Thus, the 2L button 54K is positioned so as to be operated by the left hand middle finger of the user, the 2R button 54L is positioned so as to be operated by the right hand middle finger of the user (see FIG. 9). また、第2Lボタン54Kおよび第2Rボタン54Lは、図29の(c)図に示すように、上記足部59Aおよび59Bの斜め上方を向く面に設けられ、斜め上方を向くボタン面を有する。 Further, the 2L button 54K and the 2R button 54L, as shown in (c) diagram of Figure 29, provided on the surface facing obliquely upward of the foot 59A and 59B, has a button surface facing obliquely upward. ユーザが端末装置8を把持した場合には中指は上下方向に動くと考えられるので、ボタン面を上方に向けることで、ユーザは第2Lボタン54Kおよび第2Rボタン54Lを押下しやすくなる。 It is considered that the middle finger is moved in the vertical direction when the user holds the terminal device 8, by directing the button face upward, the user can easily presses the first 2L button 54K and the 2R button 54L. また、ハウジング50の裏面に足部が設けられることにより、ユーザはハウジング50を把持しやすくなり、かつ、足部にボタンが設けられることで、ハウジング50を把持したまま操作しやすくなる。 Further, since the leg portion is provided on the rear surface of the housing 50, the user is likely to grip the housing 50, and by button is provided in the foot portion becomes easy to operate while holding the housing 50.

なお、図29に示す端末装置8に関しては、第2Lボタン54Kおよび第2Rボタン54Lが裏面に設けられるので、LCD51の画面(ハウジング50の表面)が上を向いた状態で端末装置8を載置させる場合、画面が完全に水平にはならない場合がある。 Regarding the terminal 8 shown in FIG. 29, since the 2L button 54K and the 2R button 54L is provided on a rear surface, placing the terminal device 8 in a state where LCD51 screen (the surface of the housing 50) faces upward case of, in some cases the screen is not completely horizontal. そのため、他の実施形態においては、ハウジング50の裏面に3つ以上の足部が形成されてもよい。 Therefore, in other embodiments, three or more legs on the rear surface of the housing 50 may be formed. これによれば、LCD51の画面が上を向いた状態では足部が床面に接することで床面に載置できるので、画面が水平になるように端末装置8を載置することができる。 According to this, since the foot is in a state where the screen of the LCD51 faces upward can placed on a floor by contacting the floor surface, it can screen for placing the terminal 8 so that the horizontal. また、着脱可能な足部を追加することで端末装置8を水平に載置するようにしてもよい。 Further, it is also possible to place the terminal 8 horizontally by adding a removable foot.

各ボタン54A〜54Lには、ゲームプログラムに応じた機能が適宜割り当てられる。 Each button 54A~54L, functions in accordance with the game program appropriately assigned. 例えば、十字ボタン54Aおよびボタン54E〜54Hは方向指示操作や選択操作等に用いられてもよいし、各ボタン54B〜54Eは決定操作やキャンセル操作等に用いられてもよい。 For example, the cross button 54A and the buttons 54E~54H are may be used in a direction instruction operation and a selection operation, the buttons 54B~54E may be used for a determination operation, a cancellation operation.

なお、図示しないが、端末装置8は、端末装置8の電源をオン/オフするための電源ボタンを有している。 Although not shown, the terminal device 8 has a power button for turning on / off the terminal 8. また、端末装置8は、LCD51の画面表示をオン/オフするためのボタンや、ゲーム装置3との接続設定(ペアリング)を行うためのボタンや、スピーカ(図10に示すスピーカ77)の音量を調節するためのボタンを有していてもよい。 The terminal device 8, and buttons for turning on / off the screen display of the LCD 51, and buttons for performing connection setting with the game apparatus 3 (pairing), the volume of the speaker (speaker 77 shown in FIG. 10) it may have a button for adjusting the.

図29の(a)図に示すように、端末装置8は、マーカ55Aおよびマーカ55Bからなるマーカ部(図10に示すマーカ部55)をハウジング50の表面に備えている。 As shown in (a) of FIG. 29, the terminal device 8 includes a marker unit consisting of the markers 55A and the marker 55B (the marker section 55 shown in FIG. 10) on the surface of the housing 50. マーカ部55は、LCD51の上側に設けられる。 The marker section 55 is provided on the upper side of the LCD 51. 各マーカ55Aおよびマーカ55Bは、マーカ装置6の各マーカ6Rおよび6Lと同様、1以上の赤外LEDで構成される。 The markers 55A and the marker 55B is similar to the markers 6R and 6L of the marker unit 6 consists of one or more infrared LED. マーカ部55は、上述のマーカ装置6と同様、コントローラ5の動き等をゲーム装置3が算出するために用いられる。 The marker section 55, like the marker device 6 described above, is used to the motion of the controller 5 such as a game apparatus 3 is calculated. また、ゲーム装置3はマーカ部55が備える各赤外LEDの点灯を制御することが可能である。 The game apparatus 3 is capable of controlling lighting of each infrared LED included in the marker section 55.

端末装置8は、撮像手段であるカメラ56を備えている。 Terminal 8 is provided with a camera 56 is an imaging means. カメラ56は、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。 The camera 56 includes an imaging device having a predetermined resolution (eg, CCD image sensor or a CMOS image sensor), and a lens. 図29に示すように、本変形例では、カメラ56はハウジング50の表面に設けられる。 As shown in FIG. 29, in this modification, the camera 56 is provided on the front surface of the housing 50. したがって、カメラ56は、端末装置8を持っているユーザの顔を撮像することができ、例えばLCD51を見ながらゲームを行っている時のユーザを撮像することができる。 Accordingly, the camera 56, the terminal device 8 can image the and have face of the user with, it is possible to image the user when playing the game for example while viewing the LCD 51.

なお、端末装置8は、音声入力手段であるマイク(図10に示すマイク79)を備えている。 The terminal device 8 includes a microphone (microphone 79 shown in FIG. 10) is a sound input means. ハウジング50の表面には、マイクロフォン用孔50cが設けられる。 On the surface of the housing 50, a microphone hole 50c is provided. マイク79はこのマイクロフォン用孔50cの奥のハウジング50内部に設けられる。 Microphone 79 is provided inside the housing 50 at the back of the microphone hole 50c. マイクは、ユーザの音声等、端末装置8の周囲の音を検出する。 Microphone, voice of the user, detects the ambient sound of the terminal device 8.

端末装置8は、音声出力手段であるスピーカ(図10に示すスピーカ77)を備えている。 Terminal 8 is provided with a speaker (speaker 77 shown in FIG. 10) is an audio output means. 図29の(d)図に示すように、ハウジング50の下側側面にはスピーカ孔57が設けられる。 As shown in (d) of Figure 29, the speaker hole 57 is provided in the lower side of the housing 50. スピーカ77の出力音はこのスピーカ孔57から出力される。 Output sound of the speaker 77 is output from the speaker holes 57. 本変形例では、端末装置8は2つのスピーカを備えており、左スピーカおよび右スピーカのそれぞれの位置にスピーカ孔57が設けられる。 In this modified example, the terminal device 8 is equipped with two speakers, the speaker holes 57 are provided at respective positions of the left speaker and right speaker.

また、端末装置8は、他の装置を端末装置8に接続するための拡張コネクタ58を備えている。 The terminal device 8 includes an extension connector 58 for connecting other devices to the terminal device 8. 本変形例においては、図29の(d)図に示すように、拡張コネクタ58は、ハウジング50の下側側面に設けられる。 In this modification, as shown in (d) Fig. 29, the extension connector 58 is provided on the lower side of the housing 50. なお、拡張コネクタ58に接続される他の装置はどのようなものであってもよく、例えば、特定のゲームに用いるコントローラ(銃型のコントローラ等)やキーボード等の入力装置であってもよい。 Incidentally, it may Whatever other device connected to the extension connector 58, for example, may be an input device of the controller (gun-shaped controller, etc.) and a keyboard for use in a particular game. 他の装置を接続する必要がなければ、拡張コネクタ58は設けられていなくともよい。 If you do not need to connect another device, the extension connector 58 may not be provided.

なお、図29に示した端末装置8に関して、各操作ボタンやハウジング50の形状や、各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。 Regarding the terminal device 8 shown in FIG. 29, the shape of each operation button and the housing 50, the number and the positions of the components are merely an example, other shapes, a number, and the installation position it may be.

以上のように、上記変形例においては、ハウジング50の裏面において左右両側の位置に設けられる2つの足部59Aおよび59Bが突起部として設けられる。 As described above, in the above modification, two leg portions 59A and 59B provided at a position of the left and right sides in the rear surface of the housing 50 is provided as projections. この場合も上記実施形態と同様、突起部の下面を薬指または中指に掛けた状態で端末装置8を把持することによって、ユーザは楽に端末装置8を把持することができる(図30参照)。 As with this case the above-described embodiment, by gripping the terminal device 8 in a state of hanging the lower surface of the protrusion on the ring finger or the middle finger, the user can grip the effortlessly terminal device 8 (see FIG. 30). また、上記実施形態と同様、突起部の上面に第2Lボタン54Kおよび第2Rボタン54Lが設けられるので、ユーザは上記の状態でこれらのボタンを容易に操作することができる。 Also, as in the above embodiment, since the 2L button 54K and the 2R button 54L is provided on the upper surface of the projecting portion, the user can operate these buttons easily with the above conditions.

上記実施形態および変形例のように、突起部は、ハウジングの裏側において、ハウジングの中央よりも上側であって少なくとも左右両側の位置に突起して設けられることが好ましい。 As in the above embodiments and variations, protrusions on the back side of the housing is preferably provided with projections to the position of at least the right and left sides a above the center of the housing. これによれば、ユーザがハウジングの左右両側を把持した場合に、突起部が指に掛かるようにすることで楽に端末装置を把持することができる。 According to this, the user can when gripping the left and right sides of the housing, the protrusion grips comfortably terminal apparatus is set so as applied to the finger. また、突起部が上側に設けられることによって、ユーザは手のひらでもハウジングを支えることができるので(図10等参照)、端末装置をしっかりと把持することができる。 Further, by the projection portion is provided on the upper side, since the user can support the housing in the palm (see FIG. 10 for example), it is possible to firmly grip the terminal device.

なお、突起部は、ハウジングの中央よりも上側に設けられなくてもよい。 Incidentally, the protrusion may not be provided above the center of the housing. 例えば、表示部の左右に操作部がそれぞれ設けられる場合には、突起部は、ユーザが各操作部を両手の親指でそれぞれ操作可能なようにハウジングを把持した状態で、親指以外のいずれかの指に掛止可能な位置に設けられてもよい。 For example, when the operation portion is provided on left and right of the display unit, the projection portion in a state where the user holds the housing operably respectively each operating portion by the thumb of both hands, other than the thumb either it may be provided in locking position capable finger. これによっても、ユーザは、突起部が指に掛かるようにすることで楽に端末装置を把持することができる。 This also allows the user projections to grip comfortably terminal apparatus is set so as applied to the finger.

図31および図32は、上記実施形態の他の変形例に係る端末装置の外観構成を示す図である。 31 and FIG. 32 is a diagram showing an external configuration of a terminal device according to another modification of the above embodiment. 図31は端末装置の右側面図であり、図32は下面図である。 Figure 31 is a right side view of the terminal device, FIG. 32 is a bottom view. 図31および図32に示す端末装置9は、凸部230aおよび230bを備える点を除いて、上記実施形態における端末装置7と同様である。 Terminal device 9 shown in FIGS. 31 and 32, except that it includes a protrusion 230a and 230b, is similar to the terminal device 7 in the embodiment. 以下、上記実施形態との相違点を中心に、本変形例における端末装置9の構成を説明する。 Hereinafter, focusing on differences from the above embodiments, a configuration of the terminal device 9 in this modification.

凸部230aおよび230bは、断面が凸型であり、ハウジング50の裏側において左右の両側にそれぞれ設けられる。 Convex portions 230a and 230b are cross-section is convex, respectively provided on both sides of the left and right in the rear side of the housing 50. ここでは、ハウジング50の左側(表面側から見たときの左側)に凸部230aが設けられ、ハウジング50の右側(表面側から見たときの右側)に凸部230bが設けられる。 Here, the convex portion 230a is provided (the left side when viewed from the surface side) left housing 50, the convex portion 230b is provided (the right side when viewed from the surface side) right housing 50. 図32に示すように、各凸部230aおよび230bは、ハウジング50の左右の両辺に設けられている。 As shown in FIG. 32, the convex portions 230a and 230b are provided on both sides of the left and right housing 50. また、各凸部230aおよび230bは、突起部(庇部59)よりも下方に設けられる。 Further, the convex portions 230a and 230b are provided below the projections (eaves portion 59). 各凸部230aおよび230bは、突起部との間に間隔を空けて設けられる。 Each protrusion 230a and 230b are provided at an interval between the projections. つまり、ハウジング50において、各凸部230aおよび230bと突起部との間の部分は、これらの各部よりも薄く構成される。 That is, in the housing 50, the portion between the projecting portion and the convex portions 230a and 230b are thinner composed than these units. 各凸部230aおよび230bは、突起する部分が上下方向に延び、上下方向に垂直な断面が凸型の形状である。 Each protrusion 230a and 230b extend portion projections vertically, a cross section perpendicular to the vertical direction is a convex shape.

本変形例においては、ユーザは、小指(および薬指)で各凸部230aおよび230bを包むように把持することで、端末装置9をよりしっかりと把持することができる。 In this modification, the user can be grasped to wrap the respective protrusions 230a and 230b with little finger (and ring fingers), it is possible to more firmly grip the terminal device 9. すなわち、凸部230aおよび230bは、グリップ部の機能を有する。 That is, protrusions 230a and 230b has a function of the grip portion. なお、凸部(グリップ部)は、どのような形状であってもよいが、上下方向に延びるように形成されると端末装置9が持ちやすくなり、好ましい。 Incidentally, the convex portion (grip portion), what may be a shape, when it is formed so as to extend in the vertical direction terminal device 9 is easy to hold, preferred. また、各凸部230aおよび230bの高さは、どのくらいでもよいが、突起部よりも低く形成されてもよい。 Further, the convex portions 230a and the height of 230b is how the may be, but may be formed lower than the projections. これによれば、LCD51の画面が上向きになるように端末装置9を載置した状態において画面の下側が上側よりも低くなるので、見やすい状態で端末装置9を載置することができる。 According to this, since the lower side of the screen in a state where the screen of the LCD51 is mounted with the terminal device 9 so as to upward it is lower than the upper, it is possible to place the terminal device 9 in legible state. また、各凸部230aおよび230bは突起部との間に間隔を空けて設けられるので、ユーザは突起部の下面に指を当てて端末装置9を把持することができ、凸部が当該指の邪魔になることがない。 Further, since the convex portions 230a and 230b are spaced apart between the projections, the user is able to grip the terminal device 9 against the finger on the lower surface of the projecting portion, the projecting portion of the finger never get in the way. 以上のように、上記変形例によれば、突起部の下方に凸部が設けられることによって、ユーザは、端末装置をよりしっかりと把持することができる。 As described above, according to the modified example, by the convex portion is provided below the projection portion, the user can more securely grip the terminal device. なお、他の実施形態においては、ハウジング50の裏面に上記突起部が設けられない構成としてもよく、その場合でも、凸部(グリップ部)によってユーザはハウジング50をしっかりと把持することができる。 Note that in other embodiments, may be a back surface the projection is not provided on the structure of housing 50, even in this case, the user by the convex portion (grip) can be securely grip the housing 50.

(本構成を適用する装置に関する変形例) (Modification to a device for applying this configuration)
上記実施形態においては、据置型のゲーム装置と共に用いられる端末装置を例として説明したが、本明細書に記載の操作装置の構成は、ユーザが把持して使用する任意の装置に適用することが可能である。 In the above embodiment has been described terminal apparatus for use with a stationary game apparatus as an example, configuration of the operating device described herein, be applied to any device used by the user to grip possible it is. 例えば、操作装置は、携帯ゲーム機、携帯電話、スマートフォン、および電子書籍端末等の情報端末として実現されてもよい。 For example, the operation device, a portable game machine, a cellular phone, may be implemented as an information terminal such as a smart phone and an electronic book reader.

以上のように、本発明は、ユーザが容易に把持することを可能とすること等を目的として、例えばゲームシステムにおける操作装置(端末装置)等として利用することが可能である。 As described above, the present invention is, as aim of enabling a user to easily grasp, can be utilized as for example, an operation of the game system device (terminal device) and the like.

1 ゲームシステム 2 テレビ 3 ゲーム装置 4 光ディスク 5 コントローラ 6 マーカ装置 7〜9 端末装置 10 CPU 1 gaming system 2 TV 3 game apparatus 4 the optical disk 5 controller 6 marker device 7-9 terminal apparatus 10 CPU
11e 内部メインメモリ 12 外部メインメモリ 51 LCD 11e internal main memory 12 external main memory 51 LCD
52 タッチパネル 53 アナログスティック 54 操作ボタン 55 マーカ部 56 カメラ 59 庇部 62 磁気センサ 63 加速度センサ 64 ジャイロセンサ 200 入力装置 210 スタンド 230 凸部 52 touch panel 53 analog stick 54 operation buttons 55 marker section 56 camera 59 overhanging portion 62 magnetic sensor 63 acceleration sensor 64 gyro sensor 200 input device 210 stand 230 protrusions

Claims (22)

  1. 略板状のハウジングと、 A substantially plate-shaped housing,
    前記ハウジングの表側に設けられる表示部と、 A display unit provided on the front side of the housing,
    前記ハウジングの中央よりも上側において前記表示部の左右にそれぞれ設けられる第1操作部および第2操作部と、 A first operation unit and second operation unit are provided on left and right of the display unit in the upper than the center of the housing,
    前記ハウジングの裏側において前記第1操作部および第2操作部の反対側の位置にそれぞれ設けられる第3操作部および第4操作部と Each third operating portion and the fourth operating portion is provided on the opposite side of the position of the first operating portion and the second operating portion on the back side of the housing,
    前記ハウジングの裏側において、左右に延びる庇状の形状を有する突起部とを備え In the back side of the housing, and a projection portion having a visor-like shape extending in the left-right,
    前記第3操作部および第4操作部は、前記突起部の上面に配置される 、操作装置。 The third operating portion and the fourth operating portion is disposed on an upper surface of the projecting portion, the operating device.
  2. 前記突起部の下面には、操作装置とは別の付加装置が係止可能な第1係止穴が設けられる、請求項に記載の操作装置。 Wherein the lower surface of the protrusion, separate additional device is a first locking hole to be locked is provided an operating device, the operating device according to claim 1.
  3. 前記ハウジングの下側の面には、前記付加装置が係止可能な第2係止穴が設けられる、請求項に記載の操作装置。 Wherein the lower surface of the housing, the second locking holes the additional device to be locked is provided, operating device according to claim 2.
  4. 前記突起部の下方であって前記ハウジングの裏面における左右両側に、断面が凸型である凸部をさらに備える、請求項から請求項のいずれか1項に記載の操作装置。 The left and right sides of the back surface of the housing a lower portion of the protrusion, in cross-section further comprises a convex portion which is convex, operating device according to any one of claims 1 to 3.
  5. 前記突起部と前記凸部とは間隔を空けて設けられる、請求項に記載の操作装置。 It is spaced apart from the projecting portion and the convex portion, the operating device according to claim 4.
  6. 前記ハウジングの裏面における左右両側に設けられるグリップ部をさらに備える、請求項1から請求項のいずれか1項に記載の操作装置。 Further comprising a grip portion provided on the left and right sides of the back surface of the housing, the operating device according to any one of claims 1 to 3.
  7. 略板状のハウジングと、 A substantially plate-shaped housing,
    前記ハウジングの表側に設けられる表示部と、 A display unit provided on the front side of the housing,
    前記ハウジングの中央よりも上側において前記表示部の左右にそれぞれ設けられる第1操作部および第2操作部と、 A first operation unit and second operation unit are provided on left and right of the display unit in the upper than the center of the housing,
    前記ハウジングの裏側において前記第1操作部および第2操作部の反対側の位置にそれぞれ設けられる第3操作部および第4操作部と、 Each third operating portion and the fourth operating portion is provided on the opposite side of the position of the first operating portion and the second operating portion on the back side of the housing,
    前記ハウジングの裏側において、少なくとも左右両側の位置に突起して設けられる突起部と、 In the back side of the housing, and a projection portion provided with projections on at least right and left sides of the position,
    前記突起部の下方であって前記ハウジングの裏面における左右両側に、断面が凸型である凸部とを備え、 The left and right sides of the back surface of the housing a lower portion of the protrusion, and a protrusion section is convex,
    前記第3操作部および第4操作部は、前記突起部の上面に配置され、 The third operating portion and the fourth operating portion is disposed on the upper surface of the protrusion,
    前記突起部と前記凸部とは間隔を空けて設けられる、操作装置。 It is spaced apart from the projecting portion and the convex portion, the operating device.
  8. 前記第1操作部および第2操作部はそれぞれ、スライドまたは傾倒可能な可動部材を有する方向入力部である、請求項1から請求項のいずれか1項に記載の操作装置。 Wherein each of the first operation unit and second operation unit, a direction input unit having a slide or tilt a movable member, operating device according to any one of claims 1 to 7.
  9. 前記第3操作部および第4操作部はそれぞれ、押下可能なキーである、請求項1から請求項のいずれか1項に記載の操作装置。 Wherein each third operating portion and the fourth operating portion, which is a depressible key operating device according to any one of claims 1 to 8.
  10. 前記ハウジングの表側の面において前記第1操作部の下方に配置される第5操作部と、 A fifth operation portion which is arranged below the first operating portion in the front surface of the housing,
    前記ハウジングの表側の面において前記第2操作部の下方に配置される第6操作部とをさらに備える、請求項1から請求項のいずれか1項に記載の操作装置。 Further comprising a sixth operating portion disposed below the second operating portion in the front surface of the housing, the operating device according to any one of claims 1 to 9.
  11. 前記第5操作部は、少なくとも上下左右の4方向の入力が可能なキーであって、 The fifth operating unit is a key capable of four directions of the input of at least vertically and horizontally,
    前記第6操作部は、押下可能な複数のキーを含む、請求項10に記載の操作装置。 The sixth operating unit includes a plurality of keys that can be pressed, operating device according to claim 10.
  12. 前記ハウジングの上側の面における左右の両側にそれぞれ設けられる第7操作部および第8操作部をさらに備える、請求項1から請求項11のいずれか1項に記載の操作装置。 Further comprising a respective sides of the left and right in the upper surface seventh operating unit and the eighth operating portion is provided in the housing, the operating device according to any one of claims 1 to 11.
  13. 前記第7操作部および第8操作部はそれぞれ、押下可能なキーである、請求項12に記載の操作装置。 Each said seventh operating unit and the eighth operation unit is capable of pressing keys, operating device according to claim 12.
  14. 前記表示部の画面に設けられるタッチパネルをさらに備える、請求項1から請求項13のいずれか1項に記載の操作装置。 Further comprising a touch panel provided on the screen of the display unit, the operation device according to any one of claims 13 claim 1.
  15. 前記ハウジングの内部に慣性センサをさらに備える、請求項1から請求項14のいずれか1項に記載の操作装置。 Further comprising an inertial sensor in the housing, the operating device according to any one of claims 14 claim 1.
  16. 自機に対して行われた操作を表す操作データをゲーム装置へ無線で送信する通信部をさらに備える、請求項1から請求項15のいずれか1項に記載の操作装置。 Further comprising a communication unit which transmits operation data representing the operation performed on the own apparatus by radio to the game apparatus operating device according to any one of claims 1 to 15.
  17. 前記通信部は、前記ゲーム装置から送信されてくる画像データを受信し、 The communication unit receives the image data transmitted from the game device,
    受信された画像データを前記表示部に表示させる表示制御部をさらに備える、請求項16に記載の操作装置。 The received image data further comprising a display control unit for displaying on the display unit, the operation device according to claim 16.
  18. 自機に対する操作に基づいてゲーム処理を実行するゲーム処理部と、 A game processing unit for executing game processing based on an operation for its own device,
    前記ゲーム処理に基づいてゲーム画像を生成して前記表示部に表示させる表示制御部とをさらに備える、請求項1から請求項15のいずれか1項に記載の操作装置。 The generated game image based on the game process further comprising a display control unit for displaying on the display unit, an operation device according to any one of claims 1 to 15.
  19. 前記表示部は5インチ以上の画面を有する、請求項1から請求項18のいずれか1項に記載の操作装置。 Wherein the display unit has a more than 5 inches screen, operating device according to any one of claims 1 to 18.
  20. 略板状のハウジングと、 A substantially plate-shaped housing,
    前記ハウジングの表側に設けられる表示部と、 A display unit provided on the front side of the housing,
    前記ハウジングの中央よりも上側において前記表示部の左右にそれぞれ設けられる第1操作部および第2操作部と、 A first operation unit and second operation unit are provided on left and right of the display unit in the upper than the center of the housing,
    前記ハウジングの裏側において前記第1操作部および第2操作部の反対側の位置にそれぞれ設けられる第3操作部および第4操作部と、 Each third operating portion and the fourth operating portion is provided on the opposite side of the position of the first operating portion and the second operating portion on the back side of the housing,
    前記ハウジングの裏側において、少なくとも左右両側の位置に突起して設けられる突起部とを備え、 In the back side of the housing, and a projection portion provided with projections on at least right and left sides of the position,
    前記第3操作部および第4操作部は、前記突起部の上面に配置され、 The third operating portion and the fourth operating portion is disposed on the upper surface of the protrusion,
    前記突起部の下面には、前記付加装置が係止可能な第1係止穴が設けられ、 Wherein the lower surface of the protrusion, said additional device is a first locking hole to be locked is provided,
    前記ハウジングの下側の面には、前記付加装置が係止可能な第2係止穴が設けられる、操作装置。 Wherein the lower surface of the housing, the second locking holes the additional device to be locked is provided, the operating device.
  21. 請求項20に記載の操作装置と、 And operating device according to claim 20,
    前記第1および第2係止穴にそれぞれ係止可能な各爪部を備え、当該各爪部が当該第1および第2係止穴に掛止することによって前記操作装置に接続される付加装置とを含む、操作システム。 With the respective lockable pawls to the first and second locking holes, additional device to which the pawls are connected to the operating device by hooking to the first and second locking holes including the door, operation system.
  22. 請求項20に記載の操作装置と、 And operating device according to claim 20,
    前記第2係止穴に挿入可能なガイド部材、および、当該ガイド部材が第2係止穴に挿入された場合に前記ハウジングの裏面を所定の角度に支持する支持部材を備える支持装置とを含む、操作システム。 The insertable guide member to the second locking hole, and a supporting device and comprising a supporting member to which the guide member supports the back surface of the housing at a predetermined angle when it is inserted into the second locking hole , operation system.
JP2011102834A 2010-11-01 2011-05-02 The operating device and the operating system Active JP5837325B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010245298 2010-11-01
JP2010245298 2010-11-01
JP2011092506 2011-04-18
JP2011092506 2011-04-18
JP2011102834A JP5837325B2 (en) 2010-11-01 2011-05-02 The operating device and the operating system

Applications Claiming Priority (23)

Application Number Priority Date Filing Date Title
JP2011102834A JP5837325B2 (en) 2010-11-01 2011-05-02 The operating device and the operating system
KR20110075093A KR101364826B1 (en) 2010-11-01 2011-07-28 Operating apparatus and operating system
KR20110075100A KR101492310B1 (en) 2010-11-01 2011-07-28 Operating apparatus and information processing apparatus
EP20110176477 EP2446944A1 (en) 2010-11-01 2011-08-03 Controller device and controller system
EP20110176478 EP2446945A1 (en) 2010-11-01 2011-08-03 Controller device and information processing device
EP20110176475 EP2446943B1 (en) 2010-11-01 2011-08-03 Controller device and controller system
EP20110176479 EP2446946B1 (en) 2010-11-01 2011-08-03 Device support system and support device
CA 2748627 CA2748627C (en) 2010-11-01 2011-08-09 Controller device, controller system, and information processing device
US13206059 US8827818B2 (en) 2010-11-01 2011-08-09 Controller device and information processing device
US13206914 US8702514B2 (en) 2010-11-01 2011-08-10 Controller device and controller system
US13206767 US8814680B2 (en) 2010-11-01 2011-08-10 Controller device and controller system
US13207867 US8804326B2 (en) 2010-11-01 2011-08-11 Device support system and support device
CN 201110303971 CN102600612B (en) 2010-11-01 2011-09-30 Operating means and an operating system
CN 201110303781 CN102462960B (en) 2010-11-01 2011-09-30 Controller device and controller system
CN 201110303925 CN102600611B (en) 2010-11-01 2011-09-30 Controller device and information processing device
CN 201110303989 CN102600614B (en) 2010-11-01 2011-09-30 And supporting means support system apparatus
CN 201120378443 CN202398092U (en) 2010-11-01 2011-09-30 Operating device and operating system
CN 201120378430 CN202355827U (en) 2010-11-01 2011-09-30 Operating device and operating system
CN 201120378451 CN202398095U (en) 2010-11-01 2011-09-30 Equipment supporting system and supporting device
CN 201120378452 CN202355829U (en) 2010-11-01 2011-09-30 Operating device and information processing device
KR20130014536A KR20130020715A (en) 2010-11-01 2013-02-08 Operating apparatus and operating system
US14302248 US9272207B2 (en) 2010-11-01 2014-06-11 Controller device and controller system
US14983173 US9889384B2 (en) 2010-11-01 2015-12-29 Controller device and controller system

Publications (2)

Publication Number Publication Date
JP2012231977A true JP2012231977A (en) 2012-11-29
JP5837325B2 true JP5837325B2 (en) 2015-12-24

Family

ID=47432963

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2011102834A Active JP5837325B2 (en) 2010-11-01 2011-05-02 The operating device and the operating system
JP2011103706A Active JP6005908B2 (en) 2010-11-01 2011-05-06 Equipment support system and supporting device
JP2011103704A Active JP6005907B2 (en) 2010-11-01 2011-05-06 The operating device and the operating system
JP2015217290A Active JP6188766B2 (en) 2010-11-01 2015-11-05 The operating device and the operating system

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2011103706A Active JP6005908B2 (en) 2010-11-01 2011-05-06 Equipment support system and supporting device
JP2011103704A Active JP6005907B2 (en) 2010-11-01 2011-05-06 The operating device and the operating system
JP2015217290A Active JP6188766B2 (en) 2010-11-01 2015-11-05 The operating device and the operating system

Country Status (1)

Country Link
JP (4) JP5837325B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6057738B2 (en) * 2013-01-22 2017-01-11 任天堂株式会社 A game program, a game apparatus, game system, and game processing method
JP2017016706A (en) * 2016-10-11 2017-01-19 任天堂株式会社 Information processing terminal and a game apparatus
JP6181842B1 (en) * 2016-11-30 2017-08-16 グリー株式会社 Application control program, the application control method, and application control system
WO2018100906A1 (en) * 2016-11-30 2018-06-07 グリー株式会社 Application control program, application control method, and application control system
JP6356878B2 (en) * 2017-07-19 2018-07-11 グリー株式会社 Application control program, the application control method, and application control system

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0768052A (en) * 1993-08-31 1995-03-14 Namco Ltd Housing of game apparatus and game apparatus using the same
JPH0788251A (en) * 1993-09-22 1995-04-04 Muumin:Kk Control pad for game machine
JP4036246B2 (en) * 1994-08-02 2008-01-23 任天堂株式会社 Game machine control system
JPH0895669A (en) * 1994-09-29 1996-04-12 Toshiba Corp Electronic equipment system
CN1177634C (en) * 1996-03-05 2004-12-01 世嘉企业股份有限公司 Controller and electronic unit
JPH09294260A (en) * 1996-04-26 1997-11-11 Sega Enterp Ltd Communication processing unit, terminal equipment, communication system, game system participated by many persons using the communication system and communication method
JP3238636B2 (en) * 1996-10-25 2001-12-17 株式会社セガ Information input device
JP2001212373A (en) * 1996-12-27 2001-08-07 Bandai Co Ltd Hand-held liquid crystal game machine
JP3388719B2 (en) * 1999-09-10 2003-03-24 ホシデン株式会社 Trigger-type input device
JP3850634B2 (en) * 2000-06-05 2006-11-29 松下電器産業株式会社 Operating device
JP3481579B2 (en) * 2000-10-17 2003-12-22 Necアクセステクニカ株式会社 Fixing structure of a portable terminal to the charger
JP2002149325A (en) * 2000-11-10 2002-05-24 Canon Inc Extension device
JP2002217771A (en) * 2001-01-17 2002-08-02 Nec Saitama Ltd Holder structure for mobile wireless unit
JP3870315B2 (en) * 2001-08-08 2007-01-17 株式会社日立製作所 Mobile systems
JP3793916B2 (en) * 2001-09-17 2006-07-05 株式会社ベネッセコーポレーション Portable learning device
JP2002177644A (en) * 2001-11-02 2002-06-25 Bandai Co Ltd Liquid crystal game device
JP3762295B2 (en) * 2001-12-21 2006-04-05 京セラ株式会社 The charging device and the mobile terminal for mobile devices
US6773349B2 (en) * 2002-07-31 2004-08-10 Intec, Inc. Video game controller with integrated video display
JP2004310158A (en) * 2003-04-02 2004-11-04 World Picom Kk Terminal placing table
JP3098456U (en) * 2003-06-10 2004-03-04 カシオ計算機株式会社Casio Computer Co.,Ltd. Portable equipment for mounting apparatus
JP3703473B2 (en) * 2004-02-09 2005-10-05 任天堂株式会社 Game apparatus and a game program
US20050181756A1 (en) * 2004-02-17 2005-08-18 Chung-Hung Lin Wireless digital music player
JP3108313U (en) * 2004-10-20 2005-04-14 ストームエレクトロニクス株式会社 Controller for the game machine
JP4627072B2 (en) * 2005-08-22 2011-02-09 任天堂株式会社 Game operating apparatus and a game system
JP2007274836A (en) * 2006-03-31 2007-10-18 Hosiden Corp Charger for electronic equipment
JP4386900B2 (en) * 2006-05-02 2009-12-16 アルプス電気株式会社 Operation apparatus and a game controller
JP5060990B2 (en) * 2008-02-21 2012-10-31 株式会社ソニー・コンピュータエンタテインメント Stand and electronic equipment
JP5224595B2 (en) * 2008-02-28 2013-07-03 パナソニック株式会社 The electronic device
US20090322671A1 (en) * 2008-06-04 2009-12-31 Cybernet Systems Corporation Touch screen augmented reality system and method
US20100311501A1 (en) * 2009-06-04 2010-12-09 Hsu Kent T J Game controller

Also Published As

Publication number Publication date Type
JP2016039960A (en) 2016-03-24 application
JP6005908B2 (en) 2016-10-12 grant
JP6188766B2 (en) 2017-08-30 grant
JP2012232025A (en) 2012-11-29 application
JP2012232024A (en) 2012-11-29 application
JP2012231977A (en) 2012-11-29 application
JP6005907B2 (en) 2016-10-12 grant

Similar Documents

Publication Publication Date Title
US20070072680A1 (en) Game controller and game system
US20100009760A1 (en) Game program and game apparaus
US8870655B2 (en) Wireless game controllers
US20080015017A1 (en) Game controller
US20080119269A1 (en) Game system and storage medium storing game program
US20070265088A1 (en) Storage medium storing game program, game apparatus, and game system
US20080242385A1 (en) Game device and storage medium storing game program
US20080076567A1 (en) Game device and storage medium storing game program
US20100178988A1 (en) Game apparatus and storage medium storing game program
JP2007061489A (en) Information processing system and program
US20120258796A1 (en) Input system, information processing device, storage medium storing information processing program, and three-dimensional position calculation method
US20120040759A1 (en) Game system, game apparatus, storage medium having game program stored therein, and game process method
US20110287842A1 (en) Game apparatus, storage medium having game program stored therein, game system, and game process method
US20120052952A1 (en) Game system, game apparatus, storage medium having game program stored therein, and game process method
US8308563B2 (en) Game system and storage medium having game program stored thereon
US20120044177A1 (en) Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
US20110190061A1 (en) Display device, game system, and game method
US20120046106A1 (en) Game system, game device, storage medium storing game program, and game process method
US20120052959A1 (en) Game system, game apparatus, storage medium having game program stored therein, and game process method
US8747222B2 (en) Game system, game device, storage medium storing game program, and image generation method
US20090085935A1 (en) Storage medium storing image processing program and image processing apparatus
US20100009754A1 (en) Game apparatus and game program
US8613672B2 (en) Game system, image output device, and image display method
US20120106041A1 (en) Controller device and information processing device
US8795078B1 (en) Method and system providing compatibility between two different controllers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150423

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151105

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5837325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150