JP2009064449A - Controller and computer system - Google Patents

Controller and computer system Download PDF

Info

Publication number
JP2009064449A
JP2009064449A JP2008256858A JP2008256858A JP2009064449A JP 2009064449 A JP2009064449 A JP 2009064449A JP 2008256858 A JP2008256858 A JP 2008256858A JP 2008256858 A JP2008256858 A JP 2008256858A JP 2009064449 A JP2009064449 A JP 2009064449A
Authority
JP
Japan
Prior art keywords
unit
housing
controller
data
core unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008256858A
Other languages
Japanese (ja)
Inventor
Akio Ikeda
昭夫 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2008256858A priority Critical patent/JP2009064449A/en
Publication of JP2009064449A publication Critical patent/JP2009064449A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Mechanical Control Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a controller and a computer system, the controller allowing a player to easily operate an operation section while holding an operation unit with one hand. <P>SOLUTION: A controller is provided for transmitting operation data to a computer that executes a predetermined program. The controller includes a housing and an operation section. The housing can be held by one hand and is slender as a whole, and further its top surface curves along a longitudinal direction. The operation section is provided at the top front side of the housing, includes at least a direction input operation portion used by a user to instruct a direction, and outputs, at least as the operation data, data corresponding to the instruction given to the direction input operation portion. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、コントローラおよびコンピュータシステムに関する。   The present invention relates to a controller and a computer system.

プレイヤが両手にそれぞれコントロールユニットを把持してゲーム操作するコントローラが開示されている(例えば、特許文献1参照)。   A controller is disclosed in which a player operates a game by holding the control unit with both hands (see, for example, Patent Document 1).

特許文献1に開示されたコントローラは、プレイヤの右手で把持されるRユニットと左手で把持されるLユニットとから構成される。RユニットおよびLユニットは、それぞれハウジング上面や側面に操作ボタンやスティックが配置されている。そして、RユニットおよびLユニットは物理的に連結することが可能であり、連結した場合に合体型のコントローラとして使用することができる。
特開2004−313492号公報
The controller disclosed in Patent Document 1 includes an R unit that is gripped by the player's right hand and an L unit that is gripped by the left hand. In the R unit and the L unit, operation buttons and sticks are arranged on the upper surface and side surfaces of the housing, respectively. The R unit and the L unit can be physically connected, and when connected, can be used as a combined controller.
JP 2004-313492 A

しかしながら、上記特許文献1に開示されたコントローラは、従来のゲーム機用コントローラを左右に分離できるように構成したに過ぎない。つまり、プレイヤが左右の手にそれぞれRユニットおよびLユニットを把持した状態で操作部を操作することが難しい。   However, the controller disclosed in Patent Document 1 is merely configured so that a conventional game machine controller can be separated into left and right. That is, it is difficult for the player to operate the operation unit while holding the R unit and the L unit with the left and right hands, respectively.

それ故に、本発明の目的は、プレイヤが片手で把持した状態で操作部を操作することが容易となるコントローラおよびコンピュータシステムを提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a controller and a computer system that make it easy to operate an operation unit while a player holds it with one hand.

上記の目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の参照符号等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明の範囲を何ら限定するものではない。   In order to achieve the above object, the present invention adopts the following configuration. Note that reference numerals and the like in parentheses indicate correspondence with embodiments described later to help understanding of the present invention, and do not limit the scope of the present invention.

第1の発明は、所定のプログラムを実行するコンピュータ(30)に操作データを送信するためのコントローラ(76)である。コントローラは、ハウジング(77)および操作部(78)を備える。ハウジングは、片手で把持可能な大きさでかつ全体として細長く、その上面が長手方向に沿って湾曲している。操作部は、ハウジング上面の前方に設けられ、方向をユーザに指示させるための方向入力部を少なくとも含み、当該方向入力部に与えられた指示に応じたデータを少なくとも操作データとして出力する。   The first invention is a controller (76) for transmitting operation data to a computer (30) executing a predetermined program. The controller includes a housing (77) and an operation unit (78). The housing has a size that can be gripped with one hand and is elongated as a whole, and its upper surface is curved in the longitudinal direction. The operation unit is provided in front of the upper surface of the housing, includes at least a direction input unit for instructing the user of the direction, and outputs at least data corresponding to the instruction given to the direction input unit as operation data.

第2の発明は、上記第1の発明において、ハウジングは、前方が太く、後方が細く形成される。   In a second aspect based on the first aspect, the housing is formed such that the front is thick and the rear is thin.

第3の発明は、上記第1の発明において、操作部は、少なくとも1つの第1操作ボタン部(78d、78e)をさらに含む。第1操作ボタン部は、ハウジングの前端面に設けられた少なくとも1つの操作ボタンを有し、当該第1操作ボタン部に対する操作に応じたデータを操作データとしてさらに出力する。   In a third aspect based on the first aspect, the operation section further includes at least one first operation button section (78d, 78e). The first operation button section has at least one operation button provided on the front end surface of the housing, and further outputs data corresponding to the operation on the first operation button section as operation data.

第4の発明は、上記第3の発明において、方向入力部は、ユーザがハウジングを把持したとき、ユーザの親指で操作可能な上面の位置に設けられる。第1操作ボタン部は、当該方向入力部に親指を置いた状態でユーザの人指し指で操作可能な前端面の位置に設けられる。   In a fourth aspect based on the third aspect, the direction input portion is provided at a position on the upper surface that can be operated with the thumb of the user when the user grips the housing. The first operation button portion is provided at a position on the front end face that can be operated with the user's index finger with the thumb placed on the direction input portion.

第5の発明は、上記第1の発明において、操作部は、第2操作ボタン部(78b、78c)を、さらに含む。第2操作ボタン部は、さらに含むハウジングの上面であって方向入力部の近傍かつ後方に設けられる。   In a fifth aspect based on the first aspect, the operation section further includes a second operation button section (78b, 78c). The second operation button portion is provided on the upper surface of the housing further including the direction input portion and behind the direction input portion.

第6の発明は、所定のプログラムを実行するコンピュータに操作データを送信するためのコントローラである。コントローラは、ハウジング、第1操作ボタン部、および方向入力部を備える。ハウジングは、片手で把持可能な大きさでかつ全体として細長く、その上面側から見たときその長手方向の前部分が太く後部分が当該前部分よりも細く形成され、その上面が上面側に凸となるように長手方向に湾曲して形成された。第1操作ボタン部は、ハウジングの前端面に設けられ、当該ハウジングを把持したときに片手の人指し指で操作可能であり、当該操作に応じたデータを操作データとして出力する。方向入力部は、第1操作ボタン部に人指し指を置いた状態で親指で操作可能なハウジングの前部分の上面の位置に設けられ、方向をユーザに指示させ、当該指示に応じたデータを操作データとして出力する。   A sixth invention is a controller for transmitting operation data to a computer that executes a predetermined program. The controller includes a housing, a first operation button part, and a direction input part. The housing has a size that can be grasped with one hand and is elongated as a whole, and when viewed from the upper surface side, the front part in the longitudinal direction is thicker and the rear part is thinner than the front part, and the upper surface protrudes upward. It was formed so as to be curved in the longitudinal direction. The first operation button portion is provided on the front end surface of the housing, and can be operated with an index finger of one hand when the housing is gripped, and outputs data corresponding to the operation as operation data. The direction input unit is provided at a position on the upper surface of the front portion of the housing that can be operated with the thumb with the index finger placed on the first operation button unit, and instructs the user to specify the direction, and data corresponding to the instruction is operated Output as.

第7の発明は、上記第1または第6の発明において、方向入力部は、ハウジングの上面から突出し、傾倒操作によって任意方向を指示可能に構成されたスティック(78a)である。   In a seventh aspect based on the first or sixth aspect, the direction input portion is a stick (78a) configured to project from the upper surface of the housing and to be able to indicate an arbitrary direction by a tilting operation.

第8の発明は、上記第7の発明において、ハウジングの上面には、スティックが突出するための8角形の開口部が形成される。   In an eighth aspect based on the seventh aspect, an octagonal opening for the stick to protrude is formed on the upper surface of the housing.

第9の発明は、上記第1または第6の発明において、方向入力部は、前後左右に並んだ独立した4つの操作ボタン(78i〜78l)である。   In a ninth aspect based on the first or sixth aspect, the direction input section is four independent operation buttons (78i to 78l) arranged in the front, rear, left and right directions.

第10の発明は、上記第1または第6の発明において、方向入力部は、十字形状のスイッチ(78f)である。   In a tenth aspect based on the first or sixth aspect, the direction input section is a cross-shaped switch (78f).

第11の発明は、上記第1または第6の発明において、方向入力部は、任意方向を指示可能なスライドパッドまたはタッチパッド(78h)である。   In an eleventh aspect based on the first or sixth aspect, the direction input unit is a slide pad or a touch pad (78h) capable of designating an arbitrary direction.

第12の発明は、上記第1または第6の発明において、加速度センサ(701)またはジャイロセンサをさらに備える。加速度センサまたはジャイロセンサは、ハウジング内に搭載され、当該ハウジングの動きに応じたデータを出力する。操作データには、当該加速度センサまたはジャイロセンサの出力データがさらに含まれる。   In a twelfth aspect based on the first or sixth aspect, the apparatus further includes an acceleration sensor (701) or a gyro sensor. The acceleration sensor or the gyro sensor is mounted in the housing and outputs data corresponding to the movement of the housing. The operation data further includes output data of the acceleration sensor or gyro sensor.

第13の発明は、上記第1または第6の発明において、受信部、スピーカ、および音声制御部を、さらに備える。受信部は、コンピュータ側から送信された送信データを受信する。音声制御部は、受信部が受信した送信データに基づいて、スピーカから音声を発生させる。   In a thirteenth aspect based on the first or sixth aspect, the receiver further includes a receiving unit, a speaker, and an audio control unit. The receiving unit receives transmission data transmitted from the computer side. The sound control unit generates sound from the speaker based on the transmission data received by the receiving unit.

第14の発明は、上記第1〜第13の発明の何れか1つにおけるコントローラおよびコンピュータを含む、コンピュータシステム(1)である。コンピュータは、コントローラと通信可能に接続され、当該コントローラから送信される操作データに応じた処理を行う。   A fourteenth invention is a computer system (1) including the controller and the computer according to any one of the first to thirteenth inventions. The computer is communicably connected to the controller and performs processing according to operation data transmitted from the controller.

例えばユーザの親指をハウジングの上面(例えば、方向入力部付近)に添え、ユーザの人差し指をハウジングの前面に添え、ユーザの中指、薬指、および小指をハウジングの下面に添えるように、コントローラを把持することが可能となる。したがって、コントローラは、ユーザが片手で把持した状態で方向入力部を容易に操作することができる。   For example, hold the controller so that the user's thumb is attached to the top surface of the housing (eg, near the direction input section), the user's index finger is attached to the front surface of the housing, and the user's middle finger, ring finger, and little finger are attached to the bottom surface of the housing It becomes possible. Therefore, the controller can easily operate the direction input unit while the user holds it with one hand.

また、ハウジング前端面に操作ボタンを設ける場合、ユーザの人差し指等をハウジング前端面に設けられた操作ボタンに添えることができるため、ユーザが片手で把持した状態で前端面の操作ボタンを容易に操作することができる。   In addition, when the operation button is provided on the front end surface of the housing, the user's index finger can be attached to the operation button provided on the front end surface of the housing, so that the user can easily operate the operation button on the front end surface while holding it with one hand. can do.

また、ハウジング内に加速度センサやジャイロセンサを内蔵する場合、ハウジングの動きによって変化するデータを出力できる。これにより、コントローラを利用するためには、ハウジングの動きによって変化する操作データが出力されるため、ユーザが片手にコントローラを把持して手自体を動かして操作するような入力を行わせることができる。また、加速度センサやジャイロセンサを利用することによって、コストを抑えることができる。   In addition, when an acceleration sensor or a gyro sensor is built in the housing, data that changes depending on the movement of the housing can be output. Thus, in order to use the controller, operation data that changes depending on the movement of the housing is output, so that the user can perform an input by operating the hand by holding the controller with one hand. . Further, the cost can be reduced by using an acceleration sensor or a gyro sensor.

また、受信部、スピーカ、および音声制御部をさらに備える場合、コンピュータからのデータに応じた音声がスピーカから発生するため、コントローラを持つプレイヤの手元で音声を発生させることができる。   Further, when the receiver, the speaker, and the voice control unit are further provided, the voice corresponding to the data from the computer is generated from the speaker, so that the voice can be generated by the player having the controller.

また、本発明のコンピュータシステムによれば、上述したコントローラと同様の効果を得ることができる。   Further, according to the computer system of the present invention, the same effect as that of the controller described above can be obtained.

図1を参照して、本発明の一実施形態に係るゲームシステム1について説明する。なお、図1は、当該ゲームシステム1を説明するための外観図である。以下、据置型ゲーム装置を一例にして、本発明のゲームシステム1について説明する。   A game system 1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an external view for explaining the game system 1. Hereinafter, the game system 1 of the present invention will be described using a stationary game apparatus as an example.

図1において、当該ゲームシステム1は、家庭用テレビジョン受像機等のスピーカ2aを備えたディスプレイ(以下、モニタと記載する)2に、接続コードを介して接続される据置型ゲーム装置(以下、単にゲーム装置と記載する)3および当該ゲーム装置3に操作情報を与えるコントローラ7によって構成される。ゲーム装置3は、接続端子を介して受信ユニット6が接続される。受信ユニット6は、コントローラ7から無線送信される送信データを受信し、コントローラ7とゲーム装置3とは無線通信によって接続される。また、ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられる情報記憶媒体の一例の光ディスク4が脱着される。ゲーム装置3の上部主面には、当該ゲーム装置3の電源ON/OFFスイッチ、ゲーム処理のリセットスイッチ、およびゲーム装置3上部の蓋を開くOPENスイッチが設けられている。ここで、プレイヤがOPENスイッチを押下することによって上記蓋が開き、光ディスク4の脱着が可能となる。   In FIG. 1, the game system 1 includes a stationary game device (hereinafter referred to as a monitor) 2 connected to a display (hereinafter referred to as a monitor) 2 having a speaker 2a such as a home television receiver via a connection cord. 3) and a controller 7 that gives operation information to the game apparatus 3. The game apparatus 3 is connected to the receiving unit 6 via a connection terminal. The receiving unit 6 receives transmission data wirelessly transmitted from the controller 7, and the controller 7 and the game apparatus 3 are connected by wireless communication. Further, an optical disk 4 as an example of an information storage medium that can be used interchangeably with the game apparatus 3 is attached to and detached from the game apparatus 3. An upper main surface of the game apparatus 3 is provided with a power ON / OFF switch of the game apparatus 3, a game process reset switch, and an OPEN switch for opening the lid of the game apparatus 3. Here, when the player presses the OPEN switch, the lid is opened, and the optical disk 4 can be attached and detached.

また、ゲーム装置3には、セーブデータ等を固定的に記憶するバックアップメモリ等を搭載する外部メモリカード5が必要に応じて着脱自在に装着される。ゲーム装置3は、光ディスク4に記憶されたゲームプログラムなどを実行することによって、その結果をゲーム画像としてモニタ2に表示する。さらに、ゲーム装置3は、外部メモリカード5に記憶されたセーブデータを用いて、過去に実行されたゲーム状態を再現して、ゲーム画像をモニタ2に表示することもできる。そして、ゲーム装置3のプレイヤは、モニタ2に表示されたゲーム画像を見ながら、コントローラ7を操作することによって、ゲーム進行を楽しむことができる。   Further, an external memory card 5 equipped with a backup memory or the like for storing save data or the like in a fixed manner is detachably attached to the game apparatus 3 as necessary. The game apparatus 3 displays a result as a game image on the monitor 2 by executing a game program or the like stored on the optical disc 4. Furthermore, the game apparatus 3 can reproduce the game state executed in the past by using the save data stored in the external memory card 5 and display the game image on the monitor 2. Then, the player of the game apparatus 3 can enjoy the progress of the game by operating the controller 7 while viewing the game image displayed on the monitor 2.

コントローラ7は、その内部に備える通信部75(後述)から受信ユニット6が接続されたゲーム装置3へ、例えばBluetooth(ブルートゥース;登録商標)の技術を用いて送信データを無線送信する。コントローラ7は、2つのコントロールユニット(コアユニット70およびサブユニット76)が屈曲自在な接続ケーブル79を介して互いに接続されて構成されており、主にモニタ2に表示されるゲーム空間に登場するプレイヤオブジェクトを操作するための操作手段である。コアユニット70およびサブユニット76は、それぞれ複数の操作ボタン、キー、およびスティック等の操作部が設けられている。また、後述により明らかとなるが、コアユニット70は、当該コアユニット70から見た画像を撮像するための撮像情報演算部74を備えている。また、撮像情報演算部74の撮像対象の一例として、モニタ2の表示画面近傍に2つのLEDモジュール8Lおよび8Rが設置される。これらLEDモジュール8Lおよび8Rは、それぞれモニタ2の前方に向かって赤外光を出力する。なお、本実施例では、コアユニット70とサブユニット76を屈曲自在なケーブルで接続したが、サブユニット76に無線ユニットを搭載することで、接続ケーブル79をなくすこともできる。例えば、無線ユニットとしてBluetooth(登録商標)ユニットをサブユニット76に搭載することで、サブユニット76からコアユニット70へ操作データを送信することが可能になる。   The controller 7 wirelessly transmits transmission data from a communication unit 75 (described later) provided therein to the game apparatus 3 to which the receiving unit 6 is connected, using, for example, Bluetooth (registered trademark) technology. The controller 7 is configured by connecting two control units (a core unit 70 and a subunit 76) to each other via a flexible connection cable 79, and a player appearing in a game space mainly displayed on the monitor 2. It is an operation means for operating the object. Each of the core unit 70 and the subunit 76 is provided with a plurality of operation units such as operation buttons, keys, and sticks. Further, as will be apparent from the description below, the core unit 70 includes an imaging information calculation unit 74 for capturing an image viewed from the core unit 70. In addition, as an example of an imaging target of the imaging information calculation unit 74, two LED modules 8L and 8R are installed near the display screen of the monitor 2. These LED modules 8L and 8R each output infrared light toward the front of the monitor 2. In the present embodiment, the core unit 70 and the subunit 76 are connected by a bendable cable, but the connection cable 79 can be eliminated by mounting a wireless unit on the subunit 76. For example, by mounting a Bluetooth (registered trademark) unit as a wireless unit in the subunit 76, operation data can be transmitted from the subunit 76 to the core unit 70.

次に、図2を参照して、ゲーム装置3の構成について説明する。なお、図2は、ゲーム装置3の機能ブロック図である。   Next, the configuration of the game apparatus 3 will be described with reference to FIG. FIG. 2 is a functional block diagram of the game apparatus 3.

図2において、ゲーム装置3は、各種プログラムを実行する例えばリスク(RISC)CPU(セントラルプロセッシングユニット)30を備える。CPU30は、図示しないブートROMに記憶された起動プログラムを実行し、メインメモリ33等のメモリの初期化等を行った後、光ディスク4に記憶されているゲームプログラムの実行し、そのゲームプログラムに応じたゲーム処理等を行うものである。CPU30には、メモリコントローラ31を介して、GPU(Graphics Processing Unit)32、メインメモリ33、DSP(Digital Signal Processor)34、およびARAM(Audio RAM)35が接続される。また、メモリコントローラ31には、所定のバスを介して、コントローラI/F(インターフェース)36、ビデオI/F37、外部メモリI/F38、オーディオI/F39、およびディスクI/F41が接続され、それぞれ受信ユニット6、モニタ2、外部メモリカード5、スピーカ2a、およびディスクドライブ40が接続されている。   In FIG. 2, the game apparatus 3 includes, for example, a risk (RISC) CPU (Central Processing Unit) 30 that executes various programs. The CPU 30 executes a startup program stored in a boot ROM (not shown), initializes a memory such as the main memory 33, and the like, then executes a game program stored in the optical disc 4, and according to the game program Game processing and the like. A GPU (Graphics Processing Unit) 32, a main memory 33, a DSP (Digital Signal Processor) 34, and an ARAM (Audio RAM) 35 are connected to the CPU 30 via a memory controller 31. The memory controller 31 is connected to a controller I / F (interface) 36, a video I / F 37, an external memory I / F 38, an audio I / F 39, and a disk I / F 41 via a predetermined bus. The receiving unit 6, the monitor 2, the external memory card 5, the speaker 2a, and the disk drive 40 are connected.

GPU32は、CPU30の命令に基づいて画像処理を行うものあり、例えば、3Dグラフィックスの表示に必要な計算処理を行う半導体チップで構成される。GPU32は、図示しない画像処理専用のメモリやメインメモリ33の一部の記憶領域を用いて画像処理を行う。GPU32は、これらを用いてモニタ2に表示すべきゲーム画像データやムービ映像を生成し、適宜メモリコントローラ31およびビデオI/F37を介してモニタ2に出力する。   The GPU 32 performs image processing based on an instruction from the CPU 30, and is configured by a semiconductor chip that performs calculation processing necessary for displaying 3D graphics, for example. The GPU 32 performs image processing using a memory dedicated to image processing (not shown) and a partial storage area of the main memory 33. The GPU 32 generates game image data and movie video to be displayed on the monitor 2 using these, and outputs them to the monitor 2 through the memory controller 31 and the video I / F 37 as appropriate.

メインメモリ33は、CPU30で使用される記憶領域であって、CPU30の処理に必要なゲームプログラム等を適宜記憶する。例えば、メインメモリ33は、CPU30によって光ディスク4から読み出されたゲームプログラムや各種データ等を記憶する。このメインメモリ33に記憶されたゲームプログラムや各種データ等がCPU30によって実行される。   The main memory 33 is a storage area used by the CPU 30 and stores game programs and the like necessary for the processing of the CPU 30 as appropriate. For example, the main memory 33 stores a game program read from the optical disc 4 by the CPU 30 and various data. The game program and various data stored in the main memory 33 are executed by the CPU 30.

DSP34は、ゲームプログラム実行時にCPU30において生成されるサウンドデータ等を処理するものであり、そのサウンドデータ等を記憶するためのARAM35が接続される。ARAM35は、DSP34が所定の処理(例えば、先読みしておいたゲームプログラムやサウンドデータの記憶)を行う際に用いられる。DSP34は、ARAM35に記憶されたサウンドデータを読み出し、メモリコントローラ31およびオーディオI/F39を介してモニタ2に備えるスピーカ2aに出力させる。   The DSP 34 processes sound data generated by the CPU 30 when the game program is executed, and is connected to an ARAM 35 for storing the sound data. The ARAM 35 is used when the DSP 34 performs a predetermined process (for example, storing a pre-read game program or sound data). The DSP 34 reads the sound data stored in the ARAM 35 and outputs the sound data to the speaker 2 a included in the monitor 2 via the memory controller 31 and the audio I / F 39.

メモリコントローラ31は、データ転送を統括的に制御するものであり、上述した各種I/Fが接続される。コントローラI/F36は、例えば4つのコントローラI/F36a〜36dで構成され、それらが有するコネクタを介して嵌合可能な外部機器とゲーム装置3とを通信可能に接続する。例えば、受信ユニット6は、上記コネクタと嵌合し、コントローラI/F36を介してゲーム装置3と接続される。上述したように受信ユニット6は、コントローラ7からの送信データを受信し、コントローラI/F36を介して当該送信データをCPU30へ出力する。ビデオI/F37には、モニタ2が接続される。外部メモリI/F38には、外部メモリカード5が接続され、その外部メモリカード5に設けられたバックアップメモリ等とアクセス可能となる。オーディオI/F39にはモニタ2に内蔵されるスピーカ2aが接続され、DSP34がARAM35から読み出したサウンドデータやディスクドライブ40から直接出力されるサウンドデータをスピーカ2aから出力可能に接続される。ディスクI/F41には、ディスクドライブ40が接続される。ディスクドライブ40は、所定の読み出し位置に配置された光ディスク4に記憶されたデータを読み出し、ゲーム装置3のバスやオーディオI/F39に出力する。   The memory controller 31 controls the overall data transfer and is connected to the various I / Fs described above. The controller I / F 36 includes, for example, four controller I / Fs 36a to 36d, and connects the external device and the game apparatus 3 that can be fitted to each other via a connector included in the controller I / F 36 so that they can communicate with each other. For example, the receiving unit 6 is engaged with the connector and connected to the game apparatus 3 via the controller I / F 36. As described above, the reception unit 6 receives the transmission data from the controller 7 and outputs the transmission data to the CPU 30 via the controller I / F 36. A monitor 2 is connected to the video I / F 37. An external memory card 5 is connected to the external memory I / F 38, and access to a backup memory or the like provided in the external memory card 5 becomes possible. A speaker 2a built in the monitor 2 is connected to the audio I / F 39 so that sound data read out from the ARAM 35 by the DSP 34 or sound data directly output from the disk drive 40 can be output from the speaker 2a. A disk drive 40 is connected to the disk I / F 41. The disk drive 40 reads data stored on the optical disk 4 arranged at a predetermined reading position, and outputs the data to the bus of the game apparatus 3 and the audio I / F 39.

次に、図3および図4を参照して、コントローラ7について説明する。なお、図3は、コントローラ7の外観構成を示す斜視図である。図4は、図3のコントローラ7の接続ケーブル79をコアユニット70から脱着する状態を示す斜視図である。   Next, the controller 7 will be described with reference to FIGS. 3 and 4. FIG. 3 is a perspective view showing an external configuration of the controller 7. FIG. 4 is a perspective view showing a state where the connection cable 79 of the controller 7 of FIG. 3 is detached from the core unit 70.

図3において、コントローラ7は、コアユニット70とサブユニット76とが接続ケーブル79で接続されて構成されている。コアユニット70は、ハウジング71を有しており、当該ハウジング71に複数の操作部72が設けられている。一方、サブユニット76は、ハウジング77を有しており、当該ハウジング77に複数の操作部78が設けられている。そして、コアユニット70とサブユニット76とは、接続ケーブル79によって接続されている。   In FIG. 3, the controller 7 is configured by connecting a core unit 70 and a subunit 76 with a connection cable 79. The core unit 70 includes a housing 71, and a plurality of operation units 72 are provided in the housing 71. On the other hand, the subunit 76 has a housing 77, and a plurality of operation portions 78 are provided in the housing 77. The core unit 70 and the subunit 76 are connected by a connection cable 79.

図4において、接続ケーブル79の一方端にはコアユニット70のコネクタ73に着脱自在なコネクタ791が設けられており、接続ケーブル79の他方端は固定的にサブユニット76と接続されている。そして、接続ケーブル79のコネクタ791は、コアユニット70の後面に設けられたコネクタ73と嵌合し、コアユニット70とサブユニット76とが当該接続ケーブル79を介して接続される。   In FIG. 4, a connector 791 detachably attached to the connector 73 of the core unit 70 is provided at one end of the connection cable 79, and the other end of the connection cable 79 is fixedly connected to the subunit 76. The connector 791 of the connection cable 79 is engaged with the connector 73 provided on the rear surface of the core unit 70, and the core unit 70 and the subunit 76 are connected via the connection cable 79.

図5および図6を参照して、コアユニット70について説明する。なお、図5は、コアユニット70の上面後方から見た斜視図である。図6は、コアユニット70を下面前方から見た斜視図である。   The core unit 70 will be described with reference to FIGS. 5 and 6. FIG. 5 is a perspective view of the core unit 70 as viewed from the upper rear side. FIG. 6 is a perspective view of the core unit 70 as seen from the lower front side.

図5および図6において、コアユニット70は、例えばプラスチック成型によって形成されたハウジング71を有している。ハウジング71は、その前後方向を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。   5 and 6, the core unit 70 includes a housing 71 formed by plastic molding, for example. The housing 71 has a substantially rectangular parallelepiped shape with the front-rear direction as a longitudinal direction, and is a size that can be gripped with one hand of an adult or a child as a whole.

ハウジング71上面の中央前面側に、十字キー72aが設けられる。この十字キー72aは、十字型の4方向プッシュスイッチであり、矢印で示す4つの方向(前後左右)に対応する操作部分が十字の突出片にそれぞれ90°間隔で配置される。プレイヤが十字キー72aのいずれかの操作部分を押下することによって前後左右いずれかの方向を選択される。例えばプレイヤが十字キー72aを操作することによって、仮想ゲーム世界に登場するプレイヤキャラクタ等の移動方向を指示したり、カーソルの移動方向を指示したりすることができる。   A cross key 72 a is provided on the center front side of the upper surface of the housing 71. The cross key 72a is a cross-shaped four-way push switch, and operation portions corresponding to the four directions (front, rear, left, and right) indicated by arrows are arranged at 90 ° intervals on the cross protruding pieces, respectively. The player selects one of the front, rear, left, and right directions by pressing one of the operation portions of the cross key 72a. For example, when the player operates the cross key 72a, it is possible to instruct the moving direction of a player character or the like appearing in the virtual game world, or to instruct the moving direction of the cursor.

なお、十字キー72aは、上述したプレイヤの方向入力操作に応じて操作信号を出力する操作部であるが、他の態様の操作部でもかまわない。例えば、リング状に4方向の操作部分を備えたプッシュスイッチとその中央に設けられたセンタスイッチとを複合した複合スイッチを上記十字キー72aの代わりに設けてもかまわない。また、ハウジング71上面から突出した傾倒可能なスティックを倒すことによって、傾倒方向に応じて操作信号を出力する操作部を上記十字キー72aの代わりに設けてもかまわない。さらに、水平移動可能な円盤状部材をスライドさせることによって、当該スライド方向に応じた操作信号を出力する操作部を、上記十字キー72aの代わりに設けてもかまわない。また、タッチパッドを、上記十字キー72aの代わりに設けてもかまわない。また、少なくとも4つの方向(前後左右)をそれぞれ示すスイッチに対して、プレイヤによって押下されたスイッチに応じて操作信号を出力する操作部を上記十字キー72aの代わりに設けてもかまわない。   Note that the cross key 72a is an operation unit that outputs an operation signal in response to the above-described direction input operation of the player, but may be an operation unit of another mode. For example, instead of the cross key 72a, a composite switch in which a push switch having a four-direction operation portion in a ring shape and a center switch provided at the center thereof may be provided. Further, an operation unit that outputs an operation signal according to the tilt direction by tilting a tiltable stick protruding from the upper surface of the housing 71 may be provided instead of the cross key 72a. Furthermore, an operation unit that outputs an operation signal corresponding to the sliding direction by sliding a horizontally movable disk-shaped member may be provided instead of the cross key 72a. Further, a touch pad may be provided instead of the cross key 72a. Further, an operation unit that outputs an operation signal in response to a switch pressed by the player may be provided instead of the cross key 72a for switches indicating at least four directions (front / rear / left / right).

ハウジング71上面の十字キー72aより後面側に、複数の操作ボタン72b〜72gが設けられる。操作ボタン72b〜72gは、プレイヤがボタン頭部を押下することによって、それぞれの操作ボタン72b〜72gに割り当てられた操作信号を出力する操作部である。例えば、操作ボタン72b〜72dには、1番ボタン、2番ボタン、およびAボタン等としての機能が割り当てられる。また、操作ボタン72e〜72gには、マイナスボタン、ホームボタン、およびプラスボタン等としての機能が割り当てられる。これら操作ボタン72b〜72gは、ゲーム装置3が実行するゲームプログラムに応じてそれぞれの機能が割り当てられるが、本発明の説明とは直接関連しないため詳細な説明を省略する。なお、図5に示した配置例では、操作ボタン72b〜72dは、ハウジング71上面の中央前後方向に沿って並設されている。また、操作ボタン72e〜72gは、ハウジング71上面の左右方向に沿って操作ボタン72bおよび72dの間に並設されている。そして、操作ボタン72fは、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。   A plurality of operation buttons 72 b to 72 g are provided on the rear surface side of the cross key 72 a on the upper surface of the housing 71. The operation buttons 72b to 72g are operation units that output operation signals assigned to the operation buttons 72b to 72g when the player presses the button head. For example, functions as a first button, a second button, and an A button are assigned to the operation buttons 72b to 72d. Further, functions as a minus button, a home button, a plus button, and the like are assigned to the operation buttons 72e to 72g. Each of these operation buttons 72b to 72g is assigned a function according to a game program executed by the game apparatus 3, but will not be described in detail because it is not directly related to the description of the present invention. In the arrangement example shown in FIG. 5, the operation buttons 72 b to 72 d are arranged side by side along the center front-rear direction on the upper surface of the housing 71. Further, the operation buttons 72e to 72g are arranged in parallel between the operation buttons 72b and 72d along the left-right direction of the upper surface of the housing 71. The operation button 72f is a type of button whose upper surface is buried in the upper surface of the housing 71 and is not accidentally pressed by the player.

また、ハウジング71上面の十字キー72aより前面側に、操作ボタン72hが設けられる。操作ボタン72hは、遠隔からゲーム装置3本体の電源をオン/オフする電源スイッチである。この操作ボタン72hも、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。   An operation button 72h is provided on the front surface side of the cross key 72a on the upper surface of the housing 71. The operation button 72h is a power switch for turning on / off the game apparatus 3 main body remotely. The operation button 72h is also a type of button whose upper surface is buried in the upper surface of the housing 71 and is not accidentally pressed by the player.

また、ハウジング71上面の操作ボタン72cより後面側に、複数のLED702が設けられる。ここで、コントローラ7は、他のコントローラ7と区別するためにコントローラ種別(番号)が設けられている。例えば、LED702は、コントローラ7に現在設定されている上記コントローラ種別をプレイヤに通知するために用いられる。具体的には、コアユニット70から受信ユニット6へ送信データを送信する際、上記コントローラ種別に応じて複数のLED702のうち、種別に対応するLEDが点灯する。   A plurality of LEDs 702 are provided on the rear surface side of the operation button 72 c on the upper surface of the housing 71. Here, the controller 7 is provided with a controller type (number) to distinguish it from other controllers 7. For example, the LED 702 is used to notify the player of the controller type currently set in the controller 7. Specifically, when transmitting transmission data from the core unit 70 to the receiving unit 6, among the plurality of LEDs 702, the LED corresponding to the type is lit according to the controller type.

また、ハウジング71上面には、操作ボタン72bおよび操作ボタン72e〜72gの間に後述するスピーカ(図7のスピーカ706)からの音を外部に放出するための音抜き孔が形成されている。   Further, on the upper surface of the housing 71, a sound release hole is formed between the operation button 72b and the operation buttons 72e to 72g for emitting sound from a speaker (speaker 706 in FIG. 7) described later to the outside.

一方、ハウジング71下面には、凹部が形成されている。後述で明らかとなるが、ハウジング71下面の凹部は、プレイヤがコアユニット70を把持したときに当該プレイヤの人差し指や中指が位置するような位置に形成される。そして、上記凹部の後面側傾斜面には、操作ボタン72iが設けられる。操作ボタン72iは、例えばBボタンとして機能する操作部であり、シューティングゲームにおけるトリガスイッチや、プレイヤオブジェクトを所定オブジェクトに対して注目させる操作等に用いられる。   On the other hand, a recess is formed on the lower surface of the housing 71. As will be described later, the recess on the lower surface of the housing 71 is formed at a position where the player's index finger or middle finger is positioned when the player holds the core unit 70. And the operation button 72i is provided in the rear surface side inclined surface of the said recessed part. The operation button 72i is an operation unit that functions as a B button, for example, and is used for a trigger switch in a shooting game, an operation for causing a player object to focus on a predetermined object, or the like.

また、ハウジング71前面には、撮像情報演算部74の一部を構成する撮像素子743が設けられる。ここで、撮像情報演算部74は、コアユニット70が撮像した画像データを解析してその中で輝度が高い場所を判別してその場所の重心位置やサイズなどを検出するためのシステムであり、例えば、最大200フレーム/秒程度のサンプリング周期であるため比較的高速なコアユニット70の動きでも追跡して解析することができる。この撮像情報演算部74の詳細な構成については、後述する。また、ハウジング71の後面には、コネクタ73が設けられている。コネクタ73は、例えば32ピンのエッジコネクタであり、接続ケーブル79のコネクタ791と嵌合して接続するために利用される。   An imaging element 743 that constitutes a part of the imaging information calculation unit 74 is provided on the front surface of the housing 71. Here, the imaging information calculation unit 74 is a system for analyzing the image data captured by the core unit 70, discriminating a place where the luminance is high, and detecting the position of the center of gravity or the size of the place, For example, since the maximum sampling period is about 200 frames / second, even a relatively fast movement of the core unit 70 can be tracked and analyzed. The detailed configuration of the imaging information calculation unit 74 will be described later. A connector 73 is provided on the rear surface of the housing 71. The connector 73 is a 32-pin edge connector, for example, and is used for fitting and connecting with the connector 791 of the connection cable 79.

次に、図7および図8を参照して、コアユニット70の内部構造について説明する。なお、図7は、コアユニット70の上筐体(ハウジング71の一部)を外した状態を後面側から見た斜視図である。図8は、コアユニット70の下筐体(ハウジング71の一部)を外した状態を前面側から見た斜視図である。ここで、図8に示す基板700は、図7に示す基板700の裏面から見た斜視図となっている。   Next, the internal structure of the core unit 70 will be described with reference to FIGS. 7 and 8. FIG. 7 is a perspective view of the state in which the upper housing (a part of the housing 71) of the core unit 70 is removed as viewed from the rear side. FIG. 8 is a perspective view of the state in which the lower housing (a part of the housing 71) of the core unit 70 is removed as seen from the front side. Here, the substrate 700 shown in FIG. 8 is a perspective view seen from the back surface of the substrate 700 shown in FIG.

図7において、ハウジング71の内部には基板700が固設されており、当該基板700の上主面上に操作ボタン72a〜72h、加速度センサ701、LED702、およびアンテナ754等が設けられる。そして、これらは、基板700等に形成された配線(図示せず)によってマイコン751等(図8、図17参照)に接続される。また、図示しない無線モジュール753(図17参照)およびアンテナ754によって、コアユニット70がワイヤレスコントローラとして機能する。なお、ハウジング71内部には図示しない水晶振動子703が設けられており、後述するマイコン751の基本クロックを生成する。また、基板700の上主面上に、スピーカ706およびアンプ708が設けられる。加速度センサ701が、基盤700の中央部ではなく周辺部に設けられていることにより、コアユニット70の長手方向を軸とした回転に応じて、重力加速度の方向変化に加え、遠心力による成分の含まれる加速度を検出することができるので、所定の演算により、検出される加速度データからコアユニット70の回転を良好な感度で判定することができる。   In FIG. 7, a substrate 700 is fixed inside the housing 71, and operation buttons 72a to 72h, an acceleration sensor 701, an LED 702, an antenna 754, and the like are provided on the upper main surface of the substrate 700. These are connected to the microcomputer 751 and the like (see FIGS. 8 and 17) by wiring (not shown) formed on the substrate 700 and the like. Further, the core unit 70 functions as a wireless controller by a wireless module 753 (see FIG. 17) and an antenna 754 (not shown). A quartz oscillator 703 (not shown) is provided inside the housing 71 and generates a basic clock for the microcomputer 751 described later. A speaker 706 and an amplifier 708 are provided on the upper main surface of the substrate 700. Since the acceleration sensor 701 is provided in the peripheral part instead of the central part of the base 700, in addition to the change in the direction of gravity acceleration according to the rotation about the longitudinal direction of the core unit 70, the component due to the centrifugal force Since the included acceleration can be detected, the rotation of the core unit 70 can be determined with good sensitivity from the detected acceleration data by a predetermined calculation.

一方、図8において、基板700の下主面上の前端縁に撮像情報演算部74が設けられる。撮像情報演算部74は、コアユニット70の前方から順に赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744によって構成されており、それぞれ基板700の下主面に取り付けられる。また、基板700の下主面上の後端縁にコネクタ73が取り付けられる。さらに、基板700の下主面上にサウンドIC707およびマイコン751が設けられている。サウンドIC707は、基板700等に形成された配線によってマイコン751およびアンプ708と接続され、ゲーム装置3から送信されたサウンドデータに応じてアンプ708を介してスピーカ706に音声信号を出力する。そして、基板700の下主面上には、バイブレータ704が取り付けられる。このバイブレータ704は、例えば振動モータやソレノイドである。バイブレータ704が作動することによってコアユニット70に振動が発生するので、それを把持しているプレイヤの手にその振動が伝達され、いわゆる振動対応ゲームが実現できる。バイブレータ704は、ハウジング71のやや前方寄りに配置されるため、プレイヤが把持している状態において、ハウジング71が大きく振動することになり、振動を感じやすくなる。   On the other hand, in FIG. 8, an imaging information calculation unit 74 is provided at the front edge on the lower main surface of the substrate 700. The imaging information calculation unit 74 includes an infrared filter 741, a lens 742, an imaging element 743, and an image processing circuit 744 in order from the front of the core unit 70, and each is attached to the lower main surface of the substrate 700. A connector 73 is attached to the rear edge on the lower main surface of the substrate 700. Further, a sound IC 707 and a microcomputer 751 are provided on the lower main surface of the substrate 700. The sound IC 707 is connected to the microcomputer 751 and the amplifier 708 through wiring formed on the substrate 700 or the like, and outputs an audio signal to the speaker 706 via the amplifier 708 according to the sound data transmitted from the game apparatus 3. A vibrator 704 is attached on the lower main surface of the substrate 700. The vibrator 704 is, for example, a vibration motor or a solenoid. Since the vibration is generated in the core unit 70 by the operation of the vibrator 704, the vibration is transmitted to the hand of the player holding it, and a so-called vibration-compatible game can be realized. Since the vibrator 704 is arranged slightly forward of the housing 71, the housing 71 vibrates greatly when the player is holding it, and it is easy to feel the vibration.

図9〜図12を参照して、サブユニット76について説明する。なお、図9は、サブユニット76の第1の例を示す斜視図である。図10は、図9のサブユニット76の上筐体(ハウジング77の一部)を外した状態を示す斜視図である。図11(a)はサブユニット76の第2の例を示す上面図であり、図11(b)はサブユニット76の第2の例を示す下面図であり、図11(c)はサブユニット76の第2の例を示す左側面図である。図12は、サブユニット76の第2の例を示す上面前方から見た斜視図である。   The subunit 76 will be described with reference to FIGS. FIG. 9 is a perspective view showing a first example of the subunit 76. FIG. 10 is a perspective view showing a state in which the upper casing (a part of the housing 77) of the subunit 76 shown in FIG. 9 is removed. 11A is a top view showing a second example of the subunit 76, FIG. 11B is a bottom view showing a second example of the subunit 76, and FIG. 11C is a subunit. It is a left view which shows the 2nd example of 76. FIG. 12 is a perspective view of the second example of the subunit 76 as seen from the upper front side.

図9において、サブユニット76は、例えばプラスチック成型によって形成されたハウジング77を有している。ハウジング77は、その前後方向を長手方向とし、サブユニット76において最太部となる頭部を前方に形成した流線型の立体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。   In FIG. 9, the subunit 76 has a housing 77 formed by plastic molding, for example. The housing 77 has a streamlined three-dimensional shape in which the front-rear direction is the longitudinal direction and the head portion that is the thickest part of the subunit 76 is formed in the front. The housing 77 is large enough to be grasped by one hand of an adult or a child as a whole. That's it.

ハウジング77上面の上記最太部近傍に、スティック78aが設けられる。スティック78aは、ハウジング77上面から突出した傾倒可能なスティックを倒すことによって、傾倒方向に応じて操作信号を出力する操作部である。例えば、プレイヤがスティック先端を360°任意の方向に傾倒することによって任意の方向や位置を指定することができ、仮想ゲーム世界に登場するプレイヤキャラクタ等の移動方向を指示したり、カーソルの移動方向を指示したりすることができる。   A stick 78 a is provided in the vicinity of the thickest portion on the upper surface of the housing 77. The stick 78a is an operation unit that outputs an operation signal according to the tilting direction by tilting the tiltable stick protruding from the upper surface of the housing 77. For example, the player can specify an arbitrary direction and position by tilting the tip of the stick in an arbitrary direction of 360 °, and can instruct the moving direction of a player character or the like appearing in the virtual game world, or the moving direction of the cursor Can be instructed.

サブユニット76のハウジング77の前面に、複数の操作ボタン78dおよび78eが設けられる。操作ボタン78dおよび78eは、プレイヤがボタン頭部を押下することによって、それぞれの操作ボタン78dおよび78eに割り当てられた操作信号を出力する操作部である。例えば、操作ボタン78dおよび78eには、XボタンおよびYボタン等としての機能が割り当てられる。これら操作ボタン78dおよび78eは、ゲーム装置3が実行するゲームプログラムに応じてそれぞれの機能が割り当てられるが、本発明の説明とは直接関連しないため詳細な説明を省略する。なお、図9に示した配置例では、操作ボタン78dおよび78eは、ハウジング77前面の上下方向に沿って並設されている。   A plurality of operation buttons 78d and 78e are provided on the front surface of the housing 77 of the subunit 76. The operation buttons 78d and 78e are operation units that output operation signals assigned to the operation buttons 78d and 78e when the player presses the head of the button. For example, functions as an X button and a Y button are assigned to the operation buttons 78d and 78e. These operation buttons 78d and 78e are assigned respective functions according to the game program executed by the game apparatus 3, but are not directly related to the description of the present invention, and thus detailed description thereof is omitted. In the arrangement example shown in FIG. 9, the operation buttons 78 d and 78 e are arranged side by side along the vertical direction of the front surface of the housing 77.

図10において、ハウジング77の内部には基板が固設されており、当該基板の上主面上にスティック78aおよび加速度センサ761等が設けられる。そして、これらは、基板等に形成された配線(図示せず)を介して接続ケーブル79と接続されている。   In FIG. 10, a substrate is fixed inside the housing 77, and a stick 78a and an acceleration sensor 761 are provided on the upper main surface of the substrate. These are connected to the connection cable 79 via wiring (not shown) formed on the substrate or the like.

図11および図12において、第2の例のサブユニット76は、第1の例と同様のハウジング77、スティック78a、操作ボタン78dおよび78eを有しており、さらにハウジング77上面に操作ボタン78bおよび78cを設けた態様である。   11 and 12, the subunit 76 of the second example has a housing 77, a stick 78a, and operation buttons 78d and 78e similar to those of the first example. 78c is provided.

サブユニット76の第2の例では、ハウジング77上面のスティック78aより後面側に、複数の操作ボタン78bおよび78cが設けられる。操作ボタン78bおよび78cは、プレイヤがボタン頭部を押下することによって、それぞれの操作ボタン78bおよび78cに割り当てられた操作信号を出力する操作部である。これら操作ボタン78bおよび78cも、ゲーム装置3が実行するゲームプログラムに応じてそれぞれの機能が割り当てられるが、本発明の説明とは直接関連しないため詳細な説明を省略する。なお、図11および図12に示した配置例では、操作ボタン78bおよび78cは、ハウジング77上面の中央左右方向に沿って並設されている。   In the second example of the subunit 76, a plurality of operation buttons 78b and 78c are provided on the rear surface side of the stick 78a on the upper surface of the housing 77. The operation buttons 78b and 78c are operation units that output operation signals assigned to the operation buttons 78b and 78c when the player presses the button head. These operation buttons 78b and 78c are also assigned with respective functions according to the game program executed by the game apparatus 3, but are not directly related to the description of the present invention, and thus detailed description thereof is omitted. In the arrangement example shown in FIGS. 11 and 12, the operation buttons 78 b and 78 c are arranged side by side along the central left-right direction of the upper surface of the housing 77.

なお、スティック78aは、上述したプレイヤの方向入力操作に応じて操作信号を出力する操作部であるが、他の態様の操作部でもかまわない。以下、図13〜図16を参照して、方向入力操作に応じて操作信号を出力する操作部が第2の例のサブユニット76に設けられた第1〜第5の変形例を説明する。   Note that the stick 78a is an operation unit that outputs an operation signal in response to the above-described direction input operation of the player, but may be an operation unit of another mode. Hereinafter, with reference to FIGS. 13 to 16, first to fifth modified examples in which an operation unit that outputs an operation signal according to a direction input operation is provided in the subunit 76 of the second example will be described.

第1の変形例として、図13に示すように、コアユニット70に設けられている十字キー72aと同様の十字キー78fを、上記スティック78aの代わりにサブユニット76に設けてもかまわない。第2の変形例として、図14に示すように、水平移動可能な円盤状部材をスライドさせることによって、当該スライド方向に応じた操作信号を出力するスライドパッド78gを、上記スティック78aの代わりにサブユニット76に設けてもかまわない。第3の変形例として、図15に示すように、タッチパッド78hを、上記スティック78aの代わりにサブユニット76に設けてもかまわない。第4の変形例として、図16に示すように、少なくとも4つの方向(前後左右)をそれぞれ示すボタン78i〜78lを設け、プレイヤによって押下されたボタン78i〜78lに応じて操作信号を出力する操作部を上記スティック78aの代わりにサブユニット76に設けてもかまわない。第5の変形例として、リング状に4方向の操作部分を備えたプッシュスイッチとその中央に設けられたセンタスイッチとを複合した複合スイッチを上記スティック78aの代わりにサブユニット76に設けてもかまわない。   As a first modification, as shown in FIG. 13, a cross key 78f similar to the cross key 72a provided in the core unit 70 may be provided in the subunit 76 instead of the stick 78a. As a second modified example, as shown in FIG. 14, a slide pad 78g that outputs an operation signal corresponding to the slide direction by sliding a horizontally movable disk-shaped member is used instead of the stick 78a. The unit 76 may be provided. As a third modified example, as shown in FIG. 15, a touch pad 78h may be provided in the subunit 76 instead of the stick 78a. As a fourth modified example, as shown in FIG. 16, buttons 78i to 78l indicating at least four directions (front and rear, left and right) are provided, and an operation signal is output according to the buttons 78i to 78l pressed by the player. The portion may be provided in the subunit 76 instead of the stick 78a. As a fifth modification, a composite switch in which a push switch having a ring-shaped operation portion in four directions and a center switch provided at the center thereof may be provided in the subunit 76 instead of the stick 78a. Absent.

次に、図17を参照して、コントローラ7の内部構成について説明する。なお、図17は、コントローラ7の構成を示すブロック図である。   Next, the internal configuration of the controller 7 will be described with reference to FIG. FIG. 17 is a block diagram showing the configuration of the controller 7.

図17において、コアユニット70は、上述した操作部72、撮像情報演算部74、加速度センサ701、スピーカ706、サウンドIC707、およびアンプ708の他に、その内部に通信部75を備えている。また、サブユニット78は、上述した操作部78および加速度センサ761を備えており、接続ケーブル79とコネクタ791および73とを介して、マイコン751と接続されている。   In FIG. 17, the core unit 70 includes a communication unit 75 in addition to the above-described operation unit 72, imaging information calculation unit 74, acceleration sensor 701, speaker 706, sound IC 707, and amplifier 708. The subunit 78 includes the operation unit 78 and the acceleration sensor 761 described above, and is connected to the microcomputer 751 via the connection cable 79 and the connectors 791 and 73.

撮像情報演算部74は、赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744を含んでいる。赤外線フィルタ741は、コアユニット70の前方から入射する光から赤外線のみを通過させる。レンズ742は、赤外線フィルタ741を透過した赤外線を集光して撮像素子743へ出射する。撮像素子743は、例えばCMOSセンサやあるいはCCDのような固体撮像素子であり、レンズ742が集光した赤外線を撮像する。したがって、撮像素子743は、赤外線フィルタ741を通過した赤外線だけを撮像して画像データを生成する。撮像素子743で生成された画像データは、画像処理回路744で処理される。具体的には、画像処理回路744は、撮像素子743から得られた画像データを処理して高輝度部分を検知し、それらの位置座標や面積を検出した結果を示す処理結果データを通信部75へ出力する。なお、これらの撮像情報演算部74は、コアユニット70のハウジング71に固設されており、ハウジング71自体の方向を変えることによってその撮像方向を変更することができる。しかしながら、ハウジング71は、サブユニット76とは屈曲自在な接続ケーブル79によって接続されているため、サブユニット76の方向や位置を変更しても撮像情報演算部74の撮像方向が変化することはない。後述により明らかとなるが、この撮像情報演算部74から出力される処理結果データに基づいて、コアユニット70の位置や動きに応じた信号を得ることができる。   The imaging information calculation unit 74 includes an infrared filter 741, a lens 742, an imaging element 743, and an image processing circuit 744. The infrared filter 741 allows only infrared rays to pass from light incident from the front of the core unit 70. The lens 742 condenses the infrared light that has passed through the infrared filter 741 and outputs the condensed infrared light to the image sensor 743. The imaging element 743 is a solid-state imaging element such as a CMOS sensor or a CCD, for example, and images infrared rays collected by the lens 742. Therefore, the image sensor 743 captures only the infrared light that has passed through the infrared filter 741 and generates image data. Image data generated by the image sensor 743 is processed by an image processing circuit 744. Specifically, the image processing circuit 744 processes the image data obtained from the image sensor 743 to detect a high-luminance portion, and outputs processing result data indicating the result of detecting the position coordinates and area of the communication unit 75. Output to. The imaging information calculation unit 74 is fixed to the housing 71 of the core unit 70, and the imaging direction can be changed by changing the direction of the housing 71 itself. However, since the housing 71 is connected to the subunit 76 by a flexible connecting cable 79, the imaging direction of the imaging information calculation unit 74 does not change even if the direction or position of the subunit 76 is changed. . As will be apparent from the description below, a signal corresponding to the position and movement of the core unit 70 can be obtained based on the processing result data output from the imaging information calculation unit 74.

コアユニット70は、3軸の加速度センサ701を備えていることが好ましい。また、サブユニット76は、3軸の加速度センサ761を備えていることが好ましい。この3軸の加速度センサ701および761は、それぞれ3方向、すなわち、上下方向、左右方向、および前後方向で直線加速度を検知する。また、他の実施形態においては、ゲーム処理に用いる制御信号の種類によっては、上下および左右方向(または他の対になった方向)のそれぞれに沿った直線加速度のみを検知する2軸の加速度検出手段を使用してもよい。例えば、この3軸または2軸の加速度センサ701および761は、アナログ・デバイセズ株式会社(Analog Devices, Inc.)またはSTマイクロエレクトロニクス社(STMicroelectronics N.V.)から入手可能であるタイプのものでもよい。加速度センサ701および761は、シリコン微細加工されたMEMS(Micro Electro Mechanical Systems:微小電子機械システム)の技術に基づいた静電容量式(静電容量結合式)であることが好ましい。しかしながら、既存の加速度検出手段の技術(例えば、圧電方式や圧電抵抗方式)あるいは将来開発される他の適切な技術を用いて3軸または2軸の加速度センサ701および761が提供されてもよい。   The core unit 70 preferably includes a triaxial acceleration sensor 701. The subunit 76 preferably includes a triaxial acceleration sensor 761. These three-axis acceleration sensors 701 and 761 detect linear acceleration in three directions, that is, in the up-down direction, the left-right direction, and the front-rear direction, respectively. In another embodiment, depending on the type of control signal used for game processing, biaxial acceleration detection that detects only linear acceleration along each of the vertical and horizontal directions (or other paired directions). Means may be used. For example, the three-axis or two-axis acceleration sensors 701 and 761 may be of the type available from Analog Devices, Inc. or ST Microelectronics NV. . The acceleration sensors 701 and 761 are preferably of a capacitive type (capacitive coupling type) based on a micro-electromechanical system (MEMS) technique in which silicon is micromachined. However, the triaxial or biaxial acceleration sensors 701 and 761 may be provided by using existing acceleration detecting means technology (for example, a piezoelectric method or a piezoresistive method) or other appropriate technology developed in the future.

当業者には公知であるように、加速度センサ701および761に用いられるような加速度検出手段は、加速度センサの持つ各軸に対応する直線に沿った加速度(直線加速度)のみを検知することができる。つまり、加速度センサ701および761からの直接の出力は、その2軸または3軸のそれぞれに沿った直線加速度(静的または動的)を示す信号である。このため、加速度センサ701および761は、非直線状(例えば、円弧状)の経路に沿った動き、回転、回転運動、角変位、傾斜、位置、または姿勢等の物理特性を直接検知することはできない。   As known to those skilled in the art, the acceleration detection means used in the acceleration sensors 701 and 761 can detect only acceleration (linear acceleration) along a straight line corresponding to each axis of the acceleration sensor. . That is, the direct output from the acceleration sensors 701 and 761 is a signal indicating linear acceleration (static or dynamic) along each of the two or three axes. Therefore, the acceleration sensors 701 and 761 cannot directly detect physical characteristics such as movement, rotation, rotational movement, angular displacement, inclination, position, or posture along a non-linear (eg, arc) path. Can not.

しかしながら、加速度センサ701および761からそれぞれ出力される加速度の信号に対して追加の処理を行うことによって、コアユニット70およびサブユニット76に関するさらなる情報をそれぞれ推測または算出することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。例えば、静的な加速度(重力加速度)が検知されると、加速度センサ701および761からの出力を用いて、傾斜角度と検知された加速度とを用いた演算によって重力ベクトルに対する対象(コアユニット70またはサブユニット76)の傾きをそれぞれ推測することができる。このように、加速度センサ701および761をマイコン751(または他のプロセッサ)と組み合わせて用いることによって、コアユニット70およびサブユニット76の傾き、姿勢または位置を決定することができる。同様に、加速度センサ701を備えるコアユニット70または加速度センサ761を備えるサブユニット76が、ここで説明されているように、例えばユーザの手で動的に加速されてそれぞれ動かされる場合に、加速度センサ701および761によって生成される加速度信号をそれぞれ処理することによって、コアユニット70およびサブユニット76のさまざまな動きおよび/または位置をそれぞれ算出または推測することができる。他の実施例では、加速度センサ701および761は、信号をマイコン751に出力する前に内蔵の加速度検出手段から出力される加速度信号に対して所望の処理を行うための、組込み式の信号処理装置または他の種類の専用の処理装置をそれぞれ備えていてもよい。例えば、組込み式または専用の処理装置は、加速度センサが静的な加速度(例えば、重力加速度)を検出するためのものである場合、検知された加速度信号をそれに相当する傾斜角に変換するものであってもよい。加速度センサ701および761でそれぞれ検知された加速度を示すデータは通信部75に出力される。   However, it will be understood by those skilled in the art that additional information regarding the core unit 70 and the subunit 76 can be estimated or calculated by performing additional processing on the acceleration signals output from the acceleration sensors 701 and 761, respectively. Anything will be easily understood from the description of this specification. For example, when static acceleration (gravity acceleration) is detected, an object (core unit 70 or the core unit 70 or 761) with respect to the gravity vector is calculated by using the output from the acceleration sensors 701 and 761 and the tilt angle and the detected acceleration. The inclination of each subunit 76) can be estimated. As described above, by using the acceleration sensors 701 and 761 in combination with the microcomputer 751 (or another processor), the inclination, posture, or position of the core unit 70 and the subunit 76 can be determined. Similarly, when the core unit 70 including the acceleration sensor 701 or the subunit 76 including the acceleration sensor 761 is moved, for example, dynamically by a user's hand, respectively, as described herein, the acceleration sensor By processing the acceleration signals generated by 701 and 761, respectively, various movements and / or positions of the core unit 70 and subunit 76 can be calculated or inferred, respectively. In another embodiment, the acceleration sensors 701 and 761 are built-in signal processing devices for performing desired processing on the acceleration signal output from the built-in acceleration detecting means before outputting the signal to the microcomputer 751. Alternatively, other types of dedicated processing apparatuses may be provided. For example, a built-in or dedicated processing device converts the detected acceleration signal into a corresponding tilt angle when the acceleration sensor is for detecting static acceleration (for example, gravitational acceleration). There may be. Data indicating the acceleration detected by the acceleration sensors 701 and 761 is output to the communication unit 75.

他の実施形態の例では、加速度センサ701および761の代わりに、少なくとも一方を回転素子または振動素子などを内蔵したジャイロセンサを用いてもよい。この実施形態で使用されるMEMSジャイロセンサの一例として、アナログ・デバイセズ株式会社から入手可能なものがある。加速度センサ701および761と異なり、ジャイロセンサは、それが内蔵する少なくとも一つのジャイロ素子の軸を中心とした回転(または角速度)を直接検知することができる。このように、ジャイロセンサと加速度センサとは基本的に異なるので、個々の用途のためにいずれの装置が選択されるかによって、これらの装置からの出力信号に対して行う処理を適宜変更する必要がある。   In an example of another embodiment, instead of the acceleration sensors 701 and 761, a gyro sensor including at least one of a rotation element or a vibration element may be used. An example of a MEMS gyro sensor used in this embodiment is available from Analog Devices, Inc. Unlike the acceleration sensors 701 and 761, the gyro sensor can directly detect rotation (or angular velocity) about the axis of at least one gyro element incorporated therein. As described above, since the gyro sensor and the acceleration sensor are basically different from each other, it is necessary to appropriately change the processing to be performed on the output signals from these devices depending on which device is selected for each application. There is.

具体的には、加速度センサの代わりにジャイロセンサを用いて傾きや姿勢を算出する場合には、大幅な変更を行う。すなわち、ジャイロセンサを用いる場合、検出開始の状態において傾きの値を初期化する。そして、当該ジャイロセンサから出力される角速度データを積分する。次に、初期化された傾きの値からの傾きの変化量を算出する。この場合、算出される傾きは、角度に対応する値が算出されることになる。一方、加速度センサによって傾きを算出する場合には、重力加速度のそれぞれの軸に関する成分の値を、所定の基準と比較することによって傾きを算出するので、算出される傾きはベクトルで表すことが可能であり、初期化を行わずとも、加速度検出手段を用いて検出される絶対的な方向を検出することが可能である。また、傾きとして算出される値の性質は、ジャイロセンサが用いられる場合には角度であるのに対して、加速度センサが用いられる場合にはベクトルであるという違いがある。したがって、加速度センサに代えてジャイロセンサが用いられる場合、当該傾きのデータに対して、2つのデバイスの違いを考慮した所定の変換を行う必要がある。加速度検出手段とジャイロスコープとの基本的な差異と同様にジャイロスコープの特性は当業者に公知であるので、本明細書ではさらなる詳細を省略する。ジャイロセンサは、回転を直接検知できることによる利点を有する一方、一般的には、加速度センサは、本実施形態で用いるようなコントローラに適用される場合、ジャイロセンサに比べて費用効率が良いという利点を有する。   Specifically, when the inclination or posture is calculated using a gyro sensor instead of the acceleration sensor, a significant change is made. That is, when the gyro sensor is used, the inclination value is initialized in the detection start state. Then, the angular velocity data output from the gyro sensor is integrated. Next, a change amount of the inclination from the initialized inclination value is calculated. In this case, the calculated inclination is a value corresponding to the angle. On the other hand, when the inclination is calculated by the acceleration sensor, the inclination is calculated by comparing the value of the component relating to each axis of the gravitational acceleration with a predetermined reference, so the calculated inclination can be expressed by a vector. Thus, it is possible to detect the absolute direction detected using the acceleration detecting means without performing initialization. In addition, the property of the value calculated as the inclination is an angle when a gyro sensor is used, but a vector when an acceleration sensor is used. Therefore, when a gyro sensor is used instead of the acceleration sensor, it is necessary to perform predetermined conversion in consideration of the difference between the two devices with respect to the tilt data. Since the characteristics of the gyroscope as well as the basic differences between the acceleration detection means and the gyroscope are known to those skilled in the art, further details are omitted here. While the gyro sensor has the advantage of being able to directly detect rotation, in general, the acceleration sensor has the advantage of being more cost effective than the gyro sensor when applied to a controller as used in this embodiment. Have.

通信部75は、マイクロコンピュータ(Micro Computer:マイコン)751、メモリ752、無線モジュール753、およびアンテナ754を含んでいる。マイコン751は、処理の際にメモリ752を記憶領域として用いながら、送信データを無線送信する無線モジュール753を制御する。また、マイコン751は、アンテナ754を介して無線モジュール753が受信したゲーム装置3からのデータに応じて、サウンドIC707およびバイブレータ704の動作を制御する。サウンドIC707は、通信部75を介してゲーム装置3から送信されたサウンドデータ等を処理する。   The communication unit 75 includes a microcomputer (microcomputer) 751, a memory 752, a wireless module 753, and an antenna 754. The microcomputer 751 controls the wireless module 753 that wirelessly transmits transmission data while using the memory 752 as a storage area during processing. The microcomputer 751 controls the operations of the sound IC 707 and the vibrator 704 in accordance with data from the game apparatus 3 received by the wireless module 753 via the antenna 754. The sound IC 707 processes sound data transmitted from the game apparatus 3 via the communication unit 75.

コアユニット70に設けられた操作部72からの操作信号(コアキーデータ)、加速度センサ701からの加速度信号(コア加速度データ)、および撮像情報演算部74からの処理結果データは、マイコン751に出力される。また、接続ケーブル79を介して、サブユニット76に設けられた操作部78からの操作信号(サブキーデータ)および加速度センサ761からの加速度信号(サブ加速度データ)は、マイコン751に出力される。マイコン751は、入力した各データ(コアキーデータ、サブキーデータ、コア加速度データ、サブ加速度データ、処理結果データ)を受信ユニット6へ送信する送信データとして一時的にメモリ752に格納する。ここで、通信部75から受信ユニット6への無線送信は、所定の周期毎に行われるが、ゲームの処理は1/60秒を単位として行われることが一般的であるので、それよりも短い周期でデータを収集して送信を行うことが必要となる。具体的には、ゲームの処理単位は16.7ms(1/60秒)であり、ブルートゥース(Bluetooth;登録商標)で構成される通信部75の送信間隔は5msである。マイコン751は、受信ユニット6への送信タイミングが到来すると、メモリ752に格納されている送信データを一連の操作情報として出力し、無線モジュール753へ出力する。そして、無線モジュール753は、例えばブルートゥース(登録商標)の技術に基づいて、所定周波数の搬送波を用いて操作情報で変調し、その微弱電波信号をアンテナ754から放射する。つまり、コアユニット70に設けられた操作部72からのコアキーデータ、サブユニット76に設けられた操作部78からのサブキーデータ、コアユニット70に設けられた加速度センサ701からのコア加速度データ、サブユニット76に設けられた加速度センサ761からのサブ加速度データ、および撮像情報演算部74からの処理結果データは、無線モジュール753で微弱電波信号に変調されてコアユニット70から放射される。そして、ゲーム装置3の受信ユニット6でその微弱電波信号を受信し、ゲーム装置3で当該微弱電波信号を復調や復号することによって、一連の操作情報(コアキーデータ、サブキーデータ、コア加速度データ、サブ加速度データ、および処理結果データ)を取得することができる。そして、ゲーム装置3のCPU30は、取得した操作情報とゲームプログラムとに基づいて、ゲーム処理を行う。なお、Bluetooth(登録商標)の技術を用いて通信部75を構成する場合、通信部75は、他のデバイスから無線送信された送信データを受信する機能も備えることができる。   An operation signal (core key data) from the operation unit 72 provided in the core unit 70, an acceleration signal (core acceleration data) from the acceleration sensor 701, and processing result data from the imaging information calculation unit 74 are output to the microcomputer 751. Is done. In addition, an operation signal (sub key data) from the operation unit 78 provided in the subunit 76 and an acceleration signal (sub acceleration data) from the acceleration sensor 761 are output to the microcomputer 751 via the connection cable 79. The microcomputer 751 temporarily stores the input data (core key data, sub key data, core acceleration data, sub acceleration data, and processing result data) in the memory 752 as transmission data to be transmitted to the receiving unit 6. Here, the wireless transmission from the communication unit 75 to the receiving unit 6 is performed every predetermined cycle, but since the game processing is generally performed in units of 1/60 seconds, it is shorter than that. It is necessary to collect and transmit data at periodic intervals. Specifically, the processing unit of the game is 16.7 ms (1/60 seconds), and the transmission interval of the communication unit 75 configured by Bluetooth (registered trademark) is 5 ms. When the transmission timing to the receiving unit 6 comes, the microcomputer 751 outputs the transmission data stored in the memory 752 as a series of operation information and outputs it to the wireless module 753. The wireless module 753 modulates the operation information using a carrier wave having a predetermined frequency based on, for example, Bluetooth (registered trademark) technology, and radiates the weak radio signal from the antenna 754. That is, the core key data from the operation unit 72 provided in the core unit 70, the sub key data from the operation unit 78 provided in the subunit 76, the core acceleration data from the acceleration sensor 701 provided in the core unit 70, the sub The sub acceleration data from the acceleration sensor 761 provided in the unit 76 and the processing result data from the imaging information calculation unit 74 are modulated into weak radio signals by the wireless module 753 and radiated from the core unit 70. Then, the weak radio signal is received by the receiving unit 6 of the game apparatus 3, and the weak radio signal is demodulated or decoded by the game apparatus 3, whereby a series of operation information (core key data, sub key data, core acceleration data, Sub-acceleration data and processing result data) can be acquired. And CPU30 of the game device 3 performs a game process based on the acquired operation information and a game program. When the communication unit 75 is configured using the Bluetooth (registered trademark) technology, the communication unit 75 can also have a function of receiving transmission data wirelessly transmitted from another device.

図18に示すように、ゲームシステム1でコントローラ7を用いてゲームをプレイするためには、プレイヤは、一方の手(例えば右手)でコアユニット70を把持し(図19および図20参照)、他方の手(例えば左手)でサブユニット76を把持する(図22参照)。そして、プレイヤは、コアユニット70の前面(撮像情報演算部74が撮像する光の入射口側)がモニタ2に向くようにコアユニット70を把持する。一方、モニタ2の表示画面近傍には、2つのLEDモジュール8Lおよび8Rが設置される。これらLEDモジュール8Lおよび8Rは、それぞれモニタ2の前方に向かって赤外光を出力する。   As shown in FIG. 18, in order to play a game using the controller 7 in the game system 1, the player holds the core unit 70 with one hand (for example, the right hand) (see FIGS. 19 and 20). The subunit 76 is held with the other hand (for example, the left hand) (see FIG. 22). Then, the player holds the core unit 70 so that the front surface of the core unit 70 (the light entrance side of the light imaged by the imaging information calculation unit 74) faces the monitor 2. On the other hand, near the display screen of the monitor 2, two LED modules 8L and 8R are installed. These LED modules 8L and 8R each output infrared light toward the front of the monitor 2.

プレイヤがその前面がモニタ2に向くようにコアユニット70を把持することによって、撮像情報演算部74には2つのLEDモジュール8Lおよび8Rが出力した赤外光が入射する。そして、赤外線フィルタ741およびレンズ742を介して、入射した赤外光を撮像素子743が撮像し、当該撮像画像を画像処理回路744が処理する。ここで、撮像情報演算部74では、LEDモジュール8Lおよび8Rから出力される赤外線成分を検出することで、当該LEDモジュール8Lおよび8Rの位置や面積情報を取得する。具体的には、撮像情報演算部74は、撮像素子743が撮像した画像データを解析して、面積情報からLEDモジュール8Lおよび8Rからの赤外光ではあり得ない画像を除外し、輝度が高い位置をLEDモジュール8Lおよび8Rそれぞれの位置として判別する。そして、撮像情報演算部74は、判別されたそれらの位置座標やそれらの重心座標等を取得し、上記処理結果データとして出力する。このような処理結果データをゲーム装置3へ送信することによって、ゲーム装置3では、上記位置座標や重心座標に基づいて、LEDモジュール8Lおよび8Rに対する撮像情報演算部74すなわちコアユニット70の動き、姿勢、位置等に関連のある操作信号を得ることができる。具体的には、コアユニット70が動かされることによって、通信部75から送信される画像内の高輝度点の位置が変化するため、高輝度点の位置の変化に対応させた方向入力や座標入力を行うことで、コアユニット70の移動方向に沿った方向入力や座標入力を行うことができる。   When the player holds the core unit 70 so that the front surface thereof faces the monitor 2, infrared light output from the two LED modules 8 </ b> L and 8 </ b> R enters the imaging information calculation unit 74. Then, the imaging device 743 captures the incident infrared light through the infrared filter 741 and the lens 742, and the image processing circuit 744 processes the captured image. Here, the imaging information calculation unit 74 acquires the position and area information of the LED modules 8L and 8R by detecting infrared components output from the LED modules 8L and 8R. Specifically, the imaging information calculation unit 74 analyzes image data captured by the imaging element 743, excludes images that cannot be infrared light from the LED modules 8L and 8R from the area information, and has high luminance. The position is determined as the position of each of the LED modules 8L and 8R. Then, the imaging information calculation unit 74 acquires the determined position coordinates, the center-of-gravity coordinates, and the like, and outputs them as the processing result data. By transmitting such processing result data to the game apparatus 3, the game apparatus 3 moves and postures the imaging information calculation unit 74, that is, the core unit 70 for the LED modules 8 </ b> L and 8 </ b> R based on the position coordinates and the barycentric coordinates. An operation signal related to the position or the like can be obtained. Specifically, since the position of the high luminance point in the image transmitted from the communication unit 75 changes when the core unit 70 is moved, direction input and coordinate input corresponding to the change in the position of the high luminance point are performed. By performing the above, direction input and coordinate input along the moving direction of the core unit 70 can be performed.

このように、コアユニット70の撮像情報演算部74によって固定的に設置されたマーカ(実施例では、2つのLEDモジュール8Lおよび8Rからの赤外光)を撮像することによって、ゲーム装置3におけるゲーム処理において、コアユニット70の動き、姿勢、位置等に関連した処理結果データを用いることが可能となり、ボタンを押下するような操作ボタンや操作キーとは異なったより直感的な操作入力となる。また、上述したように上記マーカは、モニタ2の表示画面近傍に設置されているため、マーカに対する位置をモニタ2の表示画面に対するコアユニット70の動き、姿勢、位置等に換算することも容易に行うことができる。つまり、コアユニット70の動き、姿勢、位置等による処理結果データは、モニタ2の表示画面に直接作用する操作入力として用いることができる。   As described above, by imaging the marker (in the embodiment, infrared light from the two LED modules 8L and 8R) fixedly installed by the imaging information calculation unit 74 of the core unit 70, the game in the game apparatus 3 is performed. In the processing, it is possible to use processing result data related to the movement, posture, position, etc. of the core unit 70, and it becomes a more intuitive operation input that is different from operation buttons and operation keys that press the button. Further, as described above, since the marker is installed in the vicinity of the display screen of the monitor 2, it is easy to convert the position relative to the marker into the movement, posture, position, etc. of the core unit 70 relative to the display screen of the monitor 2. It can be carried out. That is, the processing result data based on the movement, posture, position, and the like of the core unit 70 can be used as an operation input that directly acts on the display screen of the monitor 2.

図19および図20を参照して、プレイヤがコアユニット70を一方の手で把持した状態について説明する。なお、図19は、プレイヤがコアユニット70を右手で把持した状態をコアユニット70の前面側から見た一例である。図20は、プレイヤがコアユニット70を右手で把持した状態をコアユニット70の左側面側から見た一例である。   A state where the player holds the core unit 70 with one hand will be described with reference to FIGS. 19 and 20. FIG. 19 is an example of a state in which the player holds the core unit 70 with the right hand as viewed from the front side of the core unit 70. FIG. 20 is an example in which the player holds the core unit 70 with his right hand as viewed from the left side of the core unit 70.

図19および図20に示すように、コアユニット70は、全体として大人や子供の片手で把持可能な大きさである。そして、プレイヤの親指をコアユニット70の上面(例えば、十字キー72a付近)に添え、プレイヤの人差し指をコアユニット70下面の凹部(例えば、操作ボタン72i付近)に添えたとき、コアユニット70の前面に設けられている撮像情報演算部74の光入射口がプレイヤの前方方向に露出する。なお、このようなコアユニット70に対する把持状態は、プレイヤの左手であっても同様に行えることは言うまでもない。   As shown in FIGS. 19 and 20, the core unit 70 has a size that can be gripped with one hand of an adult or a child as a whole. When the player's thumb is attached to the upper surface of the core unit 70 (for example, in the vicinity of the cross key 72a) and the player's index finger is applied to the concave portion (for example, in the vicinity of the operation button 72i) of the core unit 70, the front surface of the core unit 70 is obtained. The light incident port of the imaging information calculation unit 74 provided in is exposed in the forward direction of the player. Needless to say, such a gripping state with respect to the core unit 70 can be similarly performed even with the left hand of the player.

このように、コアユニット70は、プレイヤが片手で把持した状態で十字キー72aや操作ボタン72i等の操作部72を容易に操作することができる。さらに、プレイヤがコアユニット70を片手で把持したとき、当該コアユニット70の前面に設けられている撮像情報演算部74の光入射口が露出するため、上述した2つのLEDモジュール8Lおよび8Rからの赤外光を容易に当該光入射口から取り入れることができる。つまり、プレイヤは、撮像情報演算部74の機能を阻害することなくコアユニット70を片手で把持することができる。つまり、プレイヤがコアユニット70を把持した手を表示画面に対して動かすことによって、コアユニット70は、プレイヤの手の運動が表示画面に直接的に作用する操作入力をさらに備えることができる。   In this manner, the core unit 70 can easily operate the operation unit 72 such as the cross key 72a and the operation button 72i while being held by the player with one hand. Furthermore, when the player holds the core unit 70 with one hand, the light incident port of the imaging information calculation unit 74 provided on the front surface of the core unit 70 is exposed, so that the two LED modules 8L and 8R described above are exposed. Infrared light can be easily taken from the light entrance. That is, the player can hold the core unit 70 with one hand without hindering the function of the imaging information calculation unit 74. That is, when the player moves the hand holding the core unit 70 with respect to the display screen, the core unit 70 can further include an operation input in which the movement of the player's hand acts directly on the display screen.

ここで、図21に示すように、LEDモジュール8Lおよび8Rは、それぞれ視野角θ1を有している。また、撮像素子743は、視野角θ2を有している。例えば、LEDモジュール8Lおよび8Rの視野角θ1は共に34°(半値角)であり、撮像素子743の視野角θ2は41°である。そして、撮像素子743の視野角θ2の中にLEDモジュール8Lおよび8Rが共に存在し、LEDモジュール8Lの視野角θ1の中でかつLEDモジュール8Rの視野角θ1の中に撮像素子743が存在するとき、ゲーム装置3は、2つのLEDモジュール8Lおよび8Rによる高輝度点に関する位置データを用いてコアユニット70の位置を判定する。   Here, as shown in FIG. 21, the LED modules 8L and 8R each have a viewing angle θ1. Further, the image sensor 743 has a viewing angle θ2. For example, the viewing angles θ1 of the LED modules 8L and 8R are both 34 ° (half-value angle), and the viewing angle θ2 of the image sensor 743 is 41 °. When both the LED modules 8L and 8R exist in the viewing angle θ2 of the imaging device 743, and the imaging device 743 exists in the viewing angle θ1 of the LED module 8L and in the viewing angle θ1 of the LED module 8R. The game apparatus 3 determines the position of the core unit 70 using the position data regarding the high luminance point by the two LED modules 8L and 8R.

一方、撮像素子743の視野角θ2の中に1つのLEDモジュール8Lまたは8Rだけが存在するとき、またはLEDモジュール8Lの視野角θ1およびLEDモジュール8Rの視野角θ1の何れか一方の中に撮像素子743が存在するとき、2つのLEDモジュール8Lおよび8Rの何れか一方だけによる高輝度点に関する位置データを用いてコアユニット70の位置を判定する。   On the other hand, when there is only one LED module 8L or 8R in the viewing angle θ2 of the imaging device 743, or in either one of the viewing angle θ1 of the LED module 8L or the viewing angle θ1 of the LED module 8R. When 743 exists, the position data of the core unit 70 is determined using the position data related to the high luminance point by only one of the two LED modules 8L and 8R.

また、上述したようにコアユニット70に設けられた加速度センサ701からの出力(コア加速度データ)を用いることによって、コアユニット70の傾き、姿勢、または位置を決定することができる。つまり、プレイヤがコアユニット70を把持した手を上下左右等に動かすことによって、コアユニット70は、プレイヤの手の運動や向きに応じた操作入力手段として機能する。   Further, by using the output (core acceleration data) from the acceleration sensor 701 provided in the core unit 70 as described above, the inclination, posture, or position of the core unit 70 can be determined. That is, when the player moves the hand holding the core unit 70 up, down, left, and right, the core unit 70 functions as an operation input unit according to the movement and orientation of the player's hand.

次に、図22を参照して、プレイヤがサブユニット76を一方の手で把持した状態について説明する。なお、図22は、プレイヤがサブユニット76を左手で把持した状態をサブユニット76の右側面側から見た一例である。   Next, a state where the player holds the subunit 76 with one hand will be described with reference to FIG. FIG. 22 is an example of a state where the player holds the subunit 76 with the left hand as viewed from the right side surface of the subunit 76.

図22に示すように、サブユニット76は、全体として大人や子供の片手で把持可能な大きさである。例えば、プレイヤの親指をサブユニット76の上面(例えば、スティック78a付近)に添え、プレイヤの人差し指をサブユニット76前面(例えば、操作ボタン78dおよび78e付近)に添え、プレイヤの中指、薬指、および小指をサブユニット76下面に添えるように、サブユニット76を把持することが可能である。なお、このようなサブユニット76に対する把持状態は、プレイヤの右手であっても同様に行えることは言うまでもない。このように、サブユニット76は、プレイヤが片手で把持した状態でスティック78aや操作ボタン78dおよび78e等の操作部78を容易に操作することができる。   As shown in FIG. 22, the subunit 76 has a size that can be gripped with one hand of an adult or a child as a whole. For example, the player's thumb is attached to the upper surface of the subunit 76 (for example, near the stick 78a), the player's index finger is attached to the front surface of the subunit 76 (for example, near the operation buttons 78d and 78e), and the player's middle finger, ring finger, and little finger It is possible to hold the subunit 76 so that is attached to the lower surface of the subunit 76. Needless to say, such a gripping state with respect to the subunit 76 can be similarly performed even with the right hand of the player. In this way, the subunit 76 can easily operate the operation unit 78 such as the stick 78a and the operation buttons 78d and 78e while being held by the player with one hand.

また、上述したようにサブユニット76に設けられた加速度センサ761からの出力(サブ加速度データ)を用いることによって、サブユニット76の傾き、姿勢、または位置を決定することができる。つまり、プレイヤがサブユニット76を把持した手を上下左右等に動かすことによって、サブユニット76は、プレイヤの手の運動や向きに応じた操作入力手段として機能する。   Further, by using the output (sub acceleration data) from the acceleration sensor 761 provided in the subunit 76 as described above, the inclination, posture, or position of the subunit 76 can be determined. That is, when the player moves his / her hand holding the subunit 76 up / down / left / right, the subunit 76 functions as an operation input means corresponding to the movement and direction of the player's hand.

ここで、上述したコントローラ7を用いてゲーム操作するゲーム例について説明する。第1の例は、コントローラ7を用いてゲーム操作するシューティングゲームである。なお、図23は、ゲーム装置3がシューティングゲームを実行する際にモニタ2に表示されるゲーム画像例を示す図である。   Here, a game example in which a game operation is performed using the controller 7 described above will be described. The first example is a shooting game in which a game operation is performed using the controller 7. FIG. 23 is a diagram illustrating an example of a game image displayed on the monitor 2 when the game apparatus 3 executes a shooting game.

図23において、モニタ2の表示画面には3次元の仮想ゲーム空間Sの一部が表示されている。そして、コントローラ7の操作に応じて動作するゲームオブジェクトとして、表示画面には、プレイヤキャラクタPの一部および当該プレイヤキャラクタPが所持するガンGの一部が表示されている。また、表示画面に表示される仮想ゲーム空間Sは、プレイヤキャラクタSの前方となる視界が表現され、図23の一例では敵キャラクタEがシューティング目標として表示されている。そして、プレイヤキャラクタPがガンGで射撃する位置を表す照準が、照準カーソルTとして表示画面に表示される。   In FIG. 23, a part of the three-dimensional virtual game space S is displayed on the display screen of the monitor 2. As a game object that operates in response to an operation of the controller 7, a part of the player character P and a part of the gun G possessed by the player character P are displayed on the display screen. Further, the virtual game space S displayed on the display screen expresses the field of view ahead of the player character S, and the enemy character E is displayed as a shooting target in the example of FIG. Then, an aim indicating a position where the player character P shoots with the gun G is displayed as an aiming cursor T on the display screen.

このようなゲーム画像がモニタ2に表示されるシューティングゲームにおいて、プレイヤは、一方の手でコアユニット70を他方の手でサブユニット76を操作して(図18参照)ゲームを進行する。例えば、プレイヤがサブユニット76に設けられたスティック78a(図11、図12参照)を傾倒することによって、当該傾倒方向に応じて仮想ゲーム空間S内をプレイヤキャラクタPが移動する。また、プレイヤがコアユニット70を把持した手を表示画面に対して動かすことによって、当該モニタ2(LEDモジュール8Lおよび8R)に対するコアユニット70の動き、姿勢、位置等に応じて照準カーソルTが移動する。そして、プレイヤがコアユニット70に設けられた操作ボタン72i(図6参照)を押下することによって、プレイヤキャラクタPが所持するガンGが照準カーソルTに向かって射撃する。   In a shooting game in which such a game image is displayed on the monitor 2, the player advances the game by operating the core unit 70 with one hand and the subunit 76 with the other hand (see FIG. 18). For example, when the player tilts the stick 78a (see FIGS. 11 and 12) provided in the subunit 76, the player character P moves in the virtual game space S according to the tilt direction. Further, when the player moves the hand holding the core unit 70 with respect to the display screen, the aiming cursor T moves according to the movement, posture, position, etc. of the core unit 70 with respect to the monitor 2 (LED modules 8L and 8R). To do. Then, when the player presses an operation button 72i (see FIG. 6) provided on the core unit 70, the gun G possessed by the player character P shoots toward the aiming cursor T.

つまり、プレイヤは、サブユニット76に設けられたスティック78aをプレイヤキャラクタPの移動指示に用いながら、コアユニット70をあたかもシューティングゲームのガンのように用いることができるため、シューティングゲームの興趣が一層増す。そして、プレイヤキャラクタPを移動させる操作と照準カーソルTを移動させる操作とがそれぞれ別の手で把持されたユニットを用いて行われるため、プレイヤの操作動作がそれぞれ独立した思考で行える。例えば、プレイヤキャラクタPの移動に応じて表示画面に表示される仮想ゲーム空間Sが移り変わっていくため、仮想ゲーム空間S内におけるプレイヤが注目する位置付近(例えば、物陰から飛び出してくる敵キャラクタEに注目)に照準を常に位置させることが難しいことがある。しかしながら、一方の手の動作(例えば左手の親指)でプレイヤキャラクタPを移動させながら、コアユニット70の前面を向ける位置が上記注目位置となるように他方の腕の動作(例えば、右腕)で調整できるため、コントローラ7自体の操作の自由度が著しく向上し、臨場感のあるシューティングゲームを実現できる。また、照準カーソルTを移動させるためにコントローラ自体を動かす操作が行われるが、コントローラを動かすことによってプレイヤキャラクタPを移動させる方向指示操作がやりにくくなるというような問題が発生しないため、プレイヤは安定した2つの方向指示操作を行うことができる。つまり、コントローラ7を用いることによって、プレイヤの左右の手が自由になると同時に、物理的に1つのコントローラでは操作できなかった自由度の高い新たな操作が可能になる。   In other words, the player can use the core unit 70 as if it were a gun for a shooting game while using the stick 78a provided in the subunit 76 for the movement instruction of the player character P, so that the interest of the shooting game is further increased. . Since the operation for moving the player character P and the operation for moving the aiming cursor T are performed using units held by different hands, the player's operation can be performed with independent thinking. For example, since the virtual game space S displayed on the display screen changes in accordance with the movement of the player character P, the vicinity of the position in the virtual game space S where the player pays attention (for example, the enemy character E jumping out from the shadow) It may be difficult to always position the aim at (attention). However, while moving the player character P with the movement of one hand (for example, the thumb of the left hand), the position of the core unit 70 facing the front is adjusted with the movement of the other arm (for example, the right arm) so Therefore, the degree of freedom of operation of the controller 7 is significantly improved, and a realistic shooting game can be realized. Further, although an operation of moving the controller itself is performed to move the aiming cursor T, there is no problem that it is difficult to perform a direction instruction operation of moving the player character P by moving the controller. The two direction indicating operations can be performed. That is, by using the controller 7, the player's left and right hands are freed, and at the same time, a new operation with a high degree of freedom that cannot be physically operated by one controller is possible.

第2の例は、上記第1の例と同様に、プレイヤがサブユニット76に設けられたスティック78aを傾倒することによって、当該傾倒方向に応じて仮想ゲーム空間S内をプレイヤキャラクタPが移動する。そして、プレイヤがコアユニット70を把持した手を表示画面に対して動かすことによって、当該モニタ2(LEDモジュール8Lおよび8R)に対するコアユニット70の位置に応じて仮想カメラの注視点が移動する。このような操作によって、プレイヤは、サブユニット76に設けられたスティック78aをプレイヤキャラクタPの移動指示に用いながら、コアユニット70を向けた仮想ゲーム空間Sの位置を注視することができる。   In the second example, similar to the first example, when the player tilts the stick 78a provided in the subunit 76, the player character P moves in the virtual game space S according to the tilt direction. . Then, when the player moves the hand holding the core unit 70 with respect to the display screen, the gazing point of the virtual camera moves according to the position of the core unit 70 with respect to the monitor 2 (LED modules 8L and 8R). By such an operation, the player can watch the position of the virtual game space S toward the core unit 70 while using the stick 78a provided in the subunit 76 for the movement instruction of the player character P.

なお、上述した説明では、コントローラ7とゲーム装置3とが無線通信によって接続された態様を用いたが、コントローラ7とゲーム装置3とがケーブルを介して電気的に接続されてもかまわない。この場合、コアユニット70に接続されたケーブルをゲーム装置3の接続端子に接続する。   In the above description, the controller 7 and the game apparatus 3 are connected by wireless communication. However, the controller 7 and the game apparatus 3 may be electrically connected via a cable. In this case, the cable connected to the core unit 70 is connected to the connection terminal of the game apparatus 3.

また、コントローラ7を構成するコアユニット70およびサブユニット76のうち、コアユニット70のみに通信部75を設けたが、サブユニット76に受信ユニット6へ送信データを無線送信する通信部を設けてもかまわない。また、コアユニット70およびサブユニット76それぞれに上記通信部を設けてもかまわない。例えば、コアユニット70およびサブユニット76に設けられた通信部がそれぞれ受信ユニット6へ送信データを無線送信してもいいし、サブユニット76の通信部からコアユニット70へ送信データを無線送信してコアユニット70の通信部75で受信した後、コアユニット70の通信部75がサブユニット76の送信データと共にコアユニット70の送信データを受信ユニット6へ無線送信してもいい。これらの場合、コアユニット70とサブユニット76とを電気的に接続する接続ケーブル79が不要となる。   Further, although the communication unit 75 is provided only in the core unit 70 among the core unit 70 and the subunit 76 constituting the controller 7, a communication unit that wirelessly transmits transmission data to the reception unit 6 may be provided in the subunit 76. It doesn't matter. The communication unit may be provided in each of the core unit 70 and the subunit 76. For example, the communication units provided in the core unit 70 and the subunit 76 may wirelessly transmit transmission data to the receiving unit 6, respectively, or the transmission data may be wirelessly transmitted from the communication unit of the subunit 76 to the core unit 70. After being received by the communication unit 75 of the core unit 70, the communication unit 75 of the core unit 70 may wirelessly transmit the transmission data of the core unit 70 to the reception unit 6 together with the transmission data of the subunit 76. In these cases, the connection cable 79 that electrically connects the core unit 70 and the subunit 76 becomes unnecessary.

また、コントローラ7から無線送信される送信データを受信する受信手段として、ゲーム装置3の接続端子に接続された受信ユニット6を用いて説明したが、ゲーム装置3の本体内部に設けられた受信モジュールによって当該受信手段を構成してもかまわない。この場合、受信モジュールが受信した送信データは、所定のバスを介してCPU30に出力される。   Further, the reception unit 6 connected to the connection terminal of the game apparatus 3 has been described as the reception means for receiving transmission data wirelessly transmitted from the controller 7. However, the reception module provided in the main body of the game apparatus 3 has been described. The receiving unit may be configured as follows. In this case, the transmission data received by the receiving module is output to the CPU 30 via a predetermined bus.

また、コアユニット70本体の動きに応じて変化する信号(処理結果データ)を出力する判定部の一例として、撮像情報演算部74をコアユニット70に内蔵して説明したが、他の機構でもかまわない。例えば、コアユニット70は、上述したように加速度センサ701を内蔵しており、ジャイロセンサが用いられていることもあり得る。加速度センサやジャイロセンサは、コアユニット70の動きや姿勢の判定に用いられることが可能であり、その結果、これらの検出信号を用いればコアユニット70本体の動きに応じて変化する信号を出力する判定部のように用いることができる。この場合、コアユニット70に内蔵された撮像情報演算部74を排除してもよいし、センサと撮像情報演算部の両者を組み合わせる構成としてもよい。   In addition, as an example of a determination unit that outputs a signal (processing result data) that changes according to the movement of the core unit 70 main body, the imaging information calculation unit 74 is built in the core unit 70, but other mechanisms may be used. Absent. For example, the core unit 70 includes the acceleration sensor 701 as described above, and a gyro sensor may be used. The acceleration sensor and the gyro sensor can be used to determine the movement and posture of the core unit 70. As a result, when these detection signals are used, a signal that changes according to the movement of the core unit 70 main body is output. It can be used like a determination unit. In this case, the imaging information calculation unit 74 built in the core unit 70 may be eliminated, or the sensor and the imaging information calculation unit may be combined.

また、撮像情報演算部74をコアユニット70のみに設けたが、サブユニット76にも同様の撮像情報演算部を設けてもかまわない。   Further, although the imaging information calculation unit 74 is provided only in the core unit 70, a similar imaging information calculation unit may be provided in the subunit 76 as well.

また、コントローラ7は、複数のユニットで構成され、それぞれ複数の操作手段(撮像情報演算部、加速度センサ、ジャイロセンサ、スティック、十字キー、操作ボタン等)を設けることができるために、それらの組み合わせによって様々なコントローラが実現する。ここで、コアユニット70およびサブユニット76にそれぞれ設けられる操作手段を、ユニット本体の動きに応じた信号を出力する操作手段A(例えば、撮像情報演算部74、加速度センサ701および761、ジャイロセンサ)と、プレイヤがボタンを押下したり部材を傾倒させたりタッチしたりすることに応じた信号を出力する操作手段B(例えば、スティック、十字キー、操作ボタン、タッチパッド等)とに分類して説明する。   Further, since the controller 7 is composed of a plurality of units and each can be provided with a plurality of operation means (imaging information calculation unit, acceleration sensor, gyro sensor, stick, cross key, operation button, etc.), a combination thereof. Various controllers are realized. Here, the operation means provided in each of the core unit 70 and the subunit 76 is an operation means A that outputs a signal corresponding to the movement of the unit body (for example, the imaging information calculation unit 74, the acceleration sensors 701 and 761, and the gyro sensor). And an operation means B (for example, a stick, a cross key, an operation button, a touch pad, etc.) that outputs a signal in response to the player pressing the button, tilting the member, or touching the member. To do.

コアユニット70に操作手段Aを設け、サブユニット76に操作手段Bを設けた場合、プレイヤが一方の手にコアユニット70を把持して手自体を動かし、他方の手にサブユニット76を把持して従来のコントローラと同じように指による入力を行うことができる。つまり、プレイヤの左右の手で全く異なる操作をさせることが可能になるので、従来にない新たな操作が可能となる。この場合、本発明では、操作手段Aから出力される操作データが第1操作データに相当し、操作手段Bから出力される操作データが第2操作データに相当する。さらに、サブユニット76に操作手段Aを設けて、コアユニット70に操作手段Aを設け、サブユニット76に操作手段Aおよび操作手段Bを設ける態様もある。この態様では、プレイヤが両方の手自体をそれぞれ動かす操作も可能となり、さらに新たな操作が可能となる。この場合、本発明では、サブユニット76の操作手段Aから出力される操作データが第3操作データに相当する。   When the operating unit A is provided in the core unit 70 and the operating unit B is provided in the subunit 76, the player holds the core unit 70 in one hand and moves the hand itself, and holds the subunit 76 in the other hand. Thus, input with a finger can be performed in the same manner as a conventional controller. That is, since it is possible to perform completely different operations with the left and right hands of the player, a new operation that has not been possible in the past becomes possible. In this case, in the present invention, the operation data output from the operation means A corresponds to the first operation data, and the operation data output from the operation means B corresponds to the second operation data. Further, there is also an aspect in which the operating means A is provided in the subunit 76, the operating means A is provided in the core unit 70, and the operating means A and the operating means B are provided in the subunit 76. In this aspect, the player can perform an operation of moving both hands, and a new operation can be performed. In this case, in the present invention, the operation data output from the operation means A of the subunit 76 corresponds to the third operation data.

また、コアユニット70およびサブユニット76それぞれに操作手段Aを設けた場合、プレイヤが一方の手にコアユニット70を把持して手自体を動かし、他方の手もサブユニット76を把持して手自体を動かして操作するような入力を行うことができる。つまり、プレイヤの左右の手をそれぞれ動かす操作をさせることが可能になるので、従来にない新たな操作が可能となる。この場合、本発明では、操作手段Aから出力されるそれぞれの操作データが第1操作データおよび第2操作データに相当する。さらに、コアユニット70およびサブユニット76にそれぞれ操作手段AおよびBを設ける態様もある。この態様では、プレイヤが両方の手自体を動かす操作および両手の指による操作をそれぞれ行うことができ、さらに新たな操作が可能となる。この場合、本発明では、コアユニット70の操作手段Bから出力される操作データが第1のキー操作データに相当し、サブユニット76の操作手段Bから出力される操作データが第2のキー操作データに相当する。   When the operating means A is provided in each of the core unit 70 and the subunit 76, the player holds the core unit 70 in one hand and moves the hand itself, and the other hand also holds the subunit 76 and moves the hand itself. Input can be performed by moving the. That is, since it is possible to perform an operation of moving the left and right hands of the player, a new operation that has not been possible in the past becomes possible. In this case, in the present invention, each operation data output from the operation means A corresponds to the first operation data and the second operation data. Furthermore, there is also an aspect in which operating means A and B are provided in the core unit 70 and the subunit 76, respectively. In this aspect, the player can perform an operation of moving both hands themselves and an operation with the fingers of both hands, and a new operation can be performed. In this case, in the present invention, the operation data output from the operation means B of the core unit 70 corresponds to the first key operation data, and the operation data output from the operation means B of the subunit 76 is the second key operation data. Corresponds to data.

さらに、コアユニット70およびサブユニット76それぞれに操作手段Aを設けた場合、複数種類の操作手段Aを一方のユニットに設ける態様も考えられる。上述したように、操作手段Aを撮像情報演算部で構成した場合、撮像対象(マーカ)に対するユニットの方向や位置等を算出できるため、モニタ2に対するユニット方向や位置に応じた操作が可能となる。一方、操作手段Aを加速度センサやジャイロセンサで構成した場合、ユニット自体の傾き、姿勢、および位置等を算出することができるため、ユニットの姿勢や位置に応じた操作が可能となる。したがって、コアユニット70に撮像情報演算部と加速度センサまたはジャイロセンサとを設け、サブユニット76に加速度センサまたはジャイロセンサとを設けることによって、コアユニット70では上述した両者の操作が1つのユニットで可能となる。この場合、本発明では、コアユニット70の撮像情報演算部から出力される操作データが第1操作データに相当し、サブユニット76の加速度センサまたはジャイロセンサから出力される操作データが第2操作データに相当し、コアユニット70の加速度センサまたはジャイロセンサから出力される操作データが第3操作データに相当する。   Furthermore, when the operation means A is provided in each of the core unit 70 and the subunit 76, a mode in which a plurality of types of operation means A are provided in one unit is also conceivable. As described above, when the operation means A is configured by the imaging information calculation unit, the direction and position of the unit with respect to the imaging target (marker) can be calculated. . On the other hand, when the operation means A is composed of an acceleration sensor or a gyro sensor, the inclination, posture, position, etc. of the unit itself can be calculated, and therefore an operation according to the posture and position of the unit is possible. Therefore, by providing the imaging information calculation unit and the acceleration sensor or the gyro sensor in the core unit 70 and providing the acceleration sensor or the gyro sensor in the subunit 76, the core unit 70 can perform both operations described above in one unit. It becomes. In this case, in the present invention, the operation data output from the imaging information calculation unit of the core unit 70 corresponds to the first operation data, and the operation data output from the acceleration sensor or the gyro sensor of the subunit 76 is the second operation data. The operation data output from the acceleration sensor or gyro sensor of the core unit 70 corresponds to the third operation data.

また、撮像素子743で撮像した画像データを解析してLEDモジュール8Lおよび8Rからの赤外光の画像の位置座標等を取得し、それらを処理結果データとしてコアユニット70内で生成してゲーム装置3へ送信する態様を説明したが、他の処理段階のデータをコアユニット70からゲーム装置3へ送信してもかまわない。例えば、撮像素子743が撮像した画像データをコアユニット70からゲーム装置3へ送信し、CPU30において上記解析処理を行って処理結果データを取得してもかまわない。この場合、コアユニット70に設けられた画像処理回路744が不要となる。また、上記画像データの解析途中のデータをコアユニット70からゲーム装置3へ送信してもかまわない。例えば、画像データから得られる輝度、位置、および面積等を示すデータをコアユニット70からゲーム装置3へ送信し、CPU30において残りの解析処理を行って処理結果データを取得してもかまわない。   Further, the image data picked up by the image pickup device 743 is analyzed to acquire the position coordinates and the like of the infrared light images from the LED modules 8L and 8R, and these are generated as processing result data in the core unit 70 to be used in the game apparatus. 3 has been described, data in other processing stages may be transmitted from the core unit 70 to the game apparatus 3. For example, the image data captured by the image sensor 743 may be transmitted from the core unit 70 to the game apparatus 3, and the CPU 30 may perform the above analysis process to acquire the processing result data. In this case, the image processing circuit 744 provided in the core unit 70 becomes unnecessary. Further, the data during the analysis of the image data may be transmitted from the core unit 70 to the game apparatus 3. For example, data indicating brightness, position, area, and the like obtained from the image data may be transmitted from the core unit 70 to the game apparatus 3, and the CPU 30 may perform the remaining analysis processing to obtain processing result data.

また、上述した説明では、2つのLEDモジュール8Lおよび8Rからの赤外光を、コアユニット70の撮像情報演算部74の撮像対象としたが、他のものを撮像対象にしてもかまわない。例えば、1つまたは3つ以上のLEDモジュールをモニタ2の近傍に設置し、それらのLEDモジュールからの赤外光を撮像情報演算部74の撮像対象としてもかまわない。また、モニタ2の表示画面自体や他の発光体(室内灯等)を撮像情報演算部74の撮像対象としてもかまわない。撮像対象とモニタ2の表示画面との配置関係に基づいて、当該表示画面に対するコアユニット70の位置を演算すれば、様々な発光体を撮像情報演算部74の撮像対象として用いることができる。   Further, in the above description, the infrared light from the two LED modules 8L and 8R is the imaging target of the imaging information calculation unit 74 of the core unit 70, but other objects may be the imaging target. For example, one or three or more LED modules may be installed in the vicinity of the monitor 2 and infrared light from these LED modules may be used as an imaging target of the imaging information calculation unit 74. In addition, the display screen itself of the monitor 2 or other light emitters (such as room lights) may be the imaging target of the imaging information calculation unit 74. If the position of the core unit 70 relative to the display screen is calculated based on the positional relationship between the imaging target and the display screen of the monitor 2, various light emitters can be used as the imaging target of the imaging information calculation unit 74.

また、上述したコアユニット70およびサブユニット76の形状や、それらに設けられている操作部72および78の形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、コアユニット70における撮像情報演算部74の位置(撮像情報演算部74の光入射口)は、ハウジング71の前面でなくてもよく、ハウジング71の外部から光を取り入れることができれば他の面に設けられてもかまわない。   Further, the shapes of the core unit 70 and the subunit 76 described above and the shapes, numbers, and installation positions of the operation units 72 and 78 provided on them are merely examples, and other shapes, numbers, and installations are provided. It goes without saying that the present invention can be realized even in the position. Further, the position of the imaging information calculation unit 74 in the core unit 70 (the light incident port of the imaging information calculation unit 74) does not have to be the front surface of the housing 71. If the light can be taken in from the outside of the housing 71, the other surface. May be provided.

また、上述したスピーカ706、サウンドIC707、アンプ708は、コアユニット70側に設けられたが、手元で音声を発生するものであればよく、サブユニット76側に設けられていてもかまわない。   Further, although the above-described speaker 706, sound IC 707, and amplifier 708 are provided on the core unit 70 side, they may be provided on the subunit 76 side as long as they generate sound at hand.

このように、本発明のコントローラは、コアユニット70およびサブユニット76を共に操作に用いて、ゲームを楽しむことができる。ここで、一例として、コアユニット70は、撮像情報演算部74や加速度センサ701等のユニット本体の動きに応じた信号を出力する機能を有しており、サブユニット76は、プレイヤの方向入力操作に応じた信号を出力する機能を有している。例えば、コアユニット70とサブユニット76とが合体して一体となったコントローラを仮定した場合、ユニット本体の動きに応じた信号を出力するためには全体を動かすことが必要となり、方向入力操作に影響を与えてしまう。また、その逆の影響も生じてしまう。つまり、コアユニット70とサブユニット76とを合体させると、分離することにより実現していた自由度が著しく損なわれてしまう。また、他の例として、コアユニット70は、撮像情報演算部74や加速度センサ701等のユニット本体の動きに応じた信号を出力する機能を有しており、サブユニット76も、加速度センサ761等のユニット本体の動きに応じた信号を出力する機能を有している。これによって、プレイヤが両方の手に別々のユニットを把持してそれぞれの手自体を動かして操作するような入力を行うことができる。したがって、コアユニット70およびサブユニット76は、従来のゲーム機用コントローラを単に左右に分離できるように構成しただけでなく、プレイヤの左右の手が自由になると同時に合体型では操作できなかった新たな操作が可能となっている。また、コントローラ自体の操作の自由度が著しく向上しているため、臨場感のあるゲーム操作を実現できる。   Thus, the controller of the present invention can enjoy the game by using both the core unit 70 and the subunit 76 for the operation. Here, as an example, the core unit 70 has a function of outputting a signal according to the movement of the unit main body such as the imaging information calculation unit 74 and the acceleration sensor 701, and the subunit 76 is a direction input operation of the player. Has a function of outputting a signal corresponding to the signal. For example, assuming a controller in which the core unit 70 and the subunit 76 are united and integrated, it is necessary to move the entire unit in order to output a signal corresponding to the movement of the unit body. It will have an effect. In addition, the opposite effect occurs. That is, when the core unit 70 and the subunit 76 are combined, the degree of freedom realized by separating them is significantly impaired. As another example, the core unit 70 has a function of outputting a signal corresponding to the movement of the unit main body such as the imaging information calculation unit 74 and the acceleration sensor 701, and the subunit 76 also includes the acceleration sensor 761 and the like. Has a function of outputting a signal corresponding to the movement of the unit body. As a result, the player can make an input such that both hands hold the separate units and move and operate each hand itself. Accordingly, the core unit 70 and the subunit 76 are not only configured so that the conventional game machine controller can be separated into the left and right, but also the player's left and right hands are freed and at the same time a new one that cannot be operated in the combined type. Operation is possible. Further, since the degree of freedom of operation of the controller itself is remarkably improved, a realistic game operation can be realized.

本発明に係るコントローラおよびコンピュータシステムは、プレイヤが片手で把持した状態で操作部を操作することが容易となりコントローラおよびコンピュータシステム等として有用である。   The controller and the computer system according to the present invention are easy to operate the operation unit while being held by one hand of the player, and are useful as a controller and a computer system.

本発明の一実施形態に係るゲームシステム1を説明するための外観図1 is an external view for explaining a game system 1 according to an embodiment of the present invention. 図1のゲーム装置3の機能ブロック図Functional block diagram of the game apparatus 3 of FIG. 図1のコントローラ7の外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller 7 of FIG. 図3のコントローラ7の接続ケーブル79をコアユニット70から脱着する状態を示す斜視図3 is a perspective view showing a state in which the connection cable 79 of the controller 7 of FIG. 3 is detached from the core unit 70. FIG. 図3のコアユニット70の上面後方から見た斜視図The perspective view seen from the upper surface back of the core unit 70 of FIG. 図3のコアユニット70を下面前方から見た斜視図The perspective view which looked at the core unit 70 of FIG. 3 from the lower surface front. 図3のコアユニット70の上筐体を外した状態を示す斜視図The perspective view which shows the state which removed the upper housing | casing of the core unit 70 of FIG. 図3のコアユニット70の下筐体を外した状態を示す斜視図The perspective view which shows the state which removed the lower housing | casing of the core unit 70 of FIG. 図3のサブユニット76の第1の例を示す斜視図The perspective view which shows the 1st example of the subunit 76 of FIG. 図9のコアユニット70の上筐体を外した状態を示す斜視図The perspective view which shows the state which removed the upper housing | casing of the core unit 70 of FIG. 図3のサブユニット76の第2の例を示す上面図、下面図、および左側面図FIG. 3 is a top view, a bottom view, and a left side view showing a second example of the subunit 76 in FIG. 図3のサブユニット76の上面前方から見た斜視図The perspective view seen from the upper surface front of the subunit 76 of FIG. 図3のサブユニット76の第1の変形例を示す上面図FIG. 3 is a top view showing a first modification of the subunit 76 in FIG. 図3のサブユニット76の第2の変形例を示す上面図FIG. 3 is a top view showing a second modification of the subunit 76 in FIG. 図3のサブユニット76の第3の変形例を示す上面図FIG. 3 is a top view showing a third modification of the subunit 76 in FIG. 図3のサブユニット76の第4の変形例を示す上面図FIG. 3 is a top view showing a fourth modification of the subunit 76 in FIG. 図3のコントローラ7の構成を示すブロック図The block diagram which shows the structure of the controller 7 of FIG. 図3のコントローラ7を用いてゲーム操作するときの状態を概説する図解図An illustrative view outlining the state when operating the game using the controller 7 of FIG. プレイヤがコアユニット70を右手で把持した状態をコアユニット70の前面側から見た一例An example in which the player holds the core unit 70 with his right hand as viewed from the front side of the core unit 70 プレイヤがコアユニット70を右手で把持した状態をコアユニット70の左側面側から見た一例An example in which the player holds the core unit 70 with his right hand as viewed from the left side of the core unit 70 LEDモジュール8Lおよび8Rと撮像素子743との視野角を説明するための図The figure for demonstrating the viewing angle of LED module 8L and 8R and the image pick-up element 743 プレイヤがサブユニット76を左手で把持した状態をサブユニット76の右側面側から見た一例An example of the player holding the subunit 76 with his left hand as viewed from the right side of the subunit 76 ゲーム装置3がシューティングゲームを実行する際にモニタ2に表示されるゲーム画像例Example of a game image displayed on the monitor 2 when the game apparatus 3 executes a shooting game

符号の説明Explanation of symbols

1…ゲームシステム
2…モニタ
2b…スピーカ
3…ゲーム装置
30…CPU
31…メモリコントローラ
32…GPU
33…メインメモリ
34…DSP
35…ARAM
36…コントローラI/F
37…ビデオI/F
38…外部メモリI/F
39…オーディオI/F
40…ディスクドライブ
41…ディスクI/F
4…光ディスク
5…外部メモリカード
6…受信ユニット
7…コントローラ
70…コアユニット
71、77…ハウジング
72、78…操作部
73、791…コネクタ
74…撮像情報演算部
741…赤外線フィルタ
742…レンズ
743…撮像素子
744…画像処理回路
75…通信部
751…マイコン
752…メモリ
753…無線モジュール
754…アンテナ
700…基板
701、761…加速度センサ
702…LED
703…水晶振動子
704…バイブレータ
706…スピーカ
707…サウンドIC
708…アンプ
76…サブユニット
79…接続ケーブル
8…LEDモジュール
DESCRIPTION OF SYMBOLS 1 ... Game system 2 ... Monitor 2b ... Speaker 3 ... Game device 30 ... CPU
31 ... Memory controller 32 ... GPU
33 ... Main memory 34 ... DSP
35 ... ARAM
36 ... Controller I / F
37 ... Video I / F
38 ... External memory I / F
39 ... Audio I / F
40 ... disk drive 41 ... disk I / F
4 ... Optical disk 5 ... External memory card 6 ... Reception unit 7 ... Controller 70 ... Core unit 71, 77 ... Housing 72, 78 ... Operation part 73, 791 ... Connector 74 ... Imaging information calculation part 741 ... Infrared filter 742 ... Lens 743 ... Image sensor 744 ... Image processing circuit 75 ... Communication unit 751 ... Microcomputer 752 ... Memory 753 ... Wireless module 754 ... Antenna 700 ... Substrate 701, 761 ... Acceleration sensor 702 ... LED
703 ... Crystal oscillator 704 ... Vibrator 706 ... Speaker 707 ... Sound IC
708 ... Amplifier 76 ... Subunit 79 ... Connection cable 8 ... LED module

Claims (14)

所定のプログラムを実行するコンピュータに操作データを送信するためのコントローラであって、
片手で把持可能な大きさでかつ全体として細長く、その上面が長手方向に沿って湾曲しているハウジング、および、
前記ハウジング上面の前方に設けられ、方向をユーザに指示させるための方向入力部を少なくとも含み、当該方向入力部に与えられた指示に応じたデータを少なくとも前記操作データとして出力する操作部を備える、コントローラ。
A controller for transmitting operation data to a computer that executes a predetermined program,
A housing that can be gripped with one hand and is slender as a whole, the upper surface of which is curved along the longitudinal direction; and
Provided at the front of the upper surface of the housing, including at least a direction input unit for causing a user to instruct a direction, and including an operation unit that outputs at least data according to an instruction given to the direction input unit as the operation data. controller.
前記ハウジングは、前方が太く、後方が細く形成される、請求項1に記載のコントローラ。   The controller of claim 1, wherein the housing is formed with a thick front and a thin rear. 前記操作部は、前記ハウジングの前端面に設けられた少なくとも1つの操作ボタンを有する第1操作ボタン部をさらに含み、前記当該第1操作ボタン部に対する操作に応じたデータを前記操作データとしてさらに出力する、請求項1に記載のコントローラ。   The operation unit further includes a first operation button unit having at least one operation button provided on a front end surface of the housing, and further outputs data corresponding to an operation on the first operation button unit as the operation data. The controller of claim 1. 前記方向入力部は、ユーザが前記ハウジングを把持したとき、ユーザの親指で操作可能な上面の位置に設けられ、
前記第1操作ボタン部は、当該方向入力部に親指を置いた状態でユーザの人指し指で操作可能な前記前端面の位置に設けられる、請求項3に記載のコントローラ。
The direction input unit is provided at a position on the upper surface that can be operated with a user's thumb when the user grips the housing.
The controller according to claim 3, wherein the first operation button unit is provided at a position of the front end surface that can be operated by a user's index finger with a thumb placed on the direction input unit.
前記操作部は、前記ハウジングの上面であって前記方向入力部の近傍かつ後方に設けられる第2操作ボタン部を、さらに含む、請求項1に記載のコントローラ。   The controller according to claim 1, wherein the operation unit further includes a second operation button unit provided on the upper surface of the housing and in the vicinity of and behind the direction input unit. 所定のプログラムを実行するコンピュータに操作データを送信するためのコントローラであって、
片手で把持可能な大きさでかつ全体として細長く、その上面側から見たときその長手方向の前部分が太く後部分が当該前部分よりも細く形成され、その上面が上面側に凸となるように長手方向に湾曲して形成されたハウジング、
前記ハウジングの前端面に設けられ、当該ハウジングを把持したときに片手の人指し指で操作可能であり、当該操作に応じたデータを前記操作データとして出力する第1操作ボタン部、および
前記第1操作ボタン部に人指し指を置いた状態で親指で操作可能な前記ハウジングの前部分の上面の位置に設けられ、方向をユーザに指示させ、当該指示に応じたデータを前記操作データとして出力する方向入力部を備える、コントローラ。
A controller for transmitting operation data to a computer that executes a predetermined program,
It is a size that can be held with one hand and is slender as a whole, and when viewed from the upper surface side, the front part in the longitudinal direction is thick and the rear part is thinner than the front part, and the upper surface is convex on the upper surface side. A housing formed by bending in the longitudinal direction,
A first operation button provided on a front end surface of the housing, which can be operated with an index finger of one hand when the housing is gripped, and outputs data corresponding to the operation as the operation data; and the first operation button A direction input unit that is provided at a position on the upper surface of the front portion of the housing that can be operated with the thumb with an index finger placed on the unit, and that instructs a user to specify a direction and outputs data corresponding to the instruction as the operation data. A controller.
前記方向入力部は、前記ハウジングの上面から突出し、傾倒操作によって任意方向を指示可能に構成されたスティックである、請求項1または6に記載のコントローラ。   The controller according to claim 1, wherein the direction input unit is a stick that protrudes from an upper surface of the housing and is configured to be able to indicate an arbitrary direction by a tilting operation. 前記ハウジングの上面には、前記スティックが突出するための8角形の開口部が形成される、請求項7に記載のコントローラ。   The controller of claim 7, wherein an octagonal opening through which the stick protrudes is formed on an upper surface of the housing. 前記方向入力部は、前後左右に並んだ独立した4つの操作ボタンである、請求項1または6に記載のコントローラ。   The controller according to claim 1, wherein the direction input unit is four independent operation buttons arranged in front, rear, left, and right. 前記方向入力部は、十字形状のスイッチである、請求項1または6に記載のコントローラ。   The controller according to claim 1, wherein the direction input unit is a cross-shaped switch. 前記方向入力部は、任意方向を指示可能なスライドパッドまたはタッチパッドである、請求項1または6に記載のコントローラ。   The controller according to claim 1, wherein the direction input unit is a slide pad or a touch pad that can indicate an arbitrary direction. 前記ハウジング内に搭載され、当該ハウジングの動きに応じたデータを出力する加速度センサまたはジャイロセンサを、さらに備え、
前記操作データには当該加速度センサまたはジャイロセンサの出力データがさらに含まれる、請求項1または6に記載のコントローラ。
An acceleration sensor or a gyro sensor mounted in the housing and outputting data corresponding to the movement of the housing;
The controller according to claim 1, wherein the operation data further includes output data of the acceleration sensor or gyro sensor.
前記コンピュータ側から送信された送信データを受信する受信部と、
スピーカと、
前記受信部が受信した送信データに基づいて、前記スピーカから音声を発生させる音声制御部とを、さらに備える、請求項1または6に記載のコントローラ。
A receiving unit for receiving transmission data transmitted from the computer side;
Speakers,
The controller according to claim 1, further comprising: an audio control unit that generates audio from the speaker based on transmission data received by the receiving unit.
請求項1乃至13のいずれか1つに記載のコントローラと、
前記コントローラと通信可能に接続され、当該コントローラから送信される前記操作データに応じた処理を行うコンピュータとを含む、コンピュータシステム。
A controller according to any one of claims 1 to 13,
A computer system including a computer that is communicably connected to the controller and performs processing according to the operation data transmitted from the controller.
JP2008256858A 2005-08-24 2008-10-01 Controller and computer system Pending JP2009064449A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008256858A JP2009064449A (en) 2005-08-24 2008-10-01 Controller and computer system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005242926 2005-08-24
JP2008256858A JP2009064449A (en) 2005-08-24 2008-10-01 Controller and computer system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006122681A Division JP4262726B2 (en) 2005-08-24 2006-04-26 Game controller and game system

Publications (1)

Publication Number Publication Date
JP2009064449A true JP2009064449A (en) 2009-03-26

Family

ID=37777316

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008256858A Pending JP2009064449A (en) 2005-08-24 2008-10-01 Controller and computer system
JP2008274709A Active JP5074346B2 (en) 2005-08-24 2008-10-24 Game controller and game system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2008274709A Active JP5074346B2 (en) 2005-08-24 2008-10-24 Game controller and game system

Country Status (2)

Country Link
JP (2) JP2009064449A (en)
CN (2) CN1919389A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086287A (en) * 2009-09-17 2011-04-28 Sony Computer Entertainment Inc Operation device
JP2011138475A (en) * 2009-12-25 2011-07-14 Cywee Group Ltd Method of generating multi-touch signal, dongle for generating multi-touch signal, and related control system
WO2014192293A1 (en) * 2013-05-30 2014-12-04 ユニバーサルギア合同会社 Auxiliary input device and auxiliary input system
JP2017105622A (en) * 2015-12-11 2017-06-15 古河ユニック株式会社 Radio transmitter for working machine and on-vehicle crane including the same
JP2017535002A (en) * 2014-09-01 2017-11-24 インボ・リィYinbo LI Multi surface controller
USD868743S1 (en) 2017-06-20 2019-12-03 Yinbo Li Multi-surface controller
US10534447B2 (en) 2014-09-01 2020-01-14 Yinbo Li Multi-surface controller

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101332361B (en) * 2007-06-29 2011-11-02 富港电子(昆山)有限公司 Interactive gaming system
EP2014341B8 (en) 2007-07-09 2017-08-30 Sony Interactive Entertainment Inc. Game Controller
CN101499216B (en) * 2008-01-28 2012-10-03 财团法人工业技术研究院 Limb interaction type learning method and apparatus
US8384565B2 (en) * 2008-07-11 2013-02-26 Nintendo Co., Ltd. Expanding operating device and operating system
JP5529399B2 (en) * 2008-07-11 2014-06-25 任天堂株式会社 Operation system
CN101721810B (en) * 2008-10-23 2015-04-22 鼎亿数码科技(上海)有限公司 Method for identifying action mode of game operating device
CN101732862B (en) * 2008-11-24 2013-05-08 英属维京群岛速位互动股份有限公司 Double-controller combination
CN101559283B (en) * 2009-05-15 2012-01-11 凌阳科技股份有限公司 Imaging system and method for expanding mobile range of imaging device
CN101574585B (en) * 2009-05-31 2011-06-29 北京必创科技有限公司 Intelligent refueling rod
JP2010277508A (en) 2009-06-01 2010-12-09 Sony Computer Entertainment Inc Operation device
CN101940841B (en) * 2009-07-08 2013-12-04 原相科技股份有限公司 Two-dimensional input device, control device and interactive type game system
CN101940840A (en) * 2009-07-08 2011-01-12 原相科技股份有限公司 Two-dimensional input device, control device and interactive game system
JP4944225B2 (en) * 2010-04-28 2012-05-30 株式会社コナミデジタルエンタテインメント Data generation system, data generation method used therefor, and computer program
CN102343159B (en) * 2010-08-02 2015-10-07 廖明忠 A kind of body sense control method based on IMU and device
CN101947386A (en) * 2010-09-21 2011-01-19 浙江大学 Spatial position calculating technology based realization method and device for playing music cantor games
CN102008824A (en) * 2010-10-22 2011-04-13 东莞市常平永柏高电子贸易部 Game action sensing system
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
CN104096360A (en) * 2013-04-01 2014-10-15 云联(北京)信息技术有限公司 System and method for accessing cloud game
CN103920291A (en) * 2014-04-29 2014-07-16 深圳市中兴移动通信有限公司 Method using mobile terminal as auxiliary information source and mobile terminal
TWI692707B (en) * 2016-04-29 2020-05-01 姚秉洋 Control device
JP7089136B2 (en) 2018-03-22 2022-06-22 株式会社デンソー Wafer grinding method
CN109107148B (en) * 2018-08-08 2022-04-19 Oppo广东移动通信有限公司 Control method, control device, storage medium and mobile terminal

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH037762A (en) * 1989-06-06 1991-01-14 Ube Ind Ltd Imide resin matrix prepreg and composite material
JPH0378268A (en) * 1989-08-21 1991-04-03 Matsushita Electric Ind Co Ltd Method of oscillating excimer laser
JPH0380102A (en) * 1989-08-21 1991-04-04 Toshiba Corp Fuel reformer
JPH0374434U (en) * 1989-11-20 1991-07-26
JPH08111144A (en) * 1994-10-12 1996-04-30 Nakamichi Corp Joy stick
JPH0926830A (en) * 1995-07-11 1997-01-28 Mitsutoyo Corp Joy stick operating device
JPH11114223A (en) * 1997-10-09 1999-04-27 Sony Corp Operating device for game machine
JP2001051801A (en) * 1999-07-29 2001-02-23 Fukoku Yo Method and device for cursor control
JP2003140823A (en) * 2001-11-08 2003-05-16 Sony Computer Entertainment Inc Information input device and information processing program
JP2003236246A (en) * 1995-05-10 2003-08-26 Nintendo Co Ltd Operating device for game machine
JP2004005335A (en) * 2002-06-01 2004-01-08 Hiroaki Sudo Handheld computer input operation mouse

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH037762U (en) * 1989-06-12 1991-01-24
JP3907213B2 (en) * 1992-09-11 2007-04-18 伸壹 坪田 Game control device
US6146278A (en) * 1997-01-10 2000-11-14 Konami Co., Ltd. Shooting video game machine
US6171190B1 (en) * 1998-05-27 2001-01-09 Act Labs, Ltd. Photosensitive input peripheral device in a personal computer-based video gaming platform
US20020010021A1 (en) * 1999-08-03 2002-01-24 Mccauley Jack Jean Method and device for optical gun interaction with a computer game system
US20040152515A1 (en) * 2003-02-05 2004-08-05 Logitech Europe S.A. Cordless game controller system
JP3619517B2 (en) * 2003-04-17 2005-02-09 株式会社ホリ Video game console controller

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH037762A (en) * 1989-06-06 1991-01-14 Ube Ind Ltd Imide resin matrix prepreg and composite material
JPH0378268A (en) * 1989-08-21 1991-04-03 Matsushita Electric Ind Co Ltd Method of oscillating excimer laser
JPH0380102A (en) * 1989-08-21 1991-04-04 Toshiba Corp Fuel reformer
JPH0374434U (en) * 1989-11-20 1991-07-26
JPH08111144A (en) * 1994-10-12 1996-04-30 Nakamichi Corp Joy stick
JP2003236246A (en) * 1995-05-10 2003-08-26 Nintendo Co Ltd Operating device for game machine
JPH0926830A (en) * 1995-07-11 1997-01-28 Mitsutoyo Corp Joy stick operating device
JPH11114223A (en) * 1997-10-09 1999-04-27 Sony Corp Operating device for game machine
JP2001051801A (en) * 1999-07-29 2001-02-23 Fukoku Yo Method and device for cursor control
JP2003140823A (en) * 2001-11-08 2003-05-16 Sony Computer Entertainment Inc Information input device and information processing program
JP2004005335A (en) * 2002-06-01 2004-01-08 Hiroaki Sudo Handheld computer input operation mouse

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086287A (en) * 2009-09-17 2011-04-28 Sony Computer Entertainment Inc Operation device
EP2298425B1 (en) * 2009-09-17 2021-04-28 Sony Interactive Entertainment Inc. Operation device
JP2011138475A (en) * 2009-12-25 2011-07-14 Cywee Group Ltd Method of generating multi-touch signal, dongle for generating multi-touch signal, and related control system
WO2014192293A1 (en) * 2013-05-30 2014-12-04 ユニバーサルギア合同会社 Auxiliary input device and auxiliary input system
JP2017535002A (en) * 2014-09-01 2017-11-24 インボ・リィYinbo LI Multi surface controller
US10444849B2 (en) 2014-09-01 2019-10-15 Yinbo Li Multi-surface controller
US10534447B2 (en) 2014-09-01 2020-01-14 Yinbo Li Multi-surface controller
JP2017105622A (en) * 2015-12-11 2017-06-15 古河ユニック株式会社 Radio transmitter for working machine and on-vehicle crane including the same
USD868743S1 (en) 2017-06-20 2019-12-03 Yinbo Li Multi-surface controller

Also Published As

Publication number Publication date
CN1919390A (en) 2007-02-28
JP2009011870A (en) 2009-01-22
JP5074346B2 (en) 2012-11-14
CN1919389A (en) 2007-02-28
CN1919390B (en) 2011-06-08

Similar Documents

Publication Publication Date Title
JP4262726B2 (en) Game controller and game system
JP5074346B2 (en) Game controller and game system
JP4989105B2 (en) Game controller
JP4240510B2 (en) Game controller and game system
JP4907128B2 (en) Game system and game program
US9533220B2 (en) Game controller and game system
US8308563B2 (en) Game system and storage medium having game program stored thereon
JP4798705B2 (en) POSITION CALCULATION DEVICE, POSITION CALCULATION PROGRAM, GAME DEVICE, AND GAME PROGRAM
JP5330640B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5735865B2 (en) Game system and game program
JP5331259B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5357998B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110422

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110714

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110902