JP2010063616A - Game device, method for selecting object, information recording medium and program - Google Patents

Game device, method for selecting object, information recording medium and program Download PDF

Info

Publication number
JP2010063616A
JP2010063616A JP2008232166A JP2008232166A JP2010063616A JP 2010063616 A JP2010063616 A JP 2010063616A JP 2008232166 A JP2008232166 A JP 2008232166A JP 2008232166 A JP2008232166 A JP 2008232166A JP 2010063616 A JP2010063616 A JP 2010063616A
Authority
JP
Japan
Prior art keywords
controller
unit
aiming area
objects
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008232166A
Other languages
Japanese (ja)
Inventor
Katsuya Shimazaki
勝也 島崎
Hirotaka Ishikawa
裕崇 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2008232166A priority Critical patent/JP2010063616A/en
Priority to PCT/JP2009/065219 priority patent/WO2010029870A1/en
Priority to TW098129738A priority patent/TWI396577B/en
Publication of JP2010063616A publication Critical patent/JP2010063616A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8094Unusual game types, e.g. virtual cooking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game device or the like in which an object or the like is operated by a controller directed to a display device and a player can easily carry out a selection operation of an object to be displayed. <P>SOLUTION: A sight area calculation unit 371 calculates a sight area on a display screen pointed by the controller in accordance with position information acquired from a position information acquisition unit 310. When a candidate object selection unit 372 identifies that a B button of the controller is pressed down in accordance with button operation information acquired from an operation information acquisition unit 320, the candidate object selection unit selects a piece object contained in the sight area as a candidate object. An object determination unit 373 determines the piece object in accordance with a shaken direction among the candidate objects in the case where the controller is shaken by the player in a selected condition of the candidate object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、表示装置に向けたコントローラによってオブジェクトを操作するゲーム装置において、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことのできるゲーム装置、オブジェクト選択方法、および、プログラムに関する。   The present invention relates to a game apparatus, an object selection method, and a program that allow a player to more easily perform an operation of selecting an object to be displayed in a game apparatus that operates an object with a controller directed to the display apparatus.

従来より、麻雀ゲームやカードゲーム(トランプや花札等)をプレイすることのできるゲーム装置(ビデオゲーム装置等)が知られている。このようなゲーム装置では、表示される手牌や手札の中から、プレイヤが任意の牌や札を選んで、場に捨てる操作が行われている。
具体的には、麻雀ゲームを実行する家庭用ゲーム装置では、コントローラの方向キーや決定ボタン等を用いて、捨て牌操作(打牌操作)が行えるようになっている。一例として、手牌の中から捨て牌を選択するためのカーソルが、方向キーの押下に応じて移動可能となっており、プレイヤが所望の牌までカーソルを移動させた後に、決定ボタンを押下することにより、捨て牌操作が行われる。
2. Description of the Related Art Conventionally, game devices (such as video game devices) that can play mahjong games and card games (such as playing cards and flower cards) are known. In such a game apparatus, an operation is performed in which the player selects an arbitrary basket or card from the displayed cards or hand and throws it into the field.
Specifically, in a consumer game device that executes a mahjong game, a throwing operation (striking operation) can be performed using a direction key, a determination button, or the like of a controller. As an example, a cursor for selecting a throwing bag out of a hand bag can be moved in response to pressing of a direction key, and the player moves the cursor to a desired bag and then presses the decision button. As a result, the discarding operation is performed.

このようなゲーム装置の先行技術として、捨て牌等をプレイヤが決定する際に、誤操作によるミスをできるだけ防止することのできる項目決定装置等の発明が開示されている(例えば、特許文献1参照)。   As a prior art of such a game apparatus, an invention such as an item determination apparatus that can prevent mistakes due to an erroneous operation when the player determines a throwing-away object or the like is disclosed (for example, see Patent Document 1). .

特開2007−97669号公報 (第16−28頁、第3図)JP 2007-97669 A (pages 16-28, FIG. 3)

最近では、コントローラに特徴のある新型のゲーム装置が発売され、人気を博している。
この新型のゲーム装置では、新発想のコントローラが使用され、直感的な操作が行えるようになっている。例えば、新発想のコントローラをプレイヤが片手で持ち、画面に向けて狙いをつけることで、ゲーム中のオブジェクトを直接指定等できるといった機能が付加されている。
Recently, a new type of game device characterized by a controller has been released and gained popularity.
In this new game device, a newly-invented controller is used so that intuitive operation can be performed. For example, a function is added in which a player can directly specify an object in the game by holding the controller of a new idea with one hand and aiming at the screen.

しかしながら、このような新型のゲーム装置にて麻雀ゲームやカードゲームが実行される場合には、従来型のコントローラが使用されることが多かった。つまり、新発想のコントローラの代わりに、従来型のコントローラをゲーム装置に接続し、上述したように、方向キーを押下してカーソルを所望の牌(札)まで移動させ、決定ボタンを押下する等により、捨て牌(札)操作が行われていた。
また、新発想のコントローラがそのまま使用される場合もあるが、その場合でも従来型のコントローラと同じ機能だけが使われ、新発想のコントローラの機能を十分に活かしきれていないのが現状であった。
However, when a mahjong game or a card game is executed on such a new game device, a conventional controller is often used. In other words, instead of the controller of a new idea, a conventional controller is connected to the game device, and as described above, the direction key is pressed to move the cursor to a desired basket (card), and the decision button is pressed. As a result, a discard operation was performed.
In addition, there are cases where newly-developed controllers are used as they are, but even in that case, only the same functions as the conventional controller are used, and the functions of the newly-developed controller have not been fully utilized. .

その理由は、新発想のコントローラの機能を使って捨て牌(札)操作を行うとした場合では、以下のような問題が生じることが予想されるからである。
すなわち、ゲーム画面上の牌(札)を新発想のコントローラから狙って直接指定するとなると、配列された手牌(手札)の中から、所望の牌(札)を正確に狙う必要があるため、操作が困難になると考えられる。
つまり、ゲーム画面上の手牌(手札)は、比較的小さな牌(札)が隣接して配列されているため、目的の牌(札)になかなか狙いがつかなかったり、一旦狙いがついたとしても手ぶれ等で別の牌(札)に狙いが移ってしまう等の状況が生じ得る。このような状況では、快適な操作を妨げてしまうだけでなく、誤操作(誤選択)も生じ易くなるため、ゲーム自体の面白みを低下させてしまうことが懸念される。
The reason for this is that the following problems are expected to occur when the discarding (tapping) operation is performed using the controller function of the new idea.
In other words, if you directly specify the card on the game screen from the newly-inspired controller, you need to accurately target the desired card (card) from the arranged cards (hand). Operation is thought to be difficult.
In other words, the hand on the game screen (hand) is a relatively small card (card) is arranged adjacent to each other, so it is difficult to aim the target card (card), or once aim However, there may be situations where the aim is moved to another bag (hand) due to camera shake. In such a situation, not only does the comfortable operation be disturbed, but also an erroneous operation (erroneous selection) is likely to occur, and there is a concern that the fun of the game itself may be reduced.

そのため、麻雀ゲームやカードゲームをプレイする際においても、新発想のコントローラの機能を活かしつつ、プレイヤが捨て牌(札)操作等を容易に行うことのできる技術が求められていた。   For this reason, even when playing a mahjong game or a card game, there has been a demand for a technique that allows a player to easily perform a discarding operation (card) while taking advantage of the function of a newly-invented controller.

本発明は、このような課題を解決するためになされたもので、表示装置に向けたコントローラによってオブジェクトなどを操作するゲーム装置において、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことのできるゲーム装置、オブジェクト選択方法、および、プログラムを提供することを目的とする。   The present invention has been made to solve such a problem, and in a game device in which an object or the like is operated by a controller directed to the display device, the player can more easily perform the selection operation of the displayed object. An object of the present invention is to provide a game device, an object selection method, and a program.

本発明の第1の観点に係るゲーム装置は、表示装置に向けられたコントローラにより、任意のオブジェクトを指定して操作するゲーム装置であって、表示制御部、照準領域検出部、選定部、及び、決定部を含んで構成される。   A game device according to a first aspect of the present invention is a game device that designates and operates an arbitrary object by a controller directed to a display device, and includes a display control unit, an aiming region detection unit, a selection unit, and , Including a determination unit.

まず、表示制御部は、複数のオブジェクト(例えば、牌や札等)が配列された配列画像(例えば、手牌や手札)を表示画面に表示する。また、照準領域検出部は、コントローラにより指し示される表示画面上の所定範囲の照準領域を検出する。選定部は、検出された照準領域に基づいて、表示される配列画像の中から複数の候補オブジェクトを選定する。そして、決定部は、選定された候補オブジェクトの中から、コントローラの向き又は姿勢変化(例えば、コントローラが振られた方向)に応じてオブジェクトを決定する。   First, the display control unit displays on the display screen an array image (for example, a hand or a hand) in which a plurality of objects (for example, a hand or a hand) is arrayed. The aiming area detection unit detects a aiming area within a predetermined range on the display screen indicated by the controller. The selection unit selects a plurality of candidate objects from the displayed array image based on the detected aiming area. Then, the determination unit determines an object from the selected candidate objects according to a change in orientation or orientation of the controller (for example, a direction in which the controller is swung).

つまり、最初に、ある程度の広い範囲の照準領域でオブジェクトを選定するため、コントローラから所望のオブジェクトを狙う際に、それほど高い精度を必要とせず、不慣れなプレイヤであっても、簡単に狙えるようになる。
そして、選定されたオブジェクトの中から、所望のオブジェクトを決定する際に、その配置(並び)に応じて、コントローラの向き又は姿勢を変えればよいため(例えば、振ればよいため)、直感的であり、かつ、自然な操作で所望のオブジェクトを決定することができる。
この結果、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことができる。
In other words, first, the object is selected in a certain range of aiming area, so when aiming at the desired object from the controller, it does not require so high accuracy, so even an inexperienced player can easily aim Become.
Then, when determining a desired object from the selected objects, it is intuitive to change the orientation or orientation of the controller according to its arrangement (arrangement) (for example, it may be shaken). A desired object can be determined by a natural operation.
As a result, the player can more easily perform the selection operation of the displayed object.

本発明の第2の観点に係るゲーム装置は、所定のセンサを有するコントローラがプレイヤによって把持され、当該プレイヤが当該コントローラを表示画面に向け、任意のオブジェクトを指定して処理を命ずるゲーム装置であって、表示制御部、照準領域検出部、選定部、移動方向検出部、及び、決定部を含んで構成される。   A game device according to a second aspect of the present invention is a game device in which a controller having a predetermined sensor is gripped by a player, the player points the controller at a display screen, specifies an arbitrary object, and commands a process. The display control unit, the aiming area detection unit, the selection unit, the movement direction detection unit, and the determination unit are configured.

まず、表示制御部は、指定対象となり得る複数のオブジェクト(例えば、牌や札等)が隣接して配列された配列画像(例えば、手牌や手札)を表示画面に表示する。また、照準領域検出部は、コントローラにより指し示される表示画面上の照準領域を、コントローラの位置及び先端の向きに基づいて検出する。選定部は、表示された配列画像と検出された照準領域との位置関係に基づいて、配列画像の中から複数の候補オブジェクトを選定する。移動方向検出部は、センサから供給される情報を取得し、コントローラの移動方向(例えば、コントローラが振られた方向)を検出する。そして、決定部は、候補オブジェクトが選定された状態で、検出された移動方向に応じて定まるオブジェクトを、候補オブジェクトの中から決定する。   First, the display control unit displays, on the display screen, an array image (for example, a hand or a hand) in which a plurality of objects (for example, a bag or a bill) that can be designated are arranged adjacent to each other. The aiming area detection unit detects the aiming area on the display screen indicated by the controller based on the position of the controller and the direction of the tip. The selection unit selects a plurality of candidate objects from the array image based on the positional relationship between the displayed array image and the detected aiming area. The movement direction detection unit acquires information supplied from the sensor and detects the movement direction of the controller (for example, the direction in which the controller is swung). Then, the determination unit determines an object determined according to the detected moving direction from the candidate objects in a state where the candidate object is selected.

つまり、最初に、ある程度の広い範囲の照準領域でオブジェクトを選定するため、コントローラから所望のオブジェクトを狙う際に、それほど高い精度を必要とせず、不慣れなプレイヤであっても、簡単に狙えるようになる。
そして、選定したオブジェクトの中から、所望のオブジェクトを決定する際に、その配置(並び)に応じて、コントローラを移動させればよいため(例えば、振ればよいため)、直感的であり、かつ、自然な操作で所望のオブジェクトを決定することができる。
この結果、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことができる。
In other words, first, the object is selected in a certain range of aiming area, so when aiming at the desired object from the controller, it does not require so high accuracy, so even an inexperienced player can easily aim Become.
And, when determining a desired object from among the selected objects, it is intuitive because it is only necessary to move the controller according to the arrangement (arrangement) (for example, it may be shaken), and The desired object can be determined by natural operation.
As a result, the player can more easily perform the selection operation of the displayed object.

前記コントローラには、所定のボタンが配置されており、
前記選定部は、当該ボタンが押下された時点での当該照準領域に属する当該配列画像における複数のオブジェクトを、候補オブジェクトとして選定してもよい。
A predetermined button is arranged on the controller,
The selection unit may select a plurality of objects in the array image belonging to the aiming region at the time when the button is pressed as candidate objects.

前記照準領域検出部は、当該照準領域を規定時間毎に順次検出し、
前記選定部は、順次検出される当該照準領域の表示画像上の位置が維持されたまま、一定時間が経過すると、当該照準領域に含まれる当該配列画像における複数のオブジェクトを、候補オブジェクトとして選定してもよい。
The aiming area detection unit sequentially detects the aiming area every specified time,
The selection unit selects a plurality of objects in the array image included in the aiming area as candidate objects when a predetermined time elapses while the position of the aiming area that is sequentially detected is maintained on the display image. May be.

前記表示制御部は、選定された当該各候補オブジェクトの拡大画像を、当該配列画像に対応させて表示し、
前記決定部は、表示される当該拡大画像中の当該各候補オブジェクトの並びと、当該コントローラの向きが変化する方向との関係に応じて、当該候補オブジェクトの中からオブジェクトを決定してもよい。
The display control unit displays an enlarged image of each selected candidate object corresponding to the array image,
The determination unit may determine an object from the candidate objects according to a relationship between the arrangement of the candidate objects in the enlarged image to be displayed and a direction in which the direction of the controller changes.

本発明の第3の観点に係るオブジェクト選択方法は、表示装置に向けられたコントローラにより、任意のオブジェクトを指定して操作するゲーム装置におけるオブジェクト選択方法であって、ゲーム装置は、制御部と、表示制御部と、コントローラを含むコントローラユニットとを有しており、表示ステップ、照準領域検出ステップ、選定ステップ、及び、決定ステップを含んで構成される。   An object selection method according to a third aspect of the present invention is an object selection method in a game device in which an arbitrary object is designated and operated by a controller directed to a display device. The game device includes a control unit, It has a display control unit and a controller unit including a controller, and includes a display step, an aiming region detection step, a selection step, and a determination step.

まず、表示ステップでは、複数のオブジェクト(例えば、牌や札等)が配列された配列画像(例えば、手牌や手札)を表示画面に表示する。また、照準領域検出ステップでは、コントローラにより指し示される表示画面上の所定範囲の照準領域を検出する。選定ステップでは、検出された照準領域に基づいて、表示される配列画像の中から複数の候補オブジェクトを選定する。そして、決定ステップでは、選定された候補オブジェクトの中から、コントローラの向き又は姿勢変化(例えば、コントローラが振られた方向)に応じてオブジェクトを決定する。   First, in the display step, an array image (for example, a hand or a hand) in which a plurality of objects (for example, a hand or a bill) is arrayed is displayed on the display screen. Further, in the aiming area detection step, an aiming area within a predetermined range on the display screen indicated by the controller is detected. In the selection step, a plurality of candidate objects are selected from the displayed array image based on the detected aiming area. In the determining step, an object is determined from the selected candidate objects in accordance with a change in orientation or posture of the controller (for example, a direction in which the controller is swung).

つまり、最初に、ある程度の広い範囲の照準領域でオブジェクトを選定するため、コントローラから所望のオブジェクトを狙う際に、それほど高い精度を必要とせず、不慣れなプレイヤであっても、簡単に狙えるようになる。
そして、選定されたオブジェクトの中から、所望のオブジェクトを決定する際に、その配置(並び)に応じて、コントローラの向き又は姿勢を変えればよいため(例えば、振ればよいため)、直感的であり、かつ、自然な操作で所望のオブジェクトを決定することができる。
この結果、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことができる。
In other words, first, the object is selected in a certain range of aiming area, so when aiming at the desired object from the controller, it does not require so high accuracy, so even an inexperienced player can easily aim Become.
Then, when determining a desired object from the selected objects, it is intuitive to change the orientation or orientation of the controller according to its arrangement (arrangement) (for example, it may be shaken). A desired object can be determined by a natural operation.
As a result, the player can more easily perform the selection operation of the displayed object.

本発明の第4の観点に係るプログラムは、コンピュータ(電子機器を含む。)を、上記のゲーム装置として機能させるように構成する。   A program according to a fourth aspect of the present invention is configured to cause a computer (including an electronic device) to function as the above game device.

このプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。   This program can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.

上記プログラムは、当該プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、当該コンピュータとは独立して配布・販売することができる。   The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.

本発明によれば、表示装置に向けたコントローラによってオブジェクトなどを操作するゲーム装置において、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことができる。   According to the present invention, in a game device in which an object or the like is operated by a controller directed to a display device, a player can more easily perform an operation for selecting an object to be displayed.

以下に本発明の実施形態を説明する。以下では、理解を容易にするため、ゲーム装置に本発明が適用される実施形態を説明するが、各種のコンピュータ、PDA、携帯電話などの情報処理装置においても同様に本発明を適用することができる。すなわち、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is applied to a game device will be described. However, the present invention can be similarly applied to information processing devices such as various computers, PDAs, and mobile phones. it can. That is, the embodiment described below is for explanation, and does not limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

(実施形態1)
図1は、本発明の実施の形態に係るゲーム装置が実現される典型的な情報処理装置の概要構成を示す模式図である。以下、本図を参照して説明する。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing device in which a game device according to an embodiment of the present invention is realized. Hereinafter, a description will be given with reference to FIG.

情報処理装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、インターフェース104と、コントローラユニット105と、外部メモリ106と、DVD(Digital Versatile Disk)−ROMドライブ107と、画像処理部108と、音声処理部109と、NIC(Network Interface Card)110と、を備える。   The information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an interface 104, a controller unit 105, an external memory 106, and a DVD (Digital Versatile Disk) -ROM drive 107, image processing unit 108, audio processing unit 109, and NIC (Network Interface Card) 110.

なお、ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ107に装着して、情報処理装置100の電源を投入することにより、当該プログラムが実行され、本実施形態のゲーム装置が実現される。   Note that a DVD-ROM storing a game program and data is loaded into the DVD-ROM drive 107, and the information processing apparatus 100 is turned on to execute the program. Realized.

CPU 101は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。   The CPU 101 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録され、これが実行されることにより、DVD−ROMに記録されたプログラムをRAM 103に読み出してCPU 101による実行が開始される。また、ROM 102には、情報処理装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録される。   The ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on, and when this is executed, the program recorded on the DVD-ROM is read out to the RAM 103 and execution by the CPU 101 is started. The The ROM 102 stores an operating system program and various data necessary for operation control of the entire information processing apparatus 100.

RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD−ROMから読み出したプログラムやデータ、その他ゲームの進行やチャット通信に必要なデータが保持される。   The RAM 103 is for temporarily storing data and programs, and holds programs and data read from the DVD-ROM and other data necessary for game progress and chat communication.

インターフェース104を介して接続された、コントローラユニット105は、ユーザがゲーム実行の際に行う操作入力を受け付ける。より詳細には、後述するコントローラ210がプレイヤにより操作され、その操作情報等を無線通信により受け付ける。なお、コントローラユニット105の詳細については後述する。   The controller unit 105 connected via the interface 104 receives an operation input performed when the user executes the game. More specifically, the controller 210 described later is operated by the player, and the operation information and the like are received by wireless communication. Details of the controller unit 105 will be described later.

インターフェース104を介して着脱自在に接続された外部メモリ106には、ゲームの進行状態を示すデータ、チャット通信のログ(記録)のデータなどが書き換え可能に記憶される。ユーザは、コントローラユニット105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記録することができる。   The external memory 106 detachably connected via the interface 104 stores data indicating the progress of the game, chat communication log (record) data, and the like in a rewritable manner. The user can record these data in the external memory 106 as appropriate by inputting an instruction via the controller unit 105.

DVD−ROMドライブ107に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記録される。CPU 101の制御によって、DVD−ROMドライブ107は、これに装着されたDVD−ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。   A DVD-ROM mounted on the DVD-ROM drive 107 stores a program for realizing the game and image data and sound data associated with the game. Under the control of the CPU 101, the DVD-ROM drive 107 performs a reading process on the DVD-ROM loaded therein, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.

画像処理部108は、DVD−ROMから読み出されたデータをCPU 101や画像処理部108が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部108が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号(映像信号)に変換され画像処理部108に接続されるモニタ(後述するディスプレイ290)へ出力される。これにより、各種の画像表示が可能となる。   The image processing unit 108 processes the data read from the DVD-ROM by the CPU 101 or an image arithmetic processor (not shown) included in the image processing unit 108, and then processes the processed data on a frame memory ( (Not shown). Image information recorded in the frame memory is converted into a video signal (video signal) at a predetermined synchronization timing, and is output to a monitor (display 290 described later) connected to the image processing unit 108. Thereby, various image displays are possible.

なお、画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。
また、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを俯瞰したレンダリング画像を得る演算の高速実行も可能である。
The image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed.
In addition, the polygon information arranged in the virtual three-dimensional space and added with various kinds of texture information is rendered by the Z buffer method, and a rendered image is obtained by overlooking the polygon arranged in the virtual three-dimensional space from a predetermined viewpoint position. High speed execution of the obtained operation is also possible.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。フォント情報は、ROM 102に記録されているが、DVD−ROMに記録された専用のフォント情報を利用することも可能である。   Further, the CPU 101 and the image arithmetic processor operate in a coordinated manner, so that a character string can be drawn as a two-dimensional image in a frame memory or drawn on the surface of each polygon according to font information that defines the character shape. is there. The font information is recorded in the ROM 102, but it is also possible to use dedicated font information recorded in the DVD-ROM.

音声処理部109は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、外部のスピーカ(後述するディスプレイ290のスピーカ)に供給して音声を出力させる。例えば、音声処理部109は、CPU 101による制御の下、ゲームの進行中に発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。   The audio processing unit 109 converts audio data read from the DVD-ROM into an analog audio signal, and supplies the analog audio signal to an external speaker (a speaker of a display 290 described later) to output the audio. For example, the sound processing unit 109 generates sound effects and music data to be generated during the game under the control of the CPU 101, and outputs sound corresponding to the sound effects from the speaker.

NIC 110は、情報処理装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格に従うものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)により構成される。   The NIC 110 is used to connect the information processing apparatus 100 to a computer communication network (not shown) such as the Internet, and is based on the 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network). Or modems that connect to the Internet using telephone lines, ISDN (Integrated Services Digital Network) modems, ADSL (Asymmetric Digital Subscriber Line) modems, and cables that connect to the Internet using cable television lines A modem or the like, and an interface (not shown) that mediates between them and the CPU 101 are configured.

このほか、情報処理装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD−ROMドライブ107に装着されるDVD−ROM等と同じ機能を果たすように構成してもよい。
また、ユーザからの文字列の編集入力を受け付けるためのキーボードや、各種の位置の指定および選択入力を受け付けるためのマウスなどを接続する形態も採用することができる。
In addition, the information processing apparatus 100 uses a large-capacity external storage device such as a hard disk so as to perform the same function as the ROM 102, the RAM 103, the external memory 106, the DVD-ROM attached to the DVD-ROM drive 107, and the like. You may comprise.
Further, it is possible to adopt a form in which a keyboard for accepting a character string editing input from a user, a mouse for accepting various position designations and selection inputs, and the like are connected.

また、本実施形態の情報処理装置100にかえて、一般的なコンピュータ(汎用のパーソナルコンピュータ等)をゲーム装置として利用することもできる。たとえば、一般的なコンピュータは、上記情報処理装置100と同様に、CPU、RAM、ROM、DVD−ROMドライブ、および、NICを備え、情報処理装置100よりも簡易な機能となる画像処理部を備え、外部記憶装置としてハードディスクを有する他、フレキシブルディスク、光磁気ディスク、磁気テープ等が利用できるようになっている。また、コントローラではなく、キーボードやマウスなどを入力装置として利用する。そして、ゲームプログラムをインストールした後に、そのプログラムを実行させると、ゲーム装置として機能する。   Further, instead of the information processing apparatus 100 of the present embodiment, a general computer (general-purpose personal computer or the like) can be used as a game apparatus. For example, a general computer, like the information processing apparatus 100, includes a CPU, RAM, ROM, DVD-ROM drive, and NIC, and an image processing unit that has a simpler function than the information processing apparatus 100. In addition to having a hard disk as an external storage device, a flexible disk, a magneto-optical disk, a magnetic tape, and the like can be used. In addition, a keyboard, a mouse or the like is used as an input device instead of a controller. Then, after the game program is installed, when the program is executed, it functions as a game device.

(コントローラユニットの概要)
図2は、上述したコントローラユニット105の概要を説明するための外観図である。
コントローラユニット105は、図示するようなコントローラ210とセンサバー220とを含んで構成される。情報処理装置100は、所定のケーブルを介してセンサバー220及びディスプレイ290とそれぞれ接続されている。
(Overview of controller unit)
FIG. 2 is an external view for explaining an outline of the controller unit 105 described above.
The controller unit 105 includes a controller 210 and a sensor bar 220 as shown. The information processing apparatus 100 is connected to the sensor bar 220 and the display 290 via predetermined cables.

コントローラ210は、例えば、テレビ等のリモコンと類似した外観を有し、情報処理装置100とワイヤレスで(無線通信によって)接続され、プレイヤが片手で持ってそのまま操作可能なコントローラである。
また、センサバー220は、所定の長さの棒状に形成され、ディスプレイ290の上部に、画面の向きに沿って適宜固定される。このセンサバー220には、両端に1つずつ発光素子221が埋設されている。なお、埋設される発光素子221の数は一例であり、これらの数より多くてもよい。
センサバー220は、情報処理装置100から電源供給を受けて発光素子221を適宜発光させる。
The controller 210 has an appearance similar to, for example, a remote controller such as a television, is connected to the information processing apparatus 100 wirelessly (by wireless communication), and can be operated as it is by a player with one hand.
The sensor bar 220 is formed in a bar shape having a predetermined length, and is appropriately fixed on the top of the display 290 along the direction of the screen. In the sensor bar 220, one light emitting element 221 is embedded at each end. Note that the number of light emitting elements 221 to be embedded is an example, and may be larger than these numbers.
The sensor bar 220 receives power from the information processing apparatus 100 and causes the light emitting element 221 to appropriately emit light.

コントローラ210は、先端にCCDカメラ211が配置され、先端がディスプレイ290に向けられると、このCCDカメラ211がセンサバー220の2つの発光素子221(2つの発光点)を含む画像を撮影する。また、コントローラ210は、内部に無線通信部を備えており、撮影した画像の情報を、無線通信にて情報処理装置100に順次送信する。
そして、情報処理装置100は、コントローラ210から送られた画像中における2つの発光点の位置関係等に基づいて、コントローラ210の位置及び向き等を適宜取得する。例えば、CPU 101及び画像処理部108等は、コントローラ210から見える2つの発光点の位置関係等を解析して、コントローラ210の空間位置及び、その先端の向き(長手軸線の方向)を算定し、最終的に、プレイヤがコントローラ210を画面上のどこに向けて操作しているか等を取得する。
なお、このようなコントローラ210の位置等の計測は、例えば、垂直同期割り込み(1/60秒)毎に行われる。
When the CCD camera 211 is arranged at the tip and the tip is directed to the display 290, the controller 210 captures an image including the two light emitting elements 221 (two light emitting points) of the sensor bar 220. In addition, the controller 210 includes a wireless communication unit therein, and sequentially transmits information of captured images to the information processing apparatus 100 by wireless communication.
Then, the information processing apparatus 100 appropriately acquires the position and orientation of the controller 210 based on the positional relationship between the two light emitting points in the image sent from the controller 210. For example, the CPU 101, the image processing unit 108, and the like analyze the positional relationship between two light emitting points visible from the controller 210, calculate the spatial position of the controller 210 and the direction of the tip (the direction of the longitudinal axis), Finally, it is obtained where the player is operating the controller 210 on the screen.
Note that such measurement of the position of the controller 210 is performed, for example, every vertical synchronization interrupt (1/60 seconds).

また、コントローラ210は、内部に、3軸の加速度センサを備えており、コントローラ210の3軸方向の動きを測定することが可能となっている。なお、このような加速度センサの代わりに、角加速度センサや傾きセンサ等により、コントローラ210の動きを測定してもよい。
コントローラ210は、このような測定結果(例えば、3軸それぞれの加速度情報)を情報処理装置100に順次送信する。
そして、情報処理装置100は、コントローラ210から送られる測定結果に基づいて、コントローラ210の動きを検出する。例えば、プレイヤがコントローラ210を振る、ひねる、突くといった動作やその移動方向を取得する。
なお、このようなコントローラ210の動きの検出も、例えば、垂直同期割り込み毎に行われる。
The controller 210 includes a triaxial acceleration sensor inside, and can measure the movement of the controller 210 in the triaxial direction. Note that the motion of the controller 210 may be measured by an angular acceleration sensor, an inclination sensor, or the like instead of such an acceleration sensor.
The controller 210 sequentially transmits such measurement results (for example, acceleration information for each of the three axes) to the information processing apparatus 100.
The information processing apparatus 100 detects the movement of the controller 210 based on the measurement result sent from the controller 210. For example, a motion such as the player swinging, twisting, or striking the controller 210 and its moving direction are acquired.
Note that such movement of the controller 210 is also detected, for example, every vertical synchronization interrupt.

コントローラ210の上面には、十字形キー212が配置されており、プレイヤが手に持って操作する際に、各種の方向指示入力等を行うことができる。また、Aボタン213や、各種ボタン215も上面に配置されており、当該ボタンに対応付けられた指示入力を行うことができる。   A cross-shaped key 212 is arranged on the upper surface of the controller 210, and various direction instruction inputs and the like can be performed when the player operates with a hand. An A button 213 and various buttons 215 are also arranged on the upper surface, and an instruction input associated with the button can be performed.

一方、Bボタン214は、コントローラ210の下面に配置され、その下面に窪みが構成されていることもあり、プレイヤが手に持って操作する際に、トリガを引くように押下することができるようになっている。   On the other hand, the B button 214 is disposed on the lower surface of the controller 210, and a depression may be formed on the lower surface thereof, so that the player can press the B button 214 to pull the trigger when the player holds it in hand. It has become.

コントローラ210の上面のインジケータ216は、コントローラ210が複数使用された場合でもプレイヤが識別できるように、適宜点灯する。
コントローラ210の上面に用意された電源ボタン217は、例えば、情報処理装置100のオン・オフを指示する。
The indicator 216 on the upper surface of the controller 210 is appropriately lit so that the player can identify even when a plurality of controllers 210 are used.
A power button 217 prepared on the top surface of the controller 210 instructs, for example, on / off of the information processing apparatus 100.

更に、コントローラ210の内部には、バイブレータ等の振動機構が配置され、情報処理装置100から送られる指示に応答して、振動を発生させることもできるようになっている。
以下では、このようなコントローラ210とセンサバー220との組合せによって、コントローラ210の位置等を測定することを前提に説明する。なお、コントローラ210の位置の測定は、センサバー220の発光点(発光素子221)をCCDカメラ211が撮影する手法に限られず、他の手法でも適宜適用可能である。例えば、センサバー220を介した2地点間の無線通信の時差等から、コントローラ210の位置等を求めてもよく、また、超音波や赤外線等を使用して、三角測量の原理にてコントローラ210の位置等を求めてもよい。
Further, a vibration mechanism such as a vibrator is disposed inside the controller 210 so that vibration can be generated in response to an instruction sent from the information processing apparatus 100.
The following description is based on the assumption that the position of the controller 210 is measured by such a combination of the controller 210 and the sensor bar 220. The measurement of the position of the controller 210 is not limited to the method in which the CCD camera 211 captures the light emission point (the light emitting element 221) of the sensor bar 220, and other methods can be appropriately applied. For example, the position of the controller 210 may be obtained from the time difference of wireless communication between two points via the sensor bar 220, or the position of the controller 210 may be determined based on the principle of triangulation using ultrasonic waves or infrared rays. You may obtain | require a position etc.

(ゲーム装置の概要構成)
図3は、本実施形態に係るゲーム装置の概要構成を示す模式図である。このゲーム装置は、一例として、麻雀ゲームにおいて、ディスプレイ290に向けたコントローラ210によって、ゲーム画面上の手牌(配列画像)の中から任意の牌を指定して捨てる(打牌する)捨て牌操作等を行う装置である。以下、本図を参照して説明する。
(Outline configuration of game device)
FIG. 3 is a schematic diagram showing a schematic configuration of the game device according to the present embodiment. As an example, in this game device, in a mahjong game, a controller 210 directed to the display 290 designates and discards (throws) an arbitrary spear from a hand spear (array image) on the game screen. It is a device that performs. Hereinafter, a description will be given with reference to FIG.

ゲーム装置300は、位置情報取得部310と、操作情報取得部320と、移動情報取得部330と、画像情報記憶部340と、配置情報管理部350と、表示制御部360と、処理制御部370とを備える。   The game apparatus 300 includes a position information acquisition unit 310, an operation information acquisition unit 320, a movement information acquisition unit 330, an image information storage unit 340, an arrangement information management unit 350, a display control unit 360, and a processing control unit 370. With.

まず、位置情報取得部310は、プレイヤによって把持されるコントローラ210の位置及び向き(先端の方向)からなる位置情報を順次取得する。
例えば、位置情報取得部310は、ディスプレイ290に対するコントローラ210の空間位置及び、その先端(CCDカメラ211)の向き(長軸線の方向)を求める。より詳細には、コントローラ210の3軸方向(X軸,Y軸,Z軸の各方向)の位置と、コントローラ210の長軸線の方向を順次求める。
位置情報取得部310は、例えば、垂直同期割り込み(1/60秒)毎に、このような3軸方向の各位置と長軸線の方向からなる位置情報を生成し、処理制御部370に順次供給する。
そして、コントローラユニット105が、このような位置情報取得部310として機能しうる。
First, the position information acquisition unit 310 sequentially acquires position information composed of the position and orientation (tip direction) of the controller 210 held by the player.
For example, the position information acquisition unit 310 obtains the spatial position of the controller 210 with respect to the display 290 and the direction (long axis direction) of the tip (CCD camera 211). More specifically, the position of the controller 210 in the three-axis directions (X-axis, Y-axis, and Z-axis directions) and the direction of the long axis of the controller 210 are sequentially obtained.
The position information acquisition unit 310 generates, for example, such position information including each position in the three axis directions and the direction of the long axis for each vertical synchronization interrupt (1/60 seconds), and sequentially supplies the position information to the processing control unit 370. To do.
The controller unit 105 can function as such a position information acquisition unit 310.

操作情報取得部320は、コントローラ210から無線通信により送られるボタン操作情報を取得し、プレイヤによるコントローラ210のボタン操作の内容を順次取得する。つまり、プレイヤがコントローラ210のどのボタンを押下したか等をリアルタイムに取得する。
なお、インターフェース104等が、このような操作情報取得部320として機能しうる。
The operation information acquisition unit 320 acquires button operation information sent from the controller 210 by wireless communication, and sequentially acquires the contents of button operations of the controller 210 by the player. That is, it is obtained in real time which button of the controller 210 the player has pressed.
The interface 104 or the like can function as such an operation information acquisition unit 320.

移動情報取得部330は、コントローラ210における3軸方向の動き(加速度等)を示す移動情報を順次取得する。
例えば、移動情報取得部330は、プレイヤによりコントローラ210が振られた場合に、コントローラ210の移動方向(一例として、先端の移動方向)を取得する。この他にも移動情報取得部330は、プレイヤによりコントローラ210がひねられた場合や突かれたり引かれたりした場合等にも、コントローラ210の移動方向を取得する。
そして、コントローラユニット105が、このような移動情報取得部330として機能しうる。
The movement information acquisition unit 330 sequentially acquires movement information indicating movement (acceleration and the like) in the three-axis directions in the controller 210.
For example, the movement information acquisition unit 330 acquires the movement direction of the controller 210 (for example, the movement direction of the tip) when the controller 210 is shaken by the player. In addition, the movement information acquisition unit 330 also acquires the movement direction of the controller 210 when the controller 210 is twisted, struck, or pulled by the player.
The controller unit 105 can function as such a movement information acquisition unit 330.

画像情報記憶部340は、麻雀牌の各オブジェクト(牌オブジェクト)を含む画像情報を記憶する。
例えば、画像情報記憶部340は、萬子(一萬〜九萬)、筒子(一筒〜九筒)、索子(一索〜九索)、字牌(風牌と三元牌)といった各牌オブジェクトの画像情報を記憶する。また、この他にも、画像情報記憶部340は、点棒やサイコロ等のような、麻雀ゲームを実行する際に必要となる各種オブジェクトの画像情報も記憶している。
なお、DVD−ROMドライブ107に装着されるDVD−ROM及び、RAM 103が、このような画像情報記憶部340として機能しうる。
The image information storage unit 340 stores image information including each mahjong tile object (cocoon object).
For example, the image information storage unit 340 includes a lion (one to nine), a tie (one to nine), a cord (one to nine), and a character (wind and three-way).画像 Stores image information of the object. In addition to this, the image information storage unit 340 also stores image information of various objects necessary for executing a mahjong game, such as a stick or a dice.
Note that the DVD-ROM and the RAM 103 attached to the DVD-ROM drive 107 can function as such an image information storage unit 340.

配置情報管理部350は、手牌の配列(組み合わせや並び)を含む牌オブジェクトの配置情報を管理する。
例えば、配置情報管理部350は、ゲーム中におけるプレイヤの手牌の配置情報を管理する。つまり、配牌、自摸、捨て牌(打牌)、副露(ポン、チー、カン)といったゲーム中に変化する手牌の配列を管理する。また、この他にも、配置情報管理部350は、各プレイヤの河に捨てられた牌の配置情報等も管理する。
なお、CPU 101及びRAM 103がこのような配置情報管理部350として機能しうる。
The placement information management unit 350 manages the placement information of the eyelid object including the arrangement (combination and arrangement) of the hands.
For example, the arrangement information management unit 350 manages arrangement information of the player's hand during the game. In other words, it manages the arrangement of the characters that change during the game, such as catering, self-restraint, throwing away (striking), deputy dew (pon, chi, kang). In addition to this, the arrangement information management unit 350 also manages arrangement information and the like of the kites discarded in the river of each player.
Note that the CPU 101 and the RAM 103 can function as such an arrangement information management unit 350.

表示制御部360は、画像情報記憶部340に記憶された画像情報及び、配置情報管理部350に管理された配置情報等に基づいて、ゲーム画像を生成する。
具体的に表示制御部360は、図4に示すような表示画像(ゲーム画面)を生成する。この表示画像には、手牌を示す各牌オブジェクトの配列画像HGが含まれている。つまり、配列画像HGは、プレイヤが現在保有している牌オブジェクトの配列を示しており、各牌オブジェクトが横方向に一列に隣接して(それぞれ隣り合って)配置されている。
プレイヤは、このような手牌(配列画像HG)の中から、コントローラ210によって任意の牌を指定(決定)して、捨て牌(打牌)する捨て牌操作を行うことになる。そのために、表示制御部360は、後述するように、コントローラ210により指し示されるゲーム画面上の照準領域を示す照準マークや、照準領域に応じて選ばれる候補オブジェクトの拡大画像等を生成する。
なお、画像処理部108が、このような表示制御部360として機能しうる。
The display control unit 360 generates a game image based on the image information stored in the image information storage unit 340, the arrangement information managed by the arrangement information management unit 350, and the like.
Specifically, the display control unit 360 generates a display image (game screen) as shown in FIG. This display image includes an array image HG of each heel object indicating a hand heel. That is, the array image HG shows an array of the heel objects currently held by the player, and the heel objects are arranged adjacent to each other in the horizontal direction (adjacent to each other).
The player designates (determines) an arbitrary kite from such a kite (array image HG) by the controller 210, and performs a discarding operation for discarding (striking). For this purpose, as will be described later, the display control unit 360 generates an aiming mark indicating the aiming area on the game screen indicated by the controller 210, an enlarged image of the candidate object selected according to the aiming area, and the like.
Note that the image processing unit 108 can function as such a display control unit 360.

図3に戻って、処理制御部370は、ゲーム装置300全体を制御する。例えば、処理制御部370は、照準領域算定部371、候補オブジェクト選定部372、オブジェクト決定部373、及び、ゲーム進行部374を含んで構成される。   Returning to FIG. 3, the process control unit 370 controls the entire game apparatus 300. For example, the processing control unit 370 includes an aiming area calculation unit 371, a candidate object selection unit 372, an object determination unit 373, and a game progression unit 374.

照準領域算定部371は、位置情報取得部310にて取得された位置情報に基づいて、コントローラ210から指し示されるディスプレイ290(ゲーム画面)上の照準領域を順次算定する。
具体的に照準領域算定部371は、まず、取得した位置情報からコントローラ210の実空間位置(X軸,Y軸,Z軸方向の各位置)及び、その先端(発光素子211)の向き(長軸線の方向)を求める。そして、図5(a)に示すように、求めたコントローラ210の位置及び長軸線Lの方向に基づいて、画面Scr(ディスプレイ290)上の照準位置Spを求める。
次に、照準領域算定部371は、求めた照準位置Spを中心にして、所定の半径の円により囲まれる照準領域SAを算定する。一例として、図5(b)に示すように、手牌(配列画像)における3つ分の牌オブジェクトObjを囲むことができる程度の大きさとなる照準領域SAを算定する。
なお、照準領域SAの形状は一例であり、このような円形に限られず、矩形等のような他の形状であってもよい。また、照準領域SAの大きさ(範囲)も一例であり、適宜変更可能である。
The aiming area calculating unit 371 sequentially calculates the aiming area on the display 290 (game screen) indicated by the controller 210 based on the position information acquired by the position information acquiring unit 310.
Specifically, the aiming area calculation unit 371 first determines the real space position (positions in the X-axis, Y-axis, and Z-axis directions) of the controller 210 and the direction (long) of the tip (light-emitting element 211) from the acquired position information. (Axis direction). Then, as shown in FIG. 5A, the aiming position Sp on the screen Scr (display 290) is obtained based on the obtained position of the controller 210 and the direction of the long axis L.
Next, the aiming area calculation unit 371 calculates an aiming area SA surrounded by a circle with a predetermined radius around the obtained aiming position Sp. As an example, as shown in FIG. 5B, an aiming area SA that is large enough to enclose three eyelid objects Obj in a hand tile (array image) is calculated.
The shape of the aiming area SA is an example, and is not limited to such a circle, but may be another shape such as a rectangle. The size (range) of the aiming area SA is also an example, and can be changed as appropriate.

照準領域算定部371は、算定したこのような照準領域の情報を、候補オブジェクト選定部372に供給する。また、このような照準領域をプレイヤが見ることができるように(照準マーク等を表示させるために)、照準領域算定部371は、この照準領域の情報を表示制御部360にも供給する。   The aiming area calculation unit 371 supplies the calculated aiming area information to the candidate object selection unit 372. In addition, the aiming area calculation unit 371 also supplies information about the aiming area to the display control unit 360 so that the player can see the aiming area (to display the aiming mark and the like).

図3に戻って、候補オブジェクト選定部372は、照準領域算定部371が算定した照準領域の情報と、配置情報管理部350にて管理される各オブジェクトの配置情報との位置関係、及び、操作情報取得部320が取得したボタン操作情報に基づいて、複数の牌オブジェクトを候補オブジェクトとして選定する。
例えば、候補オブジェクト選定部372は、ボタン操作情報によって、コントローラ210のBボタン214がプレイヤにより押下されたことを検出した際に、照準領域に含まれる牌オブジェクトがあれば、その牌オブジェクトを候補オブジェクトとして選定する。なお、照準領域に含まれるか否かは、一例として、牌オブジェクトの中心(又は、重心)が、照準領域内に属しているかどうかにより判断される。
Returning to FIG. 3, the candidate object selection unit 372 includes the positional relationship between the information on the aiming area calculated by the aiming area calculation unit 371 and the arrangement information of each object managed by the arrangement information management unit 350, and the operation Based on the button operation information acquired by the information acquisition unit 320, a plurality of eyelid objects are selected as candidate objects.
For example, if the candidate object selection unit 372 detects from the button operation information that the B button 214 of the controller 210 is pressed by the player, if there is a wing object included in the aiming area, the candidate object selection unit 372 selects the wing object as the candidate object. Select as Note that whether or not it is included in the aiming area is determined by, for example, whether or not the center (or center of gravity) of the eyelid object belongs to the aiming area.

具体的には、図6(a)に示すように、手牌(配列画像HG)上に、照準領域SAが重なっている状況で、コントローラ210のBボタン214が押下されると、候補オブジェクト選定部372は、照準領域SAに含まれる「南」「西」「発」の3つの牌オブジェクトObjを候補オブジェクトとして選定する。
また、図6(b)に示すような状況で、コントローラ210のBボタン214が押下されると、候補オブジェクト選定部372は、照準領域SAに完全に含まれる「南」「西」と、中心が照準領域SAに含まれる「三索」との合計3つの牌オブジェクトObjを候補オブジェクトとして選定する。なお、「発」は、その中心が照準領域SAから外れているものとする。
More specifically, as shown in FIG. 6A, when the B button 214 of the controller 210 is pressed in a situation where the aiming area SA is overlapped on the hand (array image HG), candidate object selection is performed. The unit 372 selects three saddle objects Obj “South”, “West”, and “Departure” included in the aiming area SA as candidate objects.
In the situation shown in FIG. 6B, when the B button 214 of the controller 210 is pressed, the candidate object selection unit 372 displays “South” and “West” completely included in the aiming area SA and the center. A total of three eyelid objects Obj including “Sanko” included in the aiming area SA are selected as candidate objects. It is assumed that the center of “departure” is out of the aiming area SA.

また、図6(c)に示すような状況で、コントローラ210のBボタン214が押下されると、候補オブジェクト選定部372は、照準領域SAに含まれる「一筒」「七筒」「七筒」の3つの牌オブジェクトObjを候補オブジェクトとして選定する。
なお、この場合、「七筒」「七筒」が重複しているため、「一筒」「七筒」の2つを候補オブジェクトとして、後述する拡大画像を生成してもよい。また、候補オブジェクト選定部372が、重複を判別するようにして、「一筒」「七筒」の2つの牌オブジェクトObjだけを候補オブジェクトとして選定するようにしてもよい。
更に、図6(d)に示すような状況で、コントローラ210のBボタン214が押下されると、候補オブジェクト選定部372は、照準領域SAに含まれる「二萬」「八萬」の2つの牌オブジェクトObjを候補オブジェクトとして選定する。
In the situation shown in FIG. 6C, when the B button 214 of the controller 210 is pressed, the candidate object selection unit 372 displays “one cylinder”, “seven cylinders”, “seven cylinders” included in the aiming area SA. Are selected as candidate objects.
In this case, since “seven cylinders” and “seven cylinders” are overlapped, an enlarged image described later may be generated using two of “one cylinder” and “seven cylinders” as candidate objects. In addition, the candidate object selection unit 372 may determine only the overlap so that only the two saddle objects Obj of “one cylinder” and “seven cylinders” are selected as candidate objects.
Further, in the situation shown in FIG. 6D, when the B button 214 of the controller 210 is pressed, the candidate object selection unit 372 causes the two objects “five” and “hachiman” included in the aiming area SA.牌 Object Obj is selected as a candidate object.

なお、候補オブジェクトの選定手法は、このような牌オブジェクトの中心が、照準領域内に属しているかどうかに限られず、適宜変更可能である。例えば、照準領域に完全に含まれる牌オブジェクトだけを選定してもよく、逆に、照準領域に一部でも含まれていればそれらを全て選定してもよい。つまり、上記の図6(b)の場合を一例とすると、照準領域SAに完全に含まれる「南」「西」の2つの牌オブジェクトObjだけを選定してもよく、逆に、この「南」「西」と、照準領域SAに一部が含まれる「三索」「発」との合計4つの牌オブジェクトObjを選定してもよい。   The method for selecting candidate objects is not limited to whether or not the center of the eyelid object belongs to the aiming area, and can be changed as appropriate. For example, only the eyelid objects that are completely included in the aiming area may be selected, and conversely, if they are partially included in the aiming area, all of them may be selected. That is, taking the case of FIG. 6B as an example, only the two south objects “West” and “West” that are completely included in the aiming area SA may be selected. A total of four saddle objects Obj including “San” and “Departure” partially included in the aiming area SA may be selected.

候補オブジェクト選定部372は、このようにして選定した候補オブジェクトの情報を、オブジェクト決定部373に供給する。また、このように選定された候補オブジェクトをプレイヤが知る(見る)ことができるように(拡大画像等を表示させるために)、候補オブジェクト選定部372は、この候補オブジェクトの情報を表示制御部360にも供給する。   The candidate object selection unit 372 supplies information on the candidate object selected in this way to the object determination unit 373. In addition, the candidate object selection unit 372 displays information about the candidate object so that the player can know (view) the candidate object selected in this way (to display an enlarged image or the like). Also supply.

図3に戻って、オブジェクト決定部373は、選定された候補オブジェクトの中から、移動情報取得部330にて取得された移動情報(3軸方向の加速度等)に基づいて、1つの牌オブジェクトを決定する。
例えば、オブジェクト決定部373は、候補オブジェクトが選定された状態で、プレイヤによりコントローラ210が振られた場合に、その振られた方向(一例として、先端の移動方向)に応じて定まる牌オブジェクトを、候補オブジェクトの中から決定する。
一例として、3つの牌オブジェクト(プレイヤから見て左端、真ん中、右端の牌オブジェクト)が候補オブジェクトとして選定されている場合、コントローラ210がプレイヤから見て左方向に振られると、左端の牌オブジェクトが決定され、また、上方向に振られると、真ん中の牌オブジェクトが決定され、そして、右方向に振られると、右端の牌オブジェクトが決定される。
Returning to FIG. 3, the object determination unit 373 selects one saddle object from the selected candidate objects based on the movement information (such as acceleration in three axis directions) acquired by the movement information acquisition unit 330. decide.
For example, when the controller 210 is swung by the player with the candidate object selected, the object determining unit 373 selects a wrinkle object that is determined according to the swung direction (for example, the moving direction of the tip). Determine from candidate objects.
As an example, if three saddle objects (left edge, middle, and right edge saddle object when viewed from the player) are selected as candidate objects, when the controller 210 is swung leftward when viewed from the player, the left edge saddle object is If it is determined and shaken upward, the middle eyelid object is determined, and if it is shaken rightward, the rightmost eyelid object is determined.

具体的には、図7(a)に示すように、左端の牌オブジェクトObjL(南)、真ん中の牌オブジェクトObjC(西)、及び、右端の牌オブジェクトObjR(発)からなる3つの牌オブジェクトが候補オブジェクトとして選定されている状態で、プレイヤによりコントローラ210が上に振られたとする。この場合、オブジェクト決定部373は、上方向に対応する牌オブジェクトObjC(西)を決定する。
また、同じ候補オブジェクトで、図7(b)に示すように、コントローラ210が左に振られた場合、オブジェクト決定部373は、左方向に対応する牌オブジェクトObjL(南)を決定する。
更に、同じ候補オブジェクトで、図7(c)に示すように、コントローラ210が右に振られた場合、オブジェクト決定部373は、右方向に対応する牌オブジェクトObjR(発)を決定する。
Specifically, as shown in FIG. 7 (a), there are three hail objects consisting of a left hail object ObjL (south), a middle hail object ObjC (west), and a right end hail object ObjR (from). It is assumed that the controller 210 is swung up by the player while being selected as a candidate object. In this case, the object determination unit 373 determines the eyelid object ObjC (west) corresponding to the upward direction.
If the controller 210 is swung to the left with the same candidate object as shown in FIG. 7B, the object determination unit 373 determines the eyelid object ObjL (south) corresponding to the left direction.
Further, when the controller 210 is swung to the right with the same candidate object as shown in FIG. 7C, the object determination unit 373 determines the eyelid object ObjR (departure) corresponding to the right direction.

なお、コントローラ210が振られた方向(移動方向)は、ある程度の許容範囲が設けられており、厳密に、水平方向(左/右方向)や垂直方向(上方向)に振られていなくとも、左/右方向や上方向であることを判別(検出)できるようになっている。
また、図7(a)〜(c)では、3つの牌オブジェクトが候補オブジェクトとして選定されている場合を説明したが、他の数の牌オブジェクトが候補オブジェクトとして選定されている場合にも適宜適用可能である。
例えば、2つの牌オブジェクト(プレイヤから見て左端、右端の牌オブジェクト)が候補オブジェクトとして選定されている場合、コントローラ210がプレイヤから見て左方向に振られると、オブジェクト決定部373は、左端の牌オブジェクトを決定し、また、右方向に振られると、右端の牌オブジェクトを決定するようにしてもよい。
The direction in which the controller 210 is swung (moving direction) has a certain allowable range, and strictly speaking, even if it is not swung horizontally (left / right) or vertically (upward), It is possible to determine (detect) the left / right direction or the upward direction.
Further, in FIGS. 7A to 7C, the case where three cocoon objects are selected as candidate objects has been described, but the present invention is appropriately applied to cases where other numbers of cocoon objects are selected as candidate objects. Is possible.
For example, in the case where two heel objects (left edge and right edge heel objects when viewed from the player) are selected as candidate objects, when the controller 210 is swung leftward when viewed from the player, the object determination unit 373 A heel object may be determined, and when it is shaken in the right direction, the heel object at the right end may be determined.

オブジェクト決定部373は、このようにして決定した牌オブジェクトの情報を、ゲーム進行部374、及び、配置情報管理部350に供給する。なお、配置情報管理部350に、決定した牌オブジェクトの情報(つまり、捨て牌の情報)が供給されると、配置情報が更新され、そして、更新された配置情報に基づいて、表示制御部360によりゲーム画面が更新される(つまり、手牌や河の画像が更新される)。   The object determination unit 373 supplies information on the bag object determined in this way to the game progress unit 374 and the arrangement information management unit 350. When the information on the determined eyelid object (that is, information on the discarded eyelids) is supplied to the arrangement information management unit 350, the arrangement information is updated, and the display control unit 360 is based on the updated arrangement information. To update the game screen (that is, the image of the handbook or river is updated).

ゲーム進行部374は、麻雀ゲームの進行を管理する。例えば、プレイヤの自摸、捨て牌、副露(ポン、チー、カン)といったゲームの進行に必要な情報の管理を行う。
例えば、自摸から捨て牌までに制限時間が設けられている状態で、この制限時間内に、プレイヤが捨て牌を決定できなかった場合(オブジェクト決定部373から決定した牌の情報が得られなかった場合)に、ゲーム進行部374は、所定の牌を捨て牌として決定する。
具体的には、候補オブジェクトが選定されている状態で、制限時間が経過した場合、ゲーム進行部374は、候補オブジェクト中の所定位置の牌(一例として、右端の牌)を捨て牌として決定する。また、候補オブジェクトが選定されていない状態で、制限時間が経過した場合、ゲーム進行部374は、手牌中の所定位置の牌(一例として、右端の牌)を捨て牌として決定する。
The game progress unit 374 manages the progress of the mahjong game. For example, management of information necessary for the progress of the game, such as the player's self-determination, abandonment, and secondary dew (pon, chi, kang) is performed.
For example, in a state where a time limit is set from self-determination to abandoned trap, if the player cannot determine the discarded trap within this limit time (information on the determined trap cannot be obtained from the object determination unit 373) In the case), the game progression unit 374 decides to discard the predetermined bag as a throwing bag.
Specifically, when the time limit has elapsed with the candidate object selected, the game progress unit 374 determines that the heel at the predetermined position in the candidate object (for example, the heel at the right end) is a discarded heel. . In addition, when the time limit has elapsed with no candidate object selected, the game progression unit 374 determines that the heel at the predetermined position (for example, the heel at the right end) in the hand is to be discarded.

処理制御部370は、このような照準領域算定部371、候補オブジェクト選定部372、オブジェクト決定部373、及び、ゲーム進行部374が適宜連携して、ゲーム装置300を制御している。
そして、CPU 101が、このような構成からなる処理制御部370として機能しうる。
The processing control unit 370 controls the game apparatus 300 by appropriately combining the aiming area calculation unit 371, the candidate object selection unit 372, the object determination unit 373, and the game progress unit 374.
Then, the CPU 101 can function as the processing control unit 370 having such a configuration.

(ゲーム装置の動作の概要)
図8は、上述した構成のゲーム装置300において、麻雀ゲームのプレイ中に実行される捨て牌処理の流れを示すフローチャートである。以下、この図を参照してゲーム装置300の動作について説明する。
この捨て牌処理は、全体としての麻雀ゲーム処理の中の一部であり、例えば、ゲーム中において、プレイヤの自摸後、副露(ポン、チー、カン)後等に、繰り返し実行される。
(Overview of game device operation)
FIG. 8 is a flowchart showing the flow of the throwing away process executed during the play of the mahjong game in the game apparatus 300 having the above-described configuration. Hereinafter, the operation of the game apparatus 300 will be described with reference to FIG.
This discarding process is a part of the mahjong game process as a whole, and is repeatedly executed during the game, for example, after the player's self-determination or after dew (pong, chi, kang).

まず、ゲーム装置300は、コントローラ210の位置情報を取得して、照準領域を算定する(ステップS401)。
つまり、照準領域算定部371は、位置情報取得部310から供給される位置情報に基づいて、コントローラ210によって指し示されるディスプレイ290(ゲーム画面)上の照準領域を算定する。
First, the game device 300 acquires the position information of the controller 210 and calculates the aiming area (step S401).
That is, the aiming area calculation unit 371 calculates the aiming area on the display 290 (game screen) pointed to by the controller 210 based on the position information supplied from the position information acquisition unit 310.

ゲーム装置300は、照準マークをゲーム画面に合成する(ステップS402)。
すなわち、表示制御部360は、照準領域算定部371から照準領域の情報を得ると、プレイヤが現在の照準領域を見ることができるように、例えば、図9(a)に示すような照準マークMKを生成する。つまり、この照準マークMKは、上述した図5(b)の照準領域SAの範囲を示すものであり、この照準領域SAをプレイヤが確認できるようにするためのものである。そして、表示制御部360は、生成したこのような照準マークMKを、図9(b)に示すように、ゲーム画面に合成する。
すなわち、図5(b)を参照して上述したように、照準領域SAが、手牌(配列画像)における3つ分の牌オブジェクトObjを囲むことができる程度の大きさであるため、図9(b)に示すように、照準マークMKによって示される範囲も、3つ分の牌オブジェクトを囲める程度の大きさとなっている。なお、照準領域SAと照準マークMKとは、完全一致に限られず、ある程度、大きさや形が違っていてもよい。
つまり、プレイヤは、このような牌3つ分程度の範囲を表す照準マークMKを、手牌における所望の牌に重なるように、コントローラ210の向き等を調整することになる。
なお、このような照準マークMKは、一例であり、形状等を適宜変更してもよい。
The game device 300 synthesizes the aim mark with the game screen (step S402).
That is, when the display control unit 360 obtains the aiming area information from the aiming area calculation unit 371, for example, the aiming mark MK as illustrated in FIG. 9A is displayed so that the player can see the current aiming area. Is generated. That is, the aiming mark MK indicates the range of the aiming area SA of FIG. 5B described above, and is for allowing the player to confirm the aiming area SA. Then, the display control unit 360 synthesizes the generated aiming mark MK on the game screen as shown in FIG. 9B.
That is, as described above with reference to FIG. 5B, the aiming area SA is large enough to enclose three eyelid objects Obj in the handlid (array image). As shown in (b), the range indicated by the aiming mark MK is also large enough to enclose three eyelid objects. The aiming area SA and the aiming mark MK are not limited to perfect coincidence, and may be different in size and shape to some extent.
That is, the player adjusts the orientation of the controller 210 so that the aiming mark MK representing the range of about three heels overlaps the desired heel on the hand heel.
Such an aiming mark MK is an example, and the shape and the like may be changed as appropriate.

図8に戻って、ゲーム装置300は、プレイヤによりコントローラ210のBボタン214が押下されたか否かを判別する(ステップS403)。
すなわち、処理制御部370は、操作情報取得部320から取得した操作情報に基づいて、コントローラ210のBボタン214が押下されたかどうかを判別する。
ゲーム装置300は、コントローラ210のBボタン214が押下されていないと判別すると(ステップS403;No)、上述したステップS401に処理を戻す。
Returning to FIG. 8, the game device 300 determines whether or not the B button 214 of the controller 210 has been pressed by the player (step S403).
That is, the process control unit 370 determines whether or not the B button 214 of the controller 210 is pressed based on the operation information acquired from the operation information acquisition unit 320.
If it is determined that the B button 214 of the controller 210 is not pressed (step S403; No), the game device 300 returns the process to step S401 described above.

一方、コントローラ210のBボタン214が押下されたと判別した場合に(ステップS403;Yes)、ゲーム装置300は、照準マークが手牌上であるか否かを判別する(ステップS404)。
すなわち、処理制御部370は、照準領域算定部371が算定した照準領域が、ゲーム画面中の手牌(配列画像)上に位置しているかどうか、つまり、捨て牌を指定するために、コントローラ210により手牌が狙われている状態であるかどうかを判別する。
ゲーム装置300は、照準マークが手牌上にないと判別すると(ステップS404;No)、上述したステップS401に処理を戻す。
On the other hand, when it is determined that the B button 214 of the controller 210 is pressed (step S403; Yes), the game device 300 determines whether or not the aiming mark is on the hand (step S404).
In other words, the processing control unit 370 determines whether the aiming area calculated by the aiming area calculating unit 371 is located on a manual (array image) in the game screen, that is, in order to specify the throwing away To determine whether or not the hand is aimed.
If it is determined that the aiming mark is not on the hand (step S404; No), the game device 300 returns the process to step S401 described above.

一方、照準マークが手牌上にあると判別した場合に(ステップS404;Yes)、ゲーム装置300は、候補オブジェクトを選定する(ステップS405)。
すなわち、候補オブジェクト選定部372は、手配(配列画像)と照準領域との位置関係に基づいて、候補オブジェクトを選定する。
つまり、プレイヤは、所望の牌に照準マークが重なっている状態で、コントローラ210のBボタン214を押下することになるため、候補オブジェクト選定部372は、上述の図6(a)〜(d)を参照して説明したように、照準領域SAに含まれる複数の牌オブジェクトObjを候補オブジェクトとして選定する。
On the other hand, when it is determined that the aiming mark is on the hand (step S404; Yes), the game device 300 selects a candidate object (step S405).
That is, the candidate object selection unit 372 selects a candidate object based on the positional relationship between the arrangement (array image) and the aiming area.
That is, since the player presses the B button 214 of the controller 210 in a state where the aim mark is over the desired eyelid, the candidate object selection unit 372 performs the above-described FIG. 6 (a) to (d). As described above, a plurality of eyelid objects Obj included in the aiming area SA are selected as candidate objects.

ゲーム装置300は、候補オブジェクトの拡大画像をゲーム画面に合成する(ステップS406)。
つまり、表示制御部360は、候補オブジェクト選定部372から候補オブジェクトの情報を得ると、どの牌オブジェクトが候補オブジェクトとして選定されたのかをプレイヤに知らせるために、例えば、図10(a)に示すような候補オブジェクトの拡大画像KGを生成し、候補オブジェクトに対応させてゲーム画像に合成する。一例として、図10(b)に示すように、拡大画像KGが候補オブジェクト上に重なるように合成する。なお、拡大画像KGの配置(合成位置)は、候補オブジェクトとの対応関係をプレイヤに知らせることを目的としているため、このように重ねるだけでなく、候補オブジェクトの近傍に配置したり、候補オブジェクトと引き出し線等にて結んで少し離れた位置に配置したり、専用の領域に配置するなど適宜変更可能である。
また、この拡大画像KGには、3方向の矢印マークYm(YmL,YmC,YmR)が付加されている。これらの矢印マークYmは、候補オブジェクトから1つの牌オブジェクトを決定するために、プレイヤがコントローラ210をどの方向に振ればよいかを示している。
なお、この拡大画像KGは、一例であり、矢印マークYmを付加するかどうかを含めて、適宜変更可能である。例えば、図10(c)に示すように、矢印マークを付加せずに候補オブジェクトの配置を変えた拡大画像KGを生成し、それぞれの配置により、プレイヤがコントローラ210をどの方向に振ればよいかを示すようにしてもよい。
The game device 300 synthesizes the enlarged image of the candidate object on the game screen (step S406).
That is, when the display control unit 360 obtains information on the candidate object from the candidate object selection unit 372, the display control unit 360 notifies the player which cocoon object has been selected as the candidate object, for example, as shown in FIG. An enlarged image KG of a candidate object is generated and combined with the game image in correspondence with the candidate object. As an example, as shown in FIG. 10B, the enlarged image KG is synthesized so as to overlap the candidate object. Note that the layout (composition position) of the enlarged image KG is intended to inform the player of the correspondence relationship with the candidate object. It can be changed as appropriate, for example, by being connected with a lead line or the like and arranged in a slightly separated position or in a dedicated area.
In addition, three-direction arrow marks Ym (YmL, YmC, YmR) are added to the enlarged image KG. These arrow marks Ym indicate in which direction the player should swing the controller 210 in order to determine one heel object from the candidate objects.
The enlarged image KG is an example, and can be appropriately changed including whether or not the arrow mark Ym is added. For example, as shown in FIG. 10C, an enlarged image KG in which the arrangement of candidate objects is changed without adding an arrow mark is generated, and in which direction the player should swing the controller 210 by each arrangement. May be shown.

図8に戻って、ゲーム装置300は、コントローラ210が振られたか否かを判別する(ステップS407)。
すなわち、処理制御部370は、移動情報取得部330から供給される位置情報(加速度等)に基づいて、コントローラ210が振られたかどうかを判別する。例えば、基準値以上の加速度が得られた場合に、処理制御部370は、コントローラ210が振られたと判別する。
Returning to FIG. 8, the game device 300 determines whether or not the controller 210 has been shaken (step S407).
That is, the process control unit 370 determines whether or not the controller 210 has been shaken based on the position information (acceleration and the like) supplied from the movement information acquisition unit 330. For example, when the acceleration equal to or higher than the reference value is obtained, the process control unit 370 determines that the controller 210 is shaken.

ゲーム装置300は、コントローラ210が振られていないと判別すると(ステップS407;No)、Bボタン214の押下が解除されたか否かを判別する(ステップS408)。
すなわち、処理制御部370は、操作情報取得部320から取得したボタン操作情報に基づいて、Bボタン214の押下が解除されたかどうかを判別する。
ゲーム装置300は、コントローラ210のBボタン214の押下が解除されていないと判別すると(ステップS408;No)、上述したステップS407に処理を戻し、ステップS407,S408の処理を繰り返し実行する。
一方、コントローラ210のBボタン214の押下が解除されたと判別した場合に(ステップS408;Yes)、ゲーム装置300は、上述したステップS401に処理を戻す。つまり、現在の候補オブジェクトの選定を一旦解除し(拡大画像の合成も停止し)、プレイヤが再度、候補オブジェクトの選定からやり直すことができるようにする。
If it is determined that the controller 210 is not shaken (step S407; No), the game device 300 determines whether or not the pressing of the B button 214 is released (step S408).
That is, the process control unit 370 determines whether or not the B button 214 is released based on the button operation information acquired from the operation information acquisition unit 320.
If it is determined that the press of the B button 214 of the controller 210 has not been released (step S408; No), the game device 300 returns the process to step S407 described above, and repeatedly executes the processes of steps S407 and S408.
On the other hand, when it is determined that the pressing of the B button 214 of the controller 210 is released (step S408; Yes), the game device 300 returns the process to the above-described step S401. In other words, the selection of the current candidate object is temporarily canceled (combination of the enlarged image is stopped), and the player can start again from the selection of the candidate object.

また、上記のステップS407にて、コントローラ210が振られたと判別した場合に(ステップS407;Yes)、ゲーム装置300は、コントローラ210の移動方向に応じて、牌オブジェクトを決定する(ステップS409)。
つまり、オブジェクト決定部373は、選定された候補オブジェクトの中から、移動方向に応じて、1つの牌オブジェクトを決定する。
具体的には、上述の図7(a)〜(c)を参照して説明したように、オブジェクト決定部373は、コントローラ210が振られた方向(一例として、先端の移動方向)に応じて定まる牌オブジェクトを、候補オブジェクトの中から決定する。
If it is determined in step S407 that the controller 210 has been shaken (step S407; Yes), the game device 300 determines a saddle object according to the moving direction of the controller 210 (step S409).
That is, the object determining unit 373 determines one heel object from the selected candidate objects according to the moving direction.
Specifically, as described with reference to FIGS. 7A to 7C described above, the object determining unit 373 determines the direction in which the controller 210 is shaken (for example, the moving direction of the tip). A fixed bag object is determined from the candidate objects.

そして、ゲーム装置300は、決定した牌オブジェクトを捨て牌とし、捨て牌処理を終える。なお、ゲーム装置300は、捨て牌処理を終えた後、麻雀ゲームを更に進行させる。   Then, the game device 300 discards the determined bag object and ends the throwing away process. Note that the game device 300 further advances the mahjong game after finishing the throwing away process.

このように、プレイヤは、まず、照準マークにて、手牌(配列画像)の中から、所望の牌が含まれるように狙う。つまり、ある程度の広い範囲(照準領域)にて所望の牌を狙えばよいため、コントローラ210の扱いに不慣れなプレイヤであっても、容易に照準を合わせることができる。また、所望の牌を狙う際に、手振れ等により照準がずれたとしても、所望の牌が含まれていればよいため、それほど、厳密さが要求されない。そのため、不慣れなプレイヤであっても、簡単に狙えるようになる。
そして、所望の牌が候補オブジェクトとして選定された後に、プレイヤは、所望の牌オブジェクトの配置(並び)に応じて、コントローラ210を振ればよいため、直感的であり、かつ、自然な操作で所望の牌オブジェクトを決定することができる。
この結果、表示される牌オブジェクトの選択操作を、プレイヤがより容易に行うことができる。
In this way, the player first aims at the desired eyelid from the hand eyelid (array image) with the aiming mark. That is, since it is only necessary to aim for a desired eyelid in a certain wide range (aiming area), even a player who is unfamiliar with the handling of the controller 210 can easily aim. Further, when aiming at a desired eyelid, even if the aim is shifted due to camera shake or the like, it is only required to include the desired eyelid, so that strictness is not required. Therefore, even an inexperienced player can easily aim.
Then, after the desired basket is selected as a candidate object, the player only has to swing the controller 210 in accordance with the arrangement (alignment) of the desired basket objects, which is intuitive and desired by natural operations. You can determine the heel object.
As a result, the player can more easily perform the selection operation of the displayed wrinkle object.

(他の実施形態)
上記の実施形態では、コントローラ210のボタン(一例として、Bボタン214)がプレイヤにより押下されたことを契機に、照準領域に含まれる牌オブジェクトを候補オブジェクトとして選定する場合について説明した。
しかしながら、候補オブジェクトを選定する手法は、このようなボタン押下に限られず、適宜変更可能である。例えば、照準領域が保持されたまま(静止されたまま)一定時間が経過することを契機に、候補オブジェクトを選定してもよい。以下、図11を参照して、照準領域の保持(静止)によって、候補オブジェクトを選定することを特徴としたゲーム装置について説明する。
(Other embodiments)
In the above-described embodiment, a case has been described in which the wrinkle object included in the aiming area is selected as a candidate object when the button of the controller 210 (for example, the B button 214) is pressed by the player.
However, the method for selecting candidate objects is not limited to such button pressing, and can be changed as appropriate. For example, the candidate object may be selected when a fixed time elapses while the aiming region is held (still stationary). Hereinafter, with reference to FIG. 11, a game apparatus characterized by selecting a candidate object by holding (stilling) the aiming area will be described.

図11は、本発明の他の実施形態に係るゲーム装置の概要構成を示す模式図である。
このゲーム装置500は、位置情報取得部310と、操作情報取得部320と、移動情報取得部330と、画像情報記憶部340と、配置情報管理部350と、表示制御部360と、処理制御部570とを備える。
なお、上述した図3のゲーム装置300と異なる点は、処理制御部370と処理制御部570との相違だけである。つまり、位置情報取得部310〜表示制御部360は、上述した図3のゲーム装置300とほぼ同様である。
FIG. 11 is a schematic diagram showing a schematic configuration of a game device according to another embodiment of the present invention.
The game apparatus 500 includes a position information acquisition unit 310, an operation information acquisition unit 320, a movement information acquisition unit 330, an image information storage unit 340, an arrangement information management unit 350, a display control unit 360, and a processing control unit. 570.
Note that the only difference from the game apparatus 300 of FIG. 3 described above is the difference between the process control unit 370 and the process control unit 570. That is, the position information acquisition unit 310 to the display control unit 360 are substantially the same as the game device 300 of FIG. 3 described above.

処理制御部570は、照準領域算定部371、候補オブジェクト選定部372、オブジェクト決定部373、ゲーム進行部374、及び、保持時間計時部571を含んで構成される。
この処理制御部570は、上述したゲーム装置300の処理制御部370に、保持時間計時部571が付加された構成となっている。つまり、照準領域算定部371〜ゲーム進行部374は、上述した処理制御部370とほぼ同様である。
The process control unit 570 includes an aiming area calculation unit 371, a candidate object selection unit 372, an object determination unit 373, a game progress unit 374, and a holding time counting unit 571.
The processing control unit 570 has a configuration in which a holding time timer 571 is added to the processing control unit 370 of the game apparatus 300 described above. That is, the aiming area calculation unit 371 to the game progression unit 374 are substantially the same as the processing control unit 370 described above.

保持時間計時部571は、照準領域が保持されている時間を計時する。つまり、プレイヤによりコントローラ210が静止されている時間を計時する。
例えば、保持時間計時部571は、移動情報取得部330にて取得された移動情報(3軸方向の加速度等)により、コントローラ210が静止している(若しくは、ほとんど移動していない)と判別されると、その時点からの計時を開始する(ゼロから計時を開始する)。なお、コントローラ210の動きが判別されると(静止が途切れると)、計時を止める。そして、次に、コントローラ210の静止を判別すると、再び、ゼロから計時を開始する。
こうして、コントローラ210が静止されている時間を計時し、一定時間が経過すると、保持時間計時部571は、候補オブジェクト選定部372に、照準領域の保持が一定時間続いた旨を通知する。
The holding time timer 571 measures the time during which the aiming area is held. That is, the time that the controller 210 is stationary by the player is counted.
For example, the holding time timer 571 determines that the controller 210 is stationary (or hardly moved) based on the movement information (such as acceleration in three axes) acquired by the movement information acquisition unit 330. Then, the time measurement from that time is started (time measurement is started from zero). When the movement of the controller 210 is determined (when the stationary state is interrupted), the time measurement is stopped. Then, when it is determined that the controller 210 is stationary, the time measurement is started again from zero.
Thus, the controller 210 counts the time during which the controller 210 is stationary, and when the fixed time has elapsed, the holding time timer 571 notifies the candidate object selector 372 that the aiming area has been held for a fixed time.

そして、候補オブジェクト選定部372は、保持時間計時部571からのこの通知を受けた際に、照準領域に含まれる牌オブジェクトがあれば、その牌オブジェクトを候補オブジェクトとして選定する。   When the candidate object selecting unit 372 receives this notification from the holding time measuring unit 571, if there is a wrinkle object included in the aiming area, the candidate object selecting unit 372 selects the wrinkle object as a candidate object.

つまり、プレイヤは、所望の牌に照準マークが重なっている状態でコントローラ210を静止させるため、照準領域もそのまま保持されることになる。そして、そのまま一定時間が経過すると、候補オブジェクト選定部372は、上述の図6(a)〜(d)を参照して説明したように、照準領域SAに含まれる複数の牌オブジェクトObjを候補オブジェクトとして選定する。   In other words, the player keeps the aiming area as it is because the controller 210 is stopped in a state where the aiming mark is overlaid on the desired eyelid. Then, when a certain period of time elapses, the candidate object selection unit 372 selects a plurality of eyelid objects Obj included in the aiming area SA as candidate objects as described with reference to FIGS. Select as

その後は、上述したゲーム装置300と同様に、コントローラ210が振られた方向に応じて定まる牌オブジェクトを、候補オブジェクトの中から決定する。つまり、オブジェクト決定部373は、上述の図7(a)〜(c)を参照して説明したように、コントローラ210が振られた方向(一例として、先端の移動方向)に応じて定まる牌オブジェクトを、候補オブジェクトの中から決定する。   After that, as with the game device 300 described above, a wrinkle object determined according to the direction in which the controller 210 is swung is determined from among the candidate objects. That is, as described with reference to FIGS. 7A to 7C described above, the object determining unit 373 determines the wrinkle object determined according to the direction in which the controller 210 is swung (for example, the moving direction of the tip). Are determined from the candidate objects.

この場合も、プレイヤは、ある程度の広い範囲(照準領域)にて所望の牌を狙い、そのまま、静止させればよいため、コントローラ210の扱いに不慣れなプレイヤであっても、比較的容易に照準を合わせることができる。
そして、所望の牌が候補オブジェクトとして選定された後に、プレイヤは、所望の牌オブジェクトの配置(並び)に応じて、コントローラ210を振ればよいため、直感的であり、かつ、自然な操作で所望の牌オブジェクトを決定することができる。
この結果、表示される牌オブジェクトの選択操作を、プレイヤがより容易に行うことができる。
Also in this case, the player may aim at a desired eyelid in a certain wide range (aiming area) and stop as it is, so that even a player who is unfamiliar with the handling of the controller 210 can aim relatively easily. Can be combined.
Then, after the desired basket is selected as a candidate object, the player only has to swing the controller 210 in accordance with the arrangement (alignment) of the desired basket objects, which is intuitive and desired by natural operations. You can determine the heel object.
As a result, the player can more easily perform the selection operation of the displayed wrinkle object.

上記の実施形態では、照準領域に含まれる牌オブジェクトを候補オブジェクトとして選定する場合について説明した。それでも、候補オブジェクトの選定手法は、任意であり、例えば、ゲーム装置300・500側が演算により求めた、捨て牌として推奨する候補オブジェクトを選定してもよい。
例えば、手牌上を狙って、コントローラ210のBボタン214が押下されずに、又は、コントローラ210が静止されずに、一定時間が経過すると、処理制御部370・570は、所定の捨て牌理論に沿ったロジックにより、現在の手牌において不要となる牌を複数(例えば、上位3つまでの牌)選定する。
そして、上記と同様に、候補オブジェクトの拡大画像をゲーム画面に合成し、コントローラ210が振られた方向に応じて定まる牌オブジェクトを、オブジェクト決定部373が決定する。
この場合も、表示される牌オブジェクトの選択操作を、プレイヤがより容易に行うことができる。
In the above embodiment, the case where the eyelid object included in the aiming area is selected as a candidate object has been described. Nevertheless, the method for selecting candidate objects is arbitrary, and for example, a candidate object recommended by the game apparatus 300 or 500 as a throw-away can be selected.
For example, when the B button 214 of the controller 210 is not pressed down or the controller 210 is not stationary, aiming at the top of the hand, the processing control units 370 and 570 may perform a predetermined discarding theory. A plurality of (for example, up to the top three) bags that are unnecessary in the current procedure are selected by the logic along the line.
In the same manner as described above, the enlarged image of the candidate object is synthesized on the game screen, and the object determining unit 373 determines the wrinkle object determined according to the direction in which the controller 210 is shaken.
Also in this case, the player can more easily perform the selection operation of the displayed saddle object.

上記の実施形態では、麻雀ゲームを一例として説明したが、このような麻雀ゲームに限られず、他にカードゲーム等、コントローラ210により配列されたオブジェクト(配列画像)から任意のオブジェクトを指定するようなゲームであれば適宜適用可能である。
つまり、上述した麻雀ゲームでは、図4に示すように、各牌オブジェクトが横方向に一列に隣接して配列された配列画像の中から、任意の牌オブジェクトを指定する場合について説明したが、これ以外でも、オブジェクトが隣接して(隣り合って)配列されていれば、同様に適用可能である。例えば、トランプ等を手で広げて持つように扇形に隣接して配列されていたり、縦方向や斜め方向に隣接して配列されていてもよく、また、一列でなく、複数列に渡って配列されていてもよい。更に、トランプの神経衰弱のように、無秩序に配列されているような場合でも、適宜適用可能である。
In the above embodiment, the mahjong game has been described as an example. However, the present invention is not limited to such a mahjong game, and any other object such as a card game or the like (designated image) specified by the controller 210 (array image) is designated. Any game can be applied as appropriate.
That is, in the above-described mahjong game, as shown in FIG. 4, a case has been described where an arbitrary spear object is designated from an array image in which the spear objects are arranged adjacent to each other in the horizontal direction. Other than the above, if the objects are arranged adjacent to each other (adjacent), the same applies. For example, the cards may be arranged adjacent to each other in a fan shape so that the cards are spread out by hand, or may be arranged adjacent to each other in the vertical direction or the diagonal direction. May be. Furthermore, the present invention can be applied as appropriate even in the case where the cards are arranged randomly, such as Trump's nervous breakdown.

以上説明したように、本発明によれば、表示装置に向けたコントローラによってオブジェクトなどを操作するゲーム装置において、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことができる。   As described above, according to the present invention, in a game device in which an object or the like is operated by a controller directed to the display device, a player can more easily perform an operation for selecting an object to be displayed.

本発明の実施形態に係る情報処理装置の概要構成を示す模式図である。It is a mimetic diagram showing the outline composition of the information processor concerning an embodiment of the present invention. コントローラユニットの概要を説明するための外観図である。It is an external view for demonstrating the outline | summary of a controller unit. 本発明の実施形態に係るゲーム装置の概要構成を示す模式図である。It is a mimetic diagram showing an outline composition of a game device concerning an embodiment of the present invention. 表示画像(ゲーム画面)の一例を示す模式図である。It is a schematic diagram which shows an example of a display image (game screen). (a),(b)共に、照準領域を説明するための模式図である。(A), (b) is a schematic diagram for demonstrating an aiming area | region. (a)〜(d)共に、候補オブジェクトの選定を説明するための模式図である。(A)-(d) is a schematic diagram for demonstrating selection of a candidate object. (a)〜(c)共に、コントローラを振ることにより、候補オブジェクトから1つの牌オブジェクトを決定する様子を説明するための模式図である。(A)-(c) is a schematic diagram for demonstrating a mode that one cocoon object is determined from a candidate object by shaking a controller. 本発明の実施形態に係る捨て牌処理の一例を示すフローチャートである。It is a flowchart which shows an example of the discard process which concerns on embodiment of this invention. (a),(b)共に、照準マークを説明するための模式図である。(A), (b) is a schematic diagram for demonstrating an aiming mark. (a)〜(c)共に、拡大画像を説明するための模式図である。(A)-(c) is a schematic diagram for demonstrating an enlarged image. 本発明の他の実施形態に係るゲーム装置の概要構成を示す模式図である。It is a schematic diagram which shows schematic structure of the game device which concerns on other embodiment of this invention.

符号の説明Explanation of symbols

100 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェース
105 コントローラユニット
106 外部メモリ
107 DVD−ROMドライブ
108 画像処理部
109 音声処理部
110 NIC
210 コントローラ
220 センサバー
290 ディスプレイ
300,500 ゲーム装置
310 位置情報取得部
320 操作情報取得部
330 移動情報取得部
340 画像情報記憶部
350 配置情報管理部
360 表示制御部
370,570 処理制御部
100 Information processing apparatus 101 CPU
102 ROM
103 RAM
104 Interface 105 Controller Unit 106 External Memory 107 DVD-ROM Drive 108 Image Processing Unit 109 Audio Processing Unit 110 NIC
210 Controller 220 Sensor bar 290 Display 300,500 Game device 310 Position information acquisition unit 320 Operation information acquisition unit 330 Movement information acquisition unit 340 Image information storage unit 350 Arrangement information management unit 360 Display control unit 370, 570 Processing control unit

Claims (7)

表示装置に向けられたコントローラにより、任意のオブジェクトを指定して操作するゲーム装置であって、
複数のオブジェクトが配列された配列画像を表示画面に表示する表示制御部と、
当該コントローラにより指し示される表示画面上の照準領域を検出する照準領域検出部と、
検出された当該照準領域に基づいて、表示される当該配列画像の中から複数の候補オブジェクトを選定する選定部と、
選定された当該候補オブジェクトの中から、当該コントローラの向き又は姿勢変化に応じてオブジェクトを決定する決定部と、
を備えることを特徴とするゲーム装置。
A game device that specifies and operates an arbitrary object by a controller directed to a display device,
A display control unit for displaying an array image in which a plurality of objects are arrayed on a display screen;
An aiming area detector for detecting an aiming area on the display screen pointed to by the controller;
A selection unit that selects a plurality of candidate objects from the displayed array image based on the detected aiming area;
A determining unit that determines an object according to a change in orientation or orientation of the controller from the selected candidate objects;
A game apparatus comprising:
所定のセンサを有するコントローラがプレイヤによって把持され、当該プレイヤが当該コントローラを表示画面に向け、任意のオブジェクトを指定して処理を命ずるゲーム装置であって、
指定対象となり得る複数のオブジェクトが隣接して配列された配列画像を表示画面に表示する表示制御部と、
当該コントローラにより指し示される表示画面上の照準領域を、当該コントローラの位置及び先端の向きに基づいて検出する照準領域検出部と、
表示された当該配列画像と検出された当該照準領域との位置関係に基づいて、当該配列画像の中から複数の候補オブジェクトを選定する選定部と、
当該センサから供給される情報を取得し、当該コントローラの移動方向を検出する移動方向検出部と、
当該候補オブジェクトが選定された状態で、検出された当該移動方向に応じて定まるオブジェクトを、当該候補オブジェクトの中から決定する決定部と、
を備えることを特徴とするゲーム装置。
A game device in which a controller having a predetermined sensor is held by a player, the player points the controller to a display screen, designates an arbitrary object, and commands processing.
A display control unit that displays an array image in which a plurality of objects that can be designated are arranged adjacent to each other on a display screen;
An aiming area detection unit that detects the aiming area on the display screen pointed to by the controller based on the position of the controller and the direction of the tip;
A selection unit that selects a plurality of candidate objects from the array image based on the positional relationship between the displayed array image and the detected aiming area;
A direction-of-movement detection unit that acquires information supplied from the sensor and detects the direction of movement of the controller;
A determination unit that determines an object determined according to the detected moving direction from the candidate objects in a state where the candidate object is selected;
A game apparatus comprising:
請求項1又は2に記載のゲーム装置であって、
前記コントローラには、所定のボタンが配置されており、
前記選定部は、当該ボタンが押下された時点での当該照準領域に属する当該配列画像における複数のオブジェクトを、候補オブジェクトとして選定する、
ことを特徴とするゲーム装置。
The game device according to claim 1 or 2,
A predetermined button is arranged on the controller,
The selection unit selects, as candidate objects, a plurality of objects in the array image belonging to the aiming region at the time when the button is pressed.
A game device characterized by that.
請求項1又は2に記載のゲーム装置であって、
前記照準領域検出部は、当該照準領域を規定時間毎に順次検出し、
前記選定部は、順次検出される当該照準領域の表示画像上の位置が維持されたまま、一定時間が経過すると、当該照準領域に含まれる当該配列画像における複数のオブジェクトを、候補オブジェクトとして選定する、
ことを特徴とするゲーム装置。
The game device according to claim 1 or 2,
The aiming area detection unit sequentially detects the aiming area every specified time,
The selection unit selects a plurality of objects in the array image included in the aiming area as candidate objects when a predetermined time elapses while the position of the aiming area that is sequentially detected is maintained on the display image. ,
A game device characterized by that.
請求項1乃至4の何れか1項に記載のゲーム装置であって、
前記表示制御部は、選定された当該各候補オブジェクトの拡大画像を、当該配列画像に対応させて表示し、
前記決定部は、表示される当該拡大画像中の当該各候補オブジェクトの並びと、当該コントローラの向きが変化する方向との関係に応じて、当該候補オブジェクトの中からオブジェクトを決定する、
ことを特徴とするゲーム装置。
The game device according to any one of claims 1 to 4,
The display control unit displays an enlarged image of each selected candidate object corresponding to the array image,
The determining unit determines an object from the candidate objects according to a relationship between the arrangement of the candidate objects in the enlarged image to be displayed and a direction in which the direction of the controller changes.
A game device characterized by that.
表示装置に向けられたコントローラにより、任意のオブジェクトを指定して操作するゲーム装置におけるオブジェクト選択方法であって、
当該ゲーム装置は、制御部と、表示制御部と、当該コントローラを含むコントローラユニットとを有しており、
前記表示制御部が、複数のオブジェクトが配列された配列画像を表示画面に表示する表示ステップと、
前記制御部が、当該コントローラにより指し示される表示画面上の照準領域を、前記コントローラユニットを使用して検出する照準領域検出ステップと、
前記制御部が、検出された当該照準領域に基づいて、表示される当該配列画像の中から複数の候補オブジェクトを選定する選定ステップと、
前記制御部が、選定された当該候補オブジェクトの中から、当該コントローラの向き又は姿勢変化に応じてオブジェクトを決定する決定ステップと、
を含むことを特徴とするオブジェクト選択方法。
An object selection method in a game device in which an arbitrary object is designated and operated by a controller directed to a display device,
The game apparatus includes a control unit, a display control unit, and a controller unit including the controller.
A display step in which the display control unit displays an array image in which a plurality of objects are arrayed on a display screen;
An aiming area detecting step in which the control unit detects an aiming area on a display screen pointed to by the controller using the controller unit;
A selection step in which the control unit selects a plurality of candidate objects from the displayed array image based on the detected aiming area;
A determination step in which the control unit determines an object according to a change in orientation or orientation of the controller from the selected candidate objects;
An object selection method comprising:
表示装置に向けられたコントローラにより、任意のオブジェクトを指定して操作するコンピュータを、
複数のオブジェクトが配列された配列画像を表示画面に表示する表示制御部、
当該コントローラにより指し示される表示画面上の照準領域を検出する照準領域検出部、
検出された当該照準領域に基づいて、表示される当該配列画像の中から複数の候補オブジェクトを選定する選定部、
選定された当該候補オブジェクトの中から、当該コントローラの向き又は姿勢変化に応じてオブジェクトを決定する決定部、
として機能させることを特徴とするプログラム。
A computer that designates and operates an arbitrary object by a controller directed to a display device.
A display control unit for displaying an array image in which a plurality of objects are arrayed on a display screen;
An aiming area detector for detecting an aiming area on the display screen pointed to by the controller,
A selection unit that selects a plurality of candidate objects from the displayed array image based on the detected aiming area;
A determination unit that determines an object according to a change in orientation or posture of the controller from the selected candidate objects,
A program characterized by functioning as
JP2008232166A 2008-09-10 2008-09-10 Game device, method for selecting object, information recording medium and program Pending JP2010063616A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008232166A JP2010063616A (en) 2008-09-10 2008-09-10 Game device, method for selecting object, information recording medium and program
PCT/JP2009/065219 WO2010029870A1 (en) 2008-09-10 2009-08-31 Game device, method for selecting object, information recording medium and program
TW098129738A TWI396577B (en) 2008-09-10 2009-09-03 Game device, method for selecting object, information recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008232166A JP2010063616A (en) 2008-09-10 2008-09-10 Game device, method for selecting object, information recording medium and program

Publications (1)

Publication Number Publication Date
JP2010063616A true JP2010063616A (en) 2010-03-25

Family

ID=42005127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008232166A Pending JP2010063616A (en) 2008-09-10 2008-09-10 Game device, method for selecting object, information recording medium and program

Country Status (3)

Country Link
JP (1) JP2010063616A (en)
TW (1) TWI396577B (en)
WO (1) WO2010029870A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014208689A1 (en) * 2013-06-26 2014-12-31 株式会社ソニー・コンピュータエンタテインメント Information processing device, control method for information processing device, program, and information storage medium
JP2019136570A (en) * 2019-05-30 2019-08-22 株式会社コナミアミューズメント Game system and computer program used for the same
JP2020110351A (en) * 2019-01-11 2020-07-27 株式会社コロプラ Game program, game method, and information processor
JP7498336B2 (en) 2023-05-02 2024-06-11 株式会社コロプラ PROGRAM AND INFORMATION PROCESSING APPARATUS

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4995933B2 (en) * 2010-03-25 2012-08-08 株式会社コナミデジタルエンタテインメント Item selection device, item selection method, and program
KR102354328B1 (en) 2015-09-22 2022-01-21 삼성전자주식회사 Image display apparatus and operating method for the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162371A (en) * 2001-11-27 2003-06-06 Hitachi Ltd Portable terminal
JP2007061489A (en) * 2005-09-01 2007-03-15 Nintendo Co Ltd Information processing system and program
JP2007260116A (en) * 2006-03-28 2007-10-11 Nintendo Co Ltd Information processing apparatus and program
JP2007280461A (en) * 2006-04-04 2007-10-25 Sony Corp Reproducing device, user interface control method, and program
JP2007293191A (en) * 2006-04-27 2007-11-08 Nintendo Co Ltd Sound outputting program and sound outputting device
JP2008123375A (en) * 2006-11-14 2008-05-29 Konami Digital Entertainment:Kk Item selection device, item selection method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162371A (en) * 2001-11-27 2003-06-06 Hitachi Ltd Portable terminal
JP2007061489A (en) * 2005-09-01 2007-03-15 Nintendo Co Ltd Information processing system and program
JP2007260116A (en) * 2006-03-28 2007-10-11 Nintendo Co Ltd Information processing apparatus and program
JP2007280461A (en) * 2006-04-04 2007-10-25 Sony Corp Reproducing device, user interface control method, and program
JP2007293191A (en) * 2006-04-27 2007-11-08 Nintendo Co Ltd Sound outputting program and sound outputting device
JP2008123375A (en) * 2006-11-14 2008-05-29 Konami Digital Entertainment:Kk Item selection device, item selection method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014208689A1 (en) * 2013-06-26 2014-12-31 株式会社ソニー・コンピュータエンタテインメント Information processing device, control method for information processing device, program, and information storage medium
JP5921015B2 (en) * 2013-06-26 2016-05-24 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus, information processing apparatus control method, program, and information storage medium
JPWO2014208689A1 (en) * 2013-06-26 2017-02-23 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus, information processing apparatus control method, program, and information storage medium
US10376777B2 (en) 2013-06-26 2019-08-13 Sony Interactive Entertainment Inc. Information processor, control method of information processor, program, and information storage medium
JP2020110351A (en) * 2019-01-11 2020-07-27 株式会社コロプラ Game program, game method, and information processor
JP7274870B2 (en) 2019-01-11 2023-05-17 株式会社コロプラ Program and information processing device
JP2019136570A (en) * 2019-05-30 2019-08-22 株式会社コナミアミューズメント Game system and computer program used for the same
JP7498336B2 (en) 2023-05-02 2024-06-11 株式会社コロプラ PROGRAM AND INFORMATION PROCESSING APPARATUS

Also Published As

Publication number Publication date
TWI396577B (en) 2013-05-21
WO2010029870A1 (en) 2010-03-18
TW201023951A (en) 2010-07-01

Similar Documents

Publication Publication Date Title
JP4187768B2 (en) Game device, progress control method, and program
JP5755943B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5286267B2 (en) Game device, game program, and object operation method
JP4754005B2 (en) GAME PROGRAM AND GAME DEVICE
US20110172017A1 (en) Game machine, game program, and game machine control method
JP5519591B2 (en) Information display device, information display method, and program
WO2010029870A1 (en) Game device, method for selecting object, information recording medium and program
JP2009284953A (en) Game device, game processing method, and program
JP5937789B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5396212B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
WO2010087284A1 (en) Game device, operation evaluation method, information recording medium, and program
JP2010233742A (en) Game device, operation determination method, and program
JP5519610B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5548179B2 (en) Game device and program
JP3983789B1 (en) GAME DEVICE, CORRECTION METHOD, AND PROGRAM
JP2013165879A (en) Game system, game control method, game device and game program
JP4962977B2 (en) Game program, battle game apparatus, and battle game control method
JP4588689B2 (en) Game device and program
JP2007260346A (en) Game device, vibration control method and program
JP2011083631A (en) Game program and game device
JP2012040045A (en) Game device, game control method, and program
JP5072937B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
JP3983790B1 (en) GAME DEVICE, VIBRATION CONTROL METHOD, AND PROGRAM
JP6270783B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP2012065833A (en) Game device, game control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140408