WO2010029870A1 - ゲーム装置、オブジェクト選択方法、情報記録媒体、および、プログラム - Google Patents

ゲーム装置、オブジェクト選択方法、情報記録媒体、および、プログラム Download PDF

Info

Publication number
WO2010029870A1
WO2010029870A1 PCT/JP2009/065219 JP2009065219W WO2010029870A1 WO 2010029870 A1 WO2010029870 A1 WO 2010029870A1 JP 2009065219 W JP2009065219 W JP 2009065219W WO 2010029870 A1 WO2010029870 A1 WO 2010029870A1
Authority
WO
WIPO (PCT)
Prior art keywords
controller
unit
aiming area
objects
candidate
Prior art date
Application number
PCT/JP2009/065219
Other languages
English (en)
French (fr)
Inventor
勝也 島崎
裕崇 石川
Original Assignee
株式会社コナミデジタルエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コナミデジタルエンタテインメント filed Critical 株式会社コナミデジタルエンタテインメント
Publication of WO2010029870A1 publication Critical patent/WO2010029870A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8094Unusual game types, e.g. virtual cooking

Definitions

  • the present invention relates to a game device in which an object is operated by a controller directed to a display device, a game device that allows a player to more easily select an object to be displayed, an object selection method, an information recording medium, and Regarding the program.
  • game devices such as video game devices
  • mahjong games and card games such as playing cards and flower cards
  • an operation is performed in which the player selects an arbitrary basket or card from the displayed cards or hand and throws it into the field.
  • a throwing operation can be performed using a direction key, a determination button, or the like of a controller.
  • a cursor for selecting a throwing bag out of a hand bag can be moved in response to pressing of a direction key, and the player moves the cursor to a desired bag and then presses the decision button.
  • the discarding operation is performed.
  • Patent Document 1 an invention such as an item determination apparatus that can prevent mistakes due to an erroneous operation when the player determines a throwing-away object or the like is disclosed (for example, see Patent Document 1). .
  • a new type of game device characterized by a controller has been released and gained popularity.
  • a newly-invented controller is used so that intuitive operation can be performed.
  • a function is added in which a player can directly specify an object in the game by holding the controller of a new idea with one hand and aiming at the screen.
  • a conventional controller is often used.
  • a conventional controller is connected to the game device, and as described above, the direction key is pressed to move the cursor to a desired basket (card), and the decision button is pressed. As a result, a discard operation was performed.
  • newly-developed controllers are used as they are, but even in that case, only the same functions as the conventional controller are used, and the functions of the newly-developed controller have not been fully utilized. .
  • the present invention has been made to solve such a problem, and in a game device in which an object or the like is operated by a controller directed to the display device, the player can more easily perform the selection operation of the displayed object. It is an object to provide a game device, an object selection method, an information recording medium, and a program.
  • a game device is a game device that designates and operates an arbitrary object by a controller directed to a display device, and includes a display control unit, an aiming region detection unit, a selection unit, and , Including a determination unit.
  • the display control unit displays an array image (for example, a handbag or a hand) in which a plurality of objects (for example, a handbag or a bill) are arrayed on the display screen.
  • the aiming area detection unit detects the aiming area on the display screen pointed to by the controller.
  • the selection unit selects a plurality of candidate objects from the displayed array image based on the detected aiming area.
  • the determination unit determines an object from the selected candidate objects according to a change in the orientation or orientation of the controller (for example, the direction in which the controller is swung).
  • the object is selected with a certain aiming area of a certain wide range, so when aiming a desired object with the controller, it does not require so high accuracy, and even an unfamiliar player can easily aim Become. Then, when determining a desired object from the selected objects, it is intuitive to change the orientation or orientation of the controller according to its arrangement (arrangement) (for example, it may be shaken).
  • a desired object can be determined by a natural operation. As a result, the player can more easily perform the selection operation of the displayed object.
  • a game device is a game device in which a controller having a predetermined sensor is gripped by a player, the player points the controller at a display screen, specifies an arbitrary object, and commands a process.
  • the display control unit, the aiming area detection unit, the selection unit, the movement direction detection unit, and the determination unit are configured.
  • the display control unit displays, on the display screen, an array image (for example, a handbag or a hand) in which a plurality of objects that can be designated (for example, a handbag or a bill) are arranged adjacent to each other.
  • the aiming area detection unit detects the aiming area on the display screen indicated by the controller based on the position of the controller and the direction of the tip.
  • the selection unit selects a plurality of candidate objects from the array image based on the positional relationship between the displayed array image and the detected aiming area.
  • the movement direction detection unit acquires information supplied from the sensor and detects the movement direction of the controller (for example, the direction in which the controller is swung). Then, the determination unit determines an object determined according to the detected moving direction from the candidate objects in a state where the candidate object is selected.
  • the object is selected with a certain aiming area of a certain wide range, so when aiming a desired object with the controller, it does not require so high accuracy, and even an unfamiliar player can easily aim Become.
  • it is intuitive because it is only necessary to move the controller according to the arrangement (arrangement) (for example, it may be shaken), and The desired object can be determined by natural operation. As a result, the player can more easily perform the selection operation of the displayed object.
  • a predetermined button may be arranged on the controller, and the selection unit may select a plurality of objects in the array image belonging to the aiming area at the time when the button is pressed as candidate objects.
  • the player when the player presses a predetermined button on the controller, the player can designate the selection timing by selecting the candidate object. As a result, the player can select the candidate object more intuitively while looking at the aiming area on the display screen.
  • the aiming area detection unit sequentially detects the aiming area at regular time intervals, and the selection unit detects the aiming area when a predetermined time elapses while the position of the aiming area that is sequentially detected is maintained on the display image.
  • a plurality of objects in the array image included in the image may be selected as candidate objects.
  • the display control unit displays an enlarged image of each selected candidate object corresponding to the array image, and the determining unit displays the arrangement of the candidate objects in the displayed enlarged image, and the controller.
  • An object may be determined from the candidate objects according to the relationship with the direction in which the direction changes.
  • An object selection method is an object selection method in a game device in which an arbitrary object is designated and operated by a controller directed to a display device, and the game device includes an aiming area detection unit A selection unit, a determination unit, a display control unit, and a controller unit including a controller, and includes a display step, an aiming region detection step, a selection step, and a determination step.
  • the display control unit displays an array image (for example, a handbag or a hand) in which a plurality of objects (for example, a handbag or a bill) are arrayed on the display screen.
  • the aiming area detecting step detects the aiming area on the display screen indicated by the controller using the controller unit.
  • the selection step selects a plurality of candidate objects from the displayed array image based on the detected aiming area.
  • the determining step determines an object from the selected candidate objects according to a change in the orientation or orientation of the controller (for example, the direction in which the controller is swung).
  • the object is selected in a certain range of aiming area, so when aiming at the desired object from the controller, it does not require so high accuracy, so even an inexperienced player can easily aim Become. Then, when determining a desired object from the selected objects, it is intuitive to change the orientation or orientation of the controller according to its arrangement (arrangement) (for example, it may be shaken).
  • a desired object can be determined by a natural operation. As a result, the player can more easily perform the selection operation of the displayed object.
  • the program according to the fourth aspect of the present invention is configured to cause a computer (including an electronic device) to function as the above game device.
  • This program can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.
  • a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.
  • the above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed.
  • the information recording medium can be distributed and sold independently of the computer.
  • a game device in which an object or the like is operated by a controller directed to the display device, a game device, an object selection method, and information recording suitable for a player to easily perform an operation for selecting an object to be displayed.
  • a medium and a program can be provided.
  • FIG. 1 is a block diagram showing a schematic configuration of a game device according to an embodiment of the present invention.
  • 1 is a block diagram showing a schematic configuration of a game device according to an embodiment of the present invention.
  • It is a schematic diagram which shows an example of a display image (game screen).
  • It is a schematic diagram for demonstrating calculation of the aiming area
  • It is a schematic diagram for demonstrating the calculated aiming area.
  • Embodiments of the present invention will be described below.
  • an embodiment in which the present invention is applied to a game device will be described.
  • the present invention can be similarly applied to information processing devices such as various computers, PDAs, and mobile phones. it can. That is, the embodiment described below is for explanation, and does not limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing device in which a game device according to an embodiment of the present invention is realized.
  • a description will be given with reference to FIG. 1
  • the information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an interface 104, a controller unit 105, an external memory 106, and a DVD (Digital Versatile (Disk) -ROM drive 107, image processing unit 108, audio processing unit 109, and NIC (Network Interface Card) 110.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • controller unit 105 an external memory
  • DVD Digital Versatile (Disk) -ROM drive
  • image processing unit 108 image processing unit
  • audio processing unit 109 audio processing unit
  • NIC Network Interface Card
  • the CPU 101 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data.
  • the ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on, and when this is executed, the program recorded on the DVD-ROM is read into the RAM 103 and the execution by the CPU 101 is started.
  • the ROM 102 stores an operating system program and various data necessary for operation control of the entire information processing apparatus 100.
  • the RAM 103 is for temporarily storing data and programs, and holds programs and data read from the DVD-ROM and other data necessary for game progress and chat communication.
  • the controller unit 105 connected via the interface 104 receives an operation input performed when the user executes the game. More specifically, the controller 210 described later is operated by the player, and the operation information and the like are received by wireless communication. Details of the controller unit 105 will be described later.
  • the external memory 106 detachably connected via the interface 104 stores data indicating the progress of the game, chat communication log (record) data, and the like in a rewritable manner.
  • the user can record these data in the external memory 106 as appropriate by inputting an instruction via the controller unit 105.
  • the external memory 106 may be an SD card or the like.
  • a DVD-ROM mounted on the DVD-ROM drive 107 stores a program for realizing the game and image data and sound data associated with the game. Under the control of the CPU 101, the DVD-ROM drive 107 performs a reading process on the DVD-ROM loaded therein, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.
  • the image processing unit 108 processes the data read from the DVD-ROM by the CPU 101 or an image arithmetic processor (not shown) included in the image processing unit 108, and then processes the processed data in a frame memory ( (Not shown).
  • Image information recorded in the frame memory is converted into a video signal (video signal) at a predetermined synchronization timing, and is output to a monitor (display 290 described later) connected to the image processing unit 108. Thereby, various image displays are possible.
  • the image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as ⁇ blending, and various saturation calculations at high speed.
  • the polygon information arranged in the virtual three-dimensional space and added with various kinds of texture information is rendered by the Z buffer method, and a rendered image is obtained by overlooking the polygon arranged in the virtual three-dimensional space from a predetermined viewpoint position. High speed execution of the obtained operation is also possible.
  • the CPU 101 and the image arithmetic processor work together to draw a character string as a two-dimensional image in the frame memory or on each polygon surface according to the font information that defines the character shape. is there.
  • the font information is recorded in the ROM 102, but it is also possible to use dedicated font information recorded in the DVD-ROM.
  • the audio processing unit 109 converts audio data read from the DVD-ROM into an analog audio signal, and supplies the analog audio signal to an external speaker (a speaker of a display 290 described later) to output the audio.
  • an external speaker a speaker of a display 290 described later
  • the sound processing unit 109 generates sound effects and music data to be generated while the game is in progress, and outputs sound corresponding to the sound from the speaker.
  • the NIC 110 is used to connect the information processing apparatus 100 to a computer communication network (not shown) such as the Internet, and is used in configuring a LAN (Local Area Network). 10BASE-T / 100BASE-T standard Or modems that connect to the Internet using telephone lines, ISDN (Integrated Services Digital Network) modems, ADSL (Asymmetric Digital Subscriber Line) modems, cables to connect to the Internet using cable television lines It comprises a modem, etc., and an interface (not shown) that mediates between them and the CPU 101.
  • a computer communication network such as the Internet
  • LAN Local Area Network
  • 10BASE-T / 100BASE-T standard Or modems that connect to the Internet using telephone lines
  • ISDN Integrated Services Digital Network
  • ADSL Asymmetric Digital Subscriber Line
  • the information processing apparatus 100 uses a large-capacity external storage device such as a hard disk to perform the same function as the ROM 102, RAM 103, external memory 106, DVD-ROM attached to the DVD-ROM drive 107, and the like. You may comprise. Further, it is possible to adopt a form in which a keyboard for accepting a character string editing input from a user, a mouse for accepting various position designations and selection inputs, and the like are connected.
  • a general computer can be used as a game apparatus.
  • a general computer like the information processing apparatus 100, includes a CPU, RAM, ROM, DVD-ROM drive, and NIC, and an image processing unit that has a simpler function than the information processing apparatus 100.
  • a hard disk as an external storage device
  • a flexible disk a magneto-optical disk, a magnetic tape, and the like can be used.
  • a keyboard, a mouse or the like is used as an input device instead of a controller. Then, after the game program is installed, when the program is executed, it functions as a game device.
  • FIG. 2 is an external view for explaining an outline of the controller unit 105 described above.
  • the controller unit 105 includes a controller 210 and a sensor bar 220 as shown.
  • the information processing apparatus 100 is connected to the sensor bar 220 and the display 290 via predetermined cables.
  • the controller 210 has an appearance similar to, for example, a remote controller such as a television, is connected to the information processing apparatus 100 wirelessly (by wireless communication), and can be operated as it is by a player with one hand.
  • the sensor bar 220 is formed in a bar shape having a predetermined length, and is appropriately fixed on the top of the display 290 along the direction of the screen. In the sensor bar 220, one light emitting element 221 is embedded at each end. Note that the number of light emitting elements 221 to be embedded is an example, and may be larger than these numbers.
  • the sensor bar 220 receives power from the information processing apparatus 100 and causes the light emitting element 221 to appropriately emit light.
  • the controller 210 captures an image including the two light emitting elements 221 (two light emitting points) of the sensor bar 220.
  • the controller 210 includes a wireless communication unit therein, and sequentially transmits information of captured images to the information processing apparatus 100 by wireless communication. Then, the information processing apparatus 100 appropriately acquires the position and orientation of the controller 210 based on the positional relationship between the two light emitting points in the image sent from the controller 210.
  • the CPU 101, the image processing unit 108, and the like analyze the positional relationship between two light emitting points visible from the controller 210, calculate the spatial position of the controller 210 and the direction of the tip (the direction of the longitudinal axis), Finally, it is obtained where the player is operating the controller 210 on the screen. Note that such measurement of the position of the controller 210 is performed, for example, every vertical synchronization interrupt (1/60 seconds).
  • the controller 210 includes a triaxial acceleration sensor inside, and can measure the movement of the controller 210 in the triaxial direction. Note that the motion of the controller 210 may be measured by an angular acceleration sensor, an inclination sensor, or the like instead of such an acceleration sensor.
  • the controller 210 sequentially transmits such measurement results (for example, acceleration information for each of the three axes) to the information processing apparatus 100.
  • the information processing apparatus 100 detects the movement of the controller 210 based on the measurement result sent from the controller 210. For example, a motion such as the player swinging, twisting, or striking the controller 210 and its moving direction are acquired. Note that such movement of the controller 210 is also detected, for example, every vertical synchronization interrupt.
  • a cross-shaped key 212 is arranged on the upper surface of the controller 210, and various direction instruction inputs can be performed when the player holds and operates the hand.
  • An A button 213 and various buttons 215 are also arranged on the upper surface, and an instruction input associated with the button can be performed.
  • the B button 214 is disposed on the lower surface of the controller 210, and a depression may be formed on the lower surface thereof, so that the player can press the B button 214 to pull the trigger when the player holds it in hand. It has become.
  • the indicator 216 on the upper surface of the controller 210 is appropriately lit so that the player can identify even when a plurality of controllers 210 are used.
  • a power button 217 prepared on the top surface of the controller 210 instructs, for example, on / off of the information processing apparatus 100.
  • a vibration mechanism such as a vibrator is disposed inside the controller 210 so that vibration can be generated in response to an instruction sent from the information processing apparatus 100.
  • the following description is based on the assumption that the position of the controller 210 is measured by such a combination of the controller 210 and the sensor bar 220.
  • the measurement of the position of the controller 210 is not limited to the method in which the CCD camera 211 captures the light emission point (the light emitting element 221) of the sensor bar 220, and other methods can be appropriately applied.
  • the position of the controller 210 may be obtained from the time difference of wireless communication between two points via the sensor bar 220, or the position of the controller 210 may be determined based on the principle of triangulation using ultrasonic waves or infrared rays.
  • triangulation means that when an accurate distance between two points (in this embodiment, the distance between two points on the sensor bar 220) is known, the line segment connecting the two points and the measurement object Both end angles (in this embodiment, two end angles between the two points on the sensor bar 220 and the controller 210) are detected, and the object to be measured (the triangle is determined if one side of the triangle and its both end angles are known) ( In the present embodiment, it refers to a technique for measuring the position of the controller 210).
  • FIG. 3 is a block diagram showing a schematic configuration of the game apparatus according to the present embodiment.
  • the game apparatus 300 includes a display control unit 360, an aiming area detection unit 302, a selection unit 303, a determination unit 304, a control unit 301 including a moving direction detection unit 305, and the like.
  • the display control unit 360 displays an array image in which a plurality of objects (for example, bags and bills) are arrayed on the display screen.
  • the aiming area detection unit 302 detects an aiming area on the display screen indicated by the controller 210.
  • the selection unit 303 selects a plurality of candidate objects from the displayed array image based on the detected aiming area.
  • the determination unit 304 determines the selected candidate object according to the change in the orientation or posture of the controller 210 detected by the movement direction detection unit 305.
  • the movement direction detection unit 305 is included in the determination unit 304 and can be omitted as appropriate.
  • the CPU 101 can function as the control unit 301.
  • an example of the game apparatus 300 will be described in more detail.
  • FIG. 4 is a block diagram showing a schematic configuration of the game apparatus according to the present embodiment.
  • a controller 210 directed to the display 290 designates and discards (throws) an arbitrary game from a manual game (array image) on the game screen. Etc.
  • the game apparatus 300 includes a position information acquisition unit 310, an operation information acquisition unit 320, a movement information acquisition unit 330, an image information storage unit 340, an arrangement information management unit 350, a display control unit 360, and a processing control unit 370.
  • the position information acquisition unit 310 sequentially acquires position information composed of the position and orientation (tip direction) of the controller 210 held by the player. For example, the position information acquisition unit 310 obtains the spatial position of the controller 210 with respect to the display 290 and the direction (long axis direction) of the tip (CCD camera 211). More specifically, the position of the controller 210 in the three-axis directions (X-axis, Y-axis, and Z-axis directions) and the direction of the long axis of the controller 210 are sequentially obtained.
  • the position information acquisition unit 310 generates, for example, such position information including each position in the three axis directions and the direction of the long axis for each vertical synchronization interrupt (1/60 seconds), and sequentially supplies the position information to the processing control unit 370. To do.
  • the controller unit 105 can function as such a position information acquisition unit 310.
  • the operation information acquisition unit 320 acquires button operation information sent from the controller 210 by wireless communication, and sequentially acquires the contents of button operations of the controller 210 by the player. That is, it is obtained in real time which button of the controller 210 the player has pressed.
  • the interface 104 or the like can function as such an operation information acquisition unit 320.
  • the movement information acquisition unit 330 sequentially acquires movement information indicating movement (acceleration and the like) in the three-axis directions in the controller 210. For example, the movement information acquisition unit 330 acquires the movement direction of the controller 210 (for example, the movement direction of the tip) when the controller 210 is shaken by the player. In addition, the movement information acquisition unit 330 also acquires the movement direction of the controller 210 when the controller 210 is twisted, struck, or pulled by the player.
  • the controller unit 105 can function as such a movement information acquisition unit 330.
  • the image information storage unit 340 stores image information including each mahjong tile object (cocoon object).
  • the image information storage unit 340 includes a lion (one to nine), a tie (one to nine), a cord (one to nine), and a character (wind and three-way). ⁇ Stores image information of the object.
  • the image information storage unit 340 also stores image information of various objects necessary for executing a mahjong game, such as a stick or a dice. Note that the DVD-ROM and the RAM 103 attached to the DVD-ROM drive 107 can function as such an image information storage unit 340.
  • the placement information management unit 350 manages the placement information of the eyelid object including the arrangement (combination and arrangement) of the hands.
  • the arrangement information management unit 350 manages arrangement information of the player's hand during the game. In other words, it manages the arrangement of the characters that change during the game, such as catering, self-restraint, throwing away (striking), deputy dew (pon, chi, kang).
  • the arrangement information management unit 350 also manages arrangement information and the like of the kites discarded in the river of each player. Note that the CPU 101 and the RAM 103 can function as such an arrangement information management unit 350.
  • the display control unit 360 generates a game image based on the image information stored in the image information storage unit 340, the arrangement information managed by the arrangement information management unit 350, and the like. Specifically, the display control unit 360 generates a display image (game screen) as shown in FIG.
  • This display image includes an array image HG of each heel object indicating a hand heel. That is, the array image HG shows an array of the heel objects currently held by the player, and the heel objects are arranged adjacent to each other in the horizontal direction (adjacent to each other).
  • the player designates (determines) an arbitrary kite from such a kite (array image HG) by the controller 210, and performs a discarding operation for discarding (striking).
  • the display control unit 360 generates an aiming mark indicating the aiming area on the game screen indicated by the controller 210, an enlarged image of the candidate object selected according to the aiming area, and the like.
  • the image processing unit 108 can function as such a display control unit 360.
  • the process control unit 370 controls the entire game apparatus 300.
  • the processing control unit 370 includes an aiming area calculation unit 371, a candidate object selection unit 372, an object determination unit 373, and a game progression unit 374.
  • the aiming area detection unit 302 is realized by an aiming area calculation unit 371
  • the selection unit 303 is realized by a candidate object selection unit 372
  • the determination unit 304 is realized by an object determination unit 373.
  • the aiming area calculating unit 371 sequentially calculates the aiming area on the display 290 (game screen) indicated by the controller 210 based on the position information acquired by the position information acquiring unit 310. Specifically, the aiming area calculation unit 371 first determines the real space position (positions in the X-axis, Y-axis, and Z-axis directions) of the controller 210 and the direction (long) of the tip (light-emitting element 211) from the acquired position information. (Axis direction). Then, as shown in FIG. 6A, the aiming position Sp on the screen Scr (display 290) is obtained based on the obtained position of the controller 210 and the direction of the long axis L.
  • the aiming area calculation unit 371 calculates an aiming area SA surrounded by a circle with a predetermined radius around the obtained aiming position Sp.
  • an aiming area SA that is large enough to enclose three eyelid objects Obj in the handlid (array image) is calculated.
  • the shape of the aiming area SA is an example, and is not limited to such a circle, but may be another shape such as a rectangle.
  • the size (range) of the aiming area SA is also an example, and can be changed as appropriate.
  • the aiming area calculation unit 371 supplies the calculated aiming area information to the candidate object selection unit 372. In addition, the aiming area calculation unit 371 also supplies information about the aiming area to the display control unit 360 so that the player can see the aiming area (to display the aiming mark and the like).
  • the candidate object selecting unit 372 includes the positional relationship between the information on the aiming area calculated by the aiming area calculating unit 371 and the arrangement information of each object managed by the arrangement information managing unit 350, and the operation. Based on the button operation information acquired by the information acquisition unit 320, a plurality of eyelid objects are selected as candidate objects. For example, when the candidate object selection unit 372 detects that the button of the controller 210 (hereinafter, B button 214 as an example) is pressed by the player based on the button operation information, the candidate object selection unit 372 includes the eyelid object included in the aiming area. For example, the trap object is selected as a candidate object. Note that whether or not it is included in the aiming area is determined by, for example, whether or not the center (or center of gravity) of the eyelid object belongs to the aiming area.
  • the candidate object selection unit 372 when the B button 214 of the controller 210 is pressed in a situation where the aiming area SA is overlapped on the hand (array image HG), the candidate object selection unit 372 Then, the three saddle objects Obj “South”, “West” and “Departure” included in the aiming area SA are selected as candidate objects.
  • the candidate object selection unit 372 displays “south” and “west” completely included in the aiming area SA, and the center is the aiming area. A total of three bag objects Obj including “Sanko” included in SA are selected as candidate objects. It is assumed that the center of “departure” is out of the aiming area SA.
  • the candidate object selection unit 372 displays “one cylinder”, “seven cylinders”, and “seven cylinders” 3 included in the aiming area SA. Two saddle objects Obj are selected as candidate objects. In this case, since “seven cylinders” and “seven cylinders” are overlapped, an enlarged image described later may be generated using two of “one cylinder” and “seven cylinders” as candidate objects. In addition, the candidate object selection unit 372 may determine only the overlap so that only the two saddle objects Obj of “one cylinder” and “seven cylinders” are selected as candidate objects. Further, in the situation shown in FIG. 7D, when the B button 214 of the controller 210 is pressed, the candidate object selection unit 372 causes the two eyelid objects Obj “2 ⁇ ” and “Yawata” included in the aiming area SA. Are selected as candidate objects.
  • the method for selecting candidate objects is not limited to whether or not the center of the eyelid object belongs to the aiming area, and can be changed as appropriate. For example, only the eyelid objects that are completely included in the aiming area may be selected, and conversely, if they are partially included in the aiming area, all of them may be selected. That is, taking the case of FIG. 7B as an example, only the two south objects “Obj” “South” and “West” completely included in the aiming area SA may be selected. ”And“ Sanko ”and“ Departure ”partly included in the aiming area SA may be selected in total.
  • the candidate object selection unit 372 supplies information on the candidate objects selected in this way to the object determination unit 373.
  • the candidate object selection unit 372 displays information about the candidate object so that the player can know (view) the candidate object selected in this way (to display an enlarged image or the like). Also supply.
  • the object determination unit 373 selects one saddle object from the selected candidate objects based on the movement information (such as acceleration in three axis directions) acquired by the movement information acquisition unit 330. decide. For example, when the controller 210 is swung by the player with the candidate object selected, the object determining unit 373 selects a wrinkle object that is determined according to the swung direction (for example, the moving direction of the tip). Determine from candidate objects.
  • the movement information such as acceleration in three axis directions
  • the left edge saddle object is If it is determined and shaken upward, the middle eyelid object is determined, and if it is shaken rightward, the rightmost eyelid object is determined.
  • three eyelid objects including the left eyelid object ObjL (south), the middle eyelid object ObjC (west), and the rightmost eyelid object ObjR (source) are used as candidate objects.
  • the object determination unit 373 determines the eyelid object ObjC (west) corresponding to the upward direction.
  • the object determining unit 373 determines the eyelid object ObjL (south) corresponding to the left direction.
  • the object determination unit 373 determines the eyelid object ObjR (outgoing) corresponding to the right direction.
  • the direction in which the controller 210 is swung has a certain allowable range, and strictly speaking, even if it is not swung horizontally (left / right) or vertically (upward), It is possible to determine (detect) the left / right direction or the upward direction.
  • 8A to 8C have described the case where three cocoon objects are selected as candidate objects, but the present invention can be appropriately applied to cases where other numbers of cocoon objects are selected as candidate objects.
  • the object determination unit 373 A heel object may be determined, and when it is shaken in the right direction, the heel object at the right end may be determined.
  • the object determination unit 373 supplies information on the bag object determined in this way to the game progress unit 374 and the arrangement information management unit 350.
  • the arrangement information is updated, and the display control unit 360 is based on the updated arrangement information.
  • the game screen that is, the image of the handbook or river is updated.
  • the game progress unit 374 manages the progress of the mahjong game. For example, management of information necessary for the progress of the game, such as the player's self-determination, abandonment, and secondary dew (pon, chi, kang) is performed. For example, in a state where a time limit is set from self-determination to abandoned trap, if the player cannot determine the discarded trap within this limit time (information on the determined trap cannot be obtained from the object determination unit 373) In the case), the game progression unit 374 decides to discard the predetermined bag as a throwing bag.
  • the game progress unit 374 determines that the heel at the predetermined position in the candidate object (for example, the heel at the right end) is a discarded heel. .
  • the game progression unit 374 determines that the heel at the predetermined position (for example, the heel at the right end) in the hand is to be discarded.
  • the processing control unit 370 controls the game apparatus 300 by appropriately combining the aiming area calculation unit 371, the candidate object selection unit 372, the object determination unit 373, and the game progress unit 374. Then, the CPU 101 can function as the processing control unit 370 having such a configuration.
  • FIG. 9 is a flowchart showing a flow of abandonment process executed during the play of the mahjong game in the game device 300 having the above-described configuration.
  • This discarding process is a part of the mahjong game process as a whole, and is repeatedly executed during the game, for example, after the player's self-determination or after dew (pong, chi, kang).
  • the game device 300 acquires the position information of the controller 210 and calculates the aiming area (step S401). That is, the aiming area calculation unit 371 calculates the aiming area on the display 290 (game screen) pointed to by the controller 210 based on the position information supplied from the position information acquisition unit 310.
  • the game device 300 synthesizes the aim mark with the game screen (step S402). That is, when the display control unit 360 obtains the aiming area information from the aiming area calculation unit 371, for example, the display control unit 360 generates an aiming mark MK as illustrated in FIG. 10A so that the player can see the current aiming area. . That is, the aiming mark MK indicates the range of the aiming area SA in FIG. 6B described above, and is for allowing the player to confirm the aiming area SA. Then, the display control unit 360 synthesizes the generated aiming mark MK on the game screen as shown in FIG. 10B. That is, as described above with reference to FIG.
  • the aiming area SA is large enough to enclose three eyelid objects Obj in the handlid (array image), and therefore, as shown in FIG. 10B.
  • the range indicated by the aiming mark MK is also large enough to enclose three eyelid objects.
  • the aiming area SA and the aiming mark MK are not limited to perfect coincidence, and may be different in size and shape to some extent. That is, the player adjusts the orientation of the controller 210 so that the aiming mark MK representing the range of about three heels overlaps the desired heel on the hand heel.
  • Such an aiming mark MK is an example, and the shape and the like may be changed as appropriate.
  • the game device 300 determines whether or not the B button 214 of the controller 210 has been pressed by the player (step S403). That is, the process control unit 370 determines whether or not the B button 214 of the controller 210 is pressed based on the operation information acquired from the operation information acquisition unit 320. If it is determined that the B button 214 of the controller 210 is not pressed (step S403; No), the game device 300 returns the process to step S401 described above.
  • step S404 the processing control unit 370 determines whether the aiming area calculated by the aiming area calculating unit 371 is located on a manual (array image) in the game screen, that is, in order to specify the throwing away To determine whether or not the hand is aimed. If it is determined that the aiming mark is not on the hand (step S404; No), the game device 300 returns the process to step S401 described above.
  • the game device 300 selects a candidate object (step S405). That is, the candidate object selection unit 372 selects a candidate object based on the positional relationship between the arrangement (array image) and the aiming area. That is, since the player presses the B button 214 of the controller 210 in a state where the aim mark is over the desired eyelid, the candidate object selection unit 372 refers to the above-described FIGS. 7A to 7D. As described above, a plurality of eyelid objects Obj included in the aiming area SA are selected as candidate objects.
  • the game device 300 synthesizes the enlarged image of the candidate object on the game screen (step S406). That is, when the display control unit 360 obtains information on the candidate object from the candidate object selection unit 372, in order to notify the player which cocoon object has been selected as the candidate object, for example, the candidate object as shown in FIG. 11A
  • the enlarged image KG is generated and combined with the game image in correspondence with the candidate object. As an example, as shown in FIG. 11B, the enlarged image KG is synthesized so as to overlap the candidate object. Note that the layout (composition position) of the enlarged image KG is intended to inform the player of the correspondence relationship with the candidate object.
  • the enlarged image KG is not only overlapped in this way, but also placed in the vicinity of the candidate object, It can be changed as appropriate, for example, by being connected with a lead line or the like and arranged in a slightly separated position or in a dedicated area.
  • three-direction arrow marks Ym (YmL, YmC, YmR) are added to the enlarged image KG. These arrow marks Ym indicate in which direction the player should swing the controller 210 in order to determine one heel object from the candidate objects.
  • the enlarged image KG is an example, and can be appropriately changed including whether or not the arrow mark Ym is added. For example, as shown in FIG. 11C, an enlarged image KG in which the arrangement of candidate objects is changed without adding an arrow mark is generated, and the direction in which the player should swing the controller 210 is indicated by each arrangement. It may be.
  • the game device 300 determines whether or not the controller 210 has been shaken (step S ⁇ b> 407). That is, the process control unit 370 determines whether or not the controller 210 has been shaken based on the position information (acceleration and the like) supplied from the movement information acquisition unit 330. For example, when the acceleration equal to or higher than the reference value is obtained, the process control unit 370 determines that the controller 210 is shaken.
  • step S407 determines whether or not the pressing of the B button 214 is released (step S408). That is, the process control unit 370 determines whether or not the B button 214 is released based on the button operation information acquired from the operation information acquisition unit 320. If it is determined that the press of the B button 214 of the controller 210 is not released (step S408; No), the game device 300 returns the process to step S407 described above, and repeatedly executes the processes of steps S407 and S408.
  • step S408 when it is determined that the pressing of the B button 214 of the controller 210 is released (step S408; Yes), the game device 300 returns the process to the above-described step S401. In other words, the selection of the current candidate object is temporarily canceled (combination of the enlarged image is stopped), and the player can start again from the selection of the candidate object.
  • step S407 determines a saddle object according to the moving direction of the controller 210 (step S409). That is, the object determining unit 373 determines one heel object from the selected candidate objects according to the moving direction. Specifically, as described with reference to FIGS. 8A to 8C described above, the object determination unit 373 selects a wrinkle object that is determined according to the direction in which the controller 210 is swung (for example, the moving direction of the tip). Determine from candidate objects.
  • the game device 300 discards the determined trap object and finishes the discard processing. Note that the game device 300 further advances the mahjong game after finishing the throwing away process.
  • the player first aims at the desired eyelid from the hand eyelid (array image) with the aiming mark. That is, since it is only necessary to aim for a desired eyelid in a certain wide range (aiming area), even a player who is unfamiliar with the handling of the controller 210 can easily aim. Further, when aiming at a desired eyelid, even if the aim is shifted due to camera shake or the like, it is only required to include the desired eyelid, so that strictness is not required. Therefore, even an inexperienced player can easily aim. Then, after the desired basket is selected as a candidate object, the player only has to swing the controller 210 in accordance with the arrangement (alignment) of the desired basket objects, which is intuitive and desired by natural operations. You can determine the heel object. As a result, the player can more easily perform the selection operation of the displayed wrinkle object.
  • the wrinkle object included in the aiming area is selected as a candidate object when the button of the controller 210 (for example, the B button 214) is pressed by the player.
  • the method for selecting candidate objects is not limited to such button pressing, and can be changed as appropriate.
  • the candidate object may be selected when a fixed time elapses while the aiming region is held (still stationary).
  • FIG. 12 a game apparatus characterized by selecting a candidate object by holding (stilling) the aiming area will be described.
  • FIG. 12 is a block diagram showing a schematic configuration of a game device according to another embodiment of the present invention.
  • the game apparatus 500 includes a position information acquisition unit 310, an operation information acquisition unit 320, a movement information acquisition unit 330, an image information storage unit 340, an arrangement information management unit 350, a display control unit 360, and a processing control unit. 570. Note that the only difference from the game device 300 of FIG. 4 described above is the difference between the process control unit 370 and the process control unit 570. That is, the position information acquisition unit 310 to the display control unit 360 are substantially the same as the game apparatus 300 of FIG. 4 described above.
  • the process control unit 570 includes an aiming area calculation unit 371, a candidate object selection unit 372, an object determination unit 373, a game progress unit 374, and a holding time counting unit 571.
  • the processing control unit 570 has a configuration in which a holding time timer 571 is added to the processing control unit 370 of the game apparatus 300 described above. That is, the aiming area calculation unit 371 to the game progress unit 374 are substantially the same as the processing control unit 370 described above.
  • the CPU 101 can function as the processing control unit 570 having such a configuration.
  • the holding time timer 571 measures the time during which the aiming area is held. That is, the time that the controller 210 is stationary by the player is counted. For example, the holding time timer 571 determines that the controller 210 is stationary (or hardly moved) based on the movement information (such as acceleration in three axes) acquired by the movement information acquisition unit 330. Then, the time measurement from that time is started (time measurement is started from zero). When the movement of the controller 210 is determined (when the stationary state is interrupted), the time measurement is stopped. Then, when it is determined that the controller 210 is stationary, the time measurement is started again from zero. Thus, the controller 210 counts the time during which the controller 210 is stationary, and when the fixed time has elapsed, the holding time timer 571 notifies the candidate object selector 372 that the aiming area has been held for a fixed time.
  • the movement information such as acceleration in three axes
  • the candidate object selecting unit 372 receives this notification from the holding time measuring unit 571, if there is a kite object included in the aiming area, the candidate object selecting unit 372 selects the kite object as a candidate object.
  • the player holds the aiming area as it is because the controller 210 is stopped in a state where the aiming mark is overlaid on the desired eyelid. Then, when a certain period of time elapses, the candidate object selection unit 372 selects a plurality of eyelid objects Obj included in the aiming area SA as candidate objects, as described with reference to FIGS. 7A to 7D described above.
  • the bag object determined according to the direction in which the controller 210 is swung is determined from the candidate objects. That is, as described with reference to FIGS. 8A to 8C described above, the object determining unit 373 selects a wrinkle object determined according to the direction in which the controller 210 is swung (for example, the moving direction of the tip) as a candidate object. Decide from within.
  • the player may aim at a desired eyelid in a certain wide range (aiming area) and stop as it is, so that even a player unfamiliar with the handling of the controller 210 can aim relatively easily. Can be combined. Then, after the desired basket is selected as a candidate object, the player only has to swing the controller 210 in accordance with the arrangement (alignment) of the desired basket objects, which is intuitive and desired by natural operations. You can determine the heel object. As a result, the player can more easily perform the selection operation of the displayed wrinkle object.
  • the method for selecting candidate objects is arbitrary, and for example, a candidate object recommended by the game apparatus 300 or 500 as a throw-away can be selected.
  • the processing control units 370 and 570 may perform a predetermined discarding theory. A plurality of (for example, up to the top three) bags that are unnecessary in the current procedure are selected by the logic along the line.
  • the enlarged image of the candidate object is synthesized on the game screen, and the object determining unit 373 determines the wrinkle object determined according to the direction in which the controller 210 is shaken. Also in this case, the player can more easily perform the selection operation of the displayed saddle object.
  • the mahjong game has been described as an example.
  • the present invention is not limited to such a mahjong game, and any other object such as a card game or the like (designated image) specified by the controller 210 (array image) is designated.
  • Any game can be applied as appropriate. That is, in the above-described mahjong game, as shown in FIG. 5, a case has been described in which an arbitrary spear object is designated from an array image in which the spider objects are arranged in a row in the horizontal direction. Other than the above, if the objects are arranged adjacent to each other (adjacent), the same applies.
  • the cards may be arranged adjacent to each other in a fan shape so that the cards are spread out by hand, or may be arranged adjacent to each other in the vertical direction or the diagonal direction. May be.
  • the present invention can be applied as appropriate even in the case where the cards are arranged randomly, such as Trump's nervous breakdown.
  • a game device in which an object or the like is operated by a controller directed to the display device, a game device suitable for a player to more easily perform an operation for selecting an object to be displayed, An object selection method, an information recording medium, and a program can be provided.
  • Information processing apparatus 101
  • CPU 102
  • ROM 103
  • RAM 104
  • Controller unit 106
  • External memory 107
  • DVD-ROM drive 108
  • Image processing unit 109
  • Audio processing unit 110
  • NIC 210
  • Controller 211
  • CCD Camera 212
  • Cross Key 213 A Button 214
  • B Button 215 Various Buttons 216
  • Power Button 220 Sensor Bar 221 Light Emitting Element 290 Display 300,500
  • Game Device 301
  • Control Unit 302
  • Aiming Area Detection Unit 303
  • Selection Unit 304
  • Determination Unit 305
  • Movement direction detection unit 310
  • Position information acquisition unit 320
  • Operation information acquisition unit 330
  • Movement information acquisition unit 340
  • Image information storage unit 350
  • Arrangement information management unit 360
  • Processing control unit 371
  • Candidate object selection unit 373
  • Object determination part Game progress part 571 Holding time timer part

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

表示装置に向けたコントローラによってオブジェクトなどを操作するゲーム装置(300)において、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことのできるゲーム装置(300)等を提供する。照準領域算定部(371)は、位置情報取得部(310)から得られる位置情報により、コントローラによって指し示される表示画面上の照準領域を算定する。候補オブジェクト選定部(372)は、操作情報取得部(320)から得られるボタン操作情報により、コントローラのBボタンが押下されたことを判別すると、照準領域に含まれる牌オブジェクトを候補オブジェクトとして選定する。オブジェクト決定部(373)は、候補オブジェクトが選定された状態で、プレイヤによりコントローラが振られた場合に、その振られた方向に応じて定まる牌オブジェクトを、候補オブジェクトの中から決定する。

Description

ゲーム装置、オブジェクト選択方法、情報記録媒体、および、プログラム
 本発明は、表示装置に向けたコントローラによってオブジェクトを操作するゲーム装置において、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことのできるゲーム装置、オブジェクト選択方法、情報記録媒体、および、プログラムに関する。
 従来より、麻雀ゲームやカードゲーム(トランプや花札等)をプレイすることのできるゲーム装置(ビデオゲーム装置等)が知られている。このようなゲーム装置では、表示される手牌や手札の中から、プレイヤが任意の牌や札を選んで、場に捨てる操作が行われている。
 具体的には、麻雀ゲームを実行する家庭用ゲーム装置では、コントローラの方向キーや決定ボタン等を用いて、捨て牌操作(打牌操作)が行えるようになっている。一例として、手牌の中から捨て牌を選択するためのカーソルが、方向キーの押下に応じて移動可能となっており、プレイヤが所望の牌までカーソルを移動させた後に、決定ボタンを押下することにより、捨て牌操作が行われる。
 このようなゲーム装置の先行技術として、捨て牌等をプレイヤが決定する際に、誤操作によるミスをできるだけ防止することのできる項目決定装置等の発明が開示されている(例えば、特許文献1参照)。
特開2007-97669号公報 (第16-28頁、第3図)
 最近では、コントローラに特徴のある新型のゲーム装置が発売され、人気を博している。
 この新型のゲーム装置では、新発想のコントローラが使用され、直感的な操作が行えるようになっている。例えば、新発想のコントローラをプレイヤが片手で持ち、画面に向けて狙いをつけることで、ゲーム中のオブジェクトを直接指定等できるといった機能が付加されている。
 しかしながら、このような新型のゲーム装置にて麻雀ゲームやカードゲームが実行される場合には、従来型のコントローラが使用されることが多かった。つまり、新発想のコントローラの代わりに、従来型のコントローラをゲーム装置に接続し、上述したように、方向キーを押下してカーソルを所望の牌(札)まで移動させ、決定ボタンを押下する等により、捨て牌(札)操作が行われていた。
 また、新発想のコントローラがそのまま使用される場合もあるが、その場合でも従来型のコントローラと同じ機能だけが使われ、新発想のコントローラの機能を十分に活かしきれていないのが現状であった。
 その理由は、新発想のコントローラの機能を使って捨て牌(札)操作を行うとした場合では、以下のような問題が生じることが予想されるからである。
 すなわち、ゲーム画面上の牌(札)を新発想のコントローラから狙って直接指定するとなると、配列された手牌(手札)の中から、所望の牌(札)を正確に狙う必要があるため、操作が困難になると考えられる。
 つまり、ゲーム画面上の手牌(手札)は、比較的小さな牌(札)が隣接して配列されているため、目的の牌(札)になかなか狙いがつかなかったり、一旦狙いがついたとしても手ぶれ等で別の牌(札)に狙いが移ってしまう等の状況が生じ得る。このような状況では、快適な操作を妨げてしまうだけでなく、誤操作(誤選択)も生じ易くなるため、ゲーム自体の面白みを低下させてしまうことが懸念される。
 そのため、麻雀ゲームやカードゲームをプレイする際においても、新発想のコントローラの機能を活かしつつ、プレイヤが捨て牌(札)操作等を容易に行うことのできる技術が求められていた。
 本発明は、このような課題を解決するためになされたもので、表示装置に向けたコントローラによってオブジェクトなどを操作するゲーム装置において、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことのできるゲーム装置、オブジェクト選択方法、情報記録媒体、および、プログラムを提供することを目的とする。
 本発明の第1の観点に係るゲーム装置は、表示装置に向けられたコントローラにより、任意のオブジェクトを指定して操作するゲーム装置であって、表示制御部、照準領域検出部、選定部、及び、決定部を含んで構成される。
 まず、表示制御部は、複数のオブジェクト(例えば、牌や札等)が配列された配列画像(例えば、手牌や手札)を表示画面に表示する。また、照準領域検出部は、コントローラにより指し示される表示画面上の照準領域を検出する。選定部は、検出された照準領域に基づいて、表示される配列画像の中から複数の候補オブジェクトを選定する。そして、決定部は、選定された候補オブジェクトの中から、コントローラの向き又は姿勢の変化(例えば、コントローラが振られた方向)に応じてオブジェクトを決定する。
 つまり、最初に、ある程度の広い範囲の照準領域でオブジェクトを選定するため、コントローラで所望のオブジェクトを狙う際に、それほど高い精度を必要とせず、不慣れなプレイヤであっても、簡単に狙えるようになる。
 そして、選定されたオブジェクトの中から、所望のオブジェクトを決定する際に、その配置(並び)に応じて、コントローラの向き又は姿勢を変えればよいため(例えば、振ればよいため)、直感的であり、かつ、自然な操作で所望のオブジェクトを決定することができる。
 この結果、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことができる。
 本発明の第2の観点に係るゲーム装置は、所定のセンサを有するコントローラがプレイヤによって把持され、当該プレイヤが当該コントローラを表示画面に向け、任意のオブジェクトを指定して処理を命ずるゲーム装置であって、表示制御部、照準領域検出部、選定部、移動方向検出部、及び、決定部を含んで構成される。
 まず、表示制御部は、指定対象となり得る複数のオブジェクト(例えば、牌や札等)が隣接して配列された配列画像(例えば、手牌や手札)を表示画面に表示する。また、照準領域検出部は、コントローラにより指し示される表示画面上の照準領域を、コントローラの位置及び先端の向きに基づいて検出する。選定部は、表示された配列画像と検出された照準領域との位置関係に基づいて、配列画像の中から複数の候補オブジェクトを選定する。移動方向検出部は、センサから供給される情報を取得し、コントローラの移動方向(例えば、コントローラが振られた方向)を検出する。そして、決定部は、候補オブジェクトが選定された状態で、検出された移動方向に応じて定まるオブジェクトを、候補オブジェクトの中から決定する。
 つまり、最初に、ある程度の広い範囲の照準領域でオブジェクトを選定するため、コントローラで所望のオブジェクトを狙う際に、それほど高い精度を必要とせず、不慣れなプレイヤであっても、簡単に狙えるようになる。
 そして、選定したオブジェクトの中から、所望のオブジェクトを決定する際に、その配置(並び)に応じて、コントローラを移動させればよいため(例えば、振ればよいため)、直感的であり、かつ、自然な操作で所望のオブジェクトを決定することができる。
 この結果、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことができる。
 コントローラには、所定のボタンが配置されており、選定部は、当該ボタンが押下された時点での当該照準領域に属する当該配列画像における複数のオブジェクトを、候補オブジェクトとして選定してもよい。
 つまり、プレイヤがコントローラの所定のボタンを押下した際に、候補オブジェクトを選定することにより、選定のタイミングをプレイヤが指定できるようになる。
 この結果、プレイヤは、表示画面上の照準領域を見ながら、より直感的に候補オブジェクトを選定することができる。
 照準領域検出部は、当該照準領域を規定時間毎に順次検出し、選定部は、順次検出される当該照準領域の表示画像上の位置が維持されたまま、一定時間が経過すると、当該照準領域に含まれる当該配列画像における複数のオブジェクトを、候補オブジェクトとして選定してもよい。
 つまり、プレイヤは、ある程度の広い照準領域にて所望のオブジェクトを狙い、そのまま、静止させればよいため、コントローラの扱いに不慣れなプレイヤであっても、比較的容易に照準を合わせることができる。
 この結果、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことができる。
 表示制御部は、選定された当該各候補オブジェクトの拡大画像を、当該配列画像に対応させて表示し、決定部は、表示される当該拡大画像中の当該各候補オブジェクトの並びと、当該コントローラの向きが変化する方向との関係に応じて、当該候補オブジェクトの中からオブジェクトを決定してもよい。
 つまり、プレイヤは、比較的大きく表示された候補オブジェクトを狙うため、手ぶれ等で別のオブジェクトに狙いが移ることがない。
 この結果、誤操作(誤選択)が生じにくくなるため、選択操作によりゲーム自体の面白みが低下することがない。
 本発明の第3の観点に係るオブジェクト選択方法は、表示装置に向けられたコントローラにより、任意のオブジェクトを指定して操作するゲーム装置におけるオブジェクト選択方法であって、ゲーム装置は、照準領域検出部と、選定部と、決定部と、表示制御部と、コントローラを含むコントローラユニットとを有しており、表示ステップ、照準領域検出ステップ、選定ステップ、及び、決定ステップを含んで構成される。
 まず、表示ステップでは、表示制御部が、複数のオブジェクト(例えば、牌や札等)が配列された配列画像(例えば、手牌や手札)を表示画面に表示する。また、照準領域検出ステップでは、照準領域検出部が、コントローラにより指し示される表示画面上の照準領域を、コントローラユニットを使用して検出する。選定ステップでは、選定部が、検出された照準領域に基づいて、表示される配列画像の中から複数の候補オブジェクトを選定する。そして、決定ステップでは、決定部が、選定された候補オブジェクトの中から、コントローラの向き又は姿勢の変化(例えば、コントローラが振られた方向)に応じてオブジェクトを決定する。
 つまり、最初に、ある程度の広い範囲の照準領域でオブジェクトを選定するため、コントローラから所望のオブジェクトを狙う際に、それほど高い精度を必要とせず、不慣れなプレイヤであっても、簡単に狙えるようになる。
 そして、選定されたオブジェクトの中から、所望のオブジェクトを決定する際に、その配置(並び)に応じて、コントローラの向き又は姿勢を変えればよいため(例えば、振ればよいため)、直感的であり、かつ、自然な操作で所望のオブジェクトを決定することができる。
 この結果、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うことができる。
 本発明の第4の観点に係るプログラムは、コンピュータ(電子機器を含む。)を、上記のゲーム装置として機能させるように構成する。
 このプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。
 上記プログラムは、当該プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、当該コンピュータとは独立して配布・販売することができる。
 本発明によれば、表示装置に向けたコントローラによってオブジェクトなどを操作するゲーム装置において、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うのに好適なゲーム装置、オブジェクト選択方法、情報記録媒体、および、プログラムを提供することができる。
本発明の実施形態に係る情報処理装置の概要構成を示す模式図である。 コントローラユニットの概要を説明するための外観図である。 本発明の実施形態に係るゲーム装置の概要構成を示すブロック図である。 本発明の実施形態に係るゲーム装置の概要構成を示すブロック図である。 表示画像(ゲーム画面)の一例を示す模式図である。 コントローラの位置及び方向に基づく照準領域の算定について説明するための模式図である。 算定された照準領域を説明するための模式図である。 候補オブジェクトの選定を説明するための模式図である。 候補オブジェクトの選定を説明するための模式図である。 候補オブジェクトの選定を説明するための模式図である。 候補オブジェクトの選定を説明するための模式図である。 コントローラを振ることにより、候補オブジェクトから1つの牌オブジェクトを決定する様子を説明するための模式図である。 コントローラを振ることにより、候補オブジェクトから1つの牌オブジェクトを決定する様子を説明するための模式図である。 コントローラを振ることにより、候補オブジェクトから1つの牌オブジェクトを決定する様子を説明するための模式図である。 本発明の実施形態に係る捨て牌処理の一例を示すフローチャートである。 照準マークを説明するための模式図である。 牌オブジェクト上に照準マークが表示される様子を説明するための模式図である。 候補オブジェクトの拡大画像を説明するための模式図である。 牌オブジェクト上に、候補オブジェクトの拡大画像が表示される様子を説明するための模式図である。 候補オブジェクトの拡大画像の他の実施形態の一例を説明するための模式図である。 本発明の他の実施形態に係るゲーム装置の概要構成を示すブロック図である。
 以下に本発明の実施形態を説明する。以下では、理解を容易にするため、ゲーム装置に本発明が適用される実施形態を説明するが、各種のコンピュータ、PDA、携帯電話などの情報処理装置においても同様に本発明を適用することができる。すなわち、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
 図1は、本発明の実施の形態に係るゲーム装置が実現される典型的な情報処理装置の概要構成を示す模式図である。以下、本図を参照して説明する。
 情報処理装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、インターフェース104と、コントローラユニット105と、外部メモリ106と、DVD(Digital Versatile Disk)-ROMドライブ107と、画像処理部108と、音声処理部109と、NIC(Network Interface Card)110と、を備える。
 なお、ゲーム用のプログラムおよびデータを記憶したDVD-ROMをDVD-ROMドライブ107に装着して、情報処理装置100の電源を投入することにより、当該プログラムが実行され、本実施形態のゲーム装置が実現される。
 CPU 101は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。
 ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録され、これが実行されることにより、DVD-ROMに記録されたプログラムをRAM 103に読み出してCPU 101による実行が開始される。また、ROM 102には、情報処理装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録される。
 RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD-ROMから読み出したプログラムやデータ、その他ゲームの進行やチャット通信に必要なデータが保持される。
 インターフェース104を介して接続された、コントローラユニット105は、ユーザがゲーム実行の際に行う操作入力を受け付ける。より詳細には、後述するコントローラ210がプレイヤにより操作され、その操作情報等を無線通信により受け付ける。なお、コントローラユニット105の詳細については後述する。
 インターフェース104を介して着脱自在に接続された外部メモリ106には、ゲームの進行状態を示すデータ、チャット通信のログ(記録)のデータなどが書き換え可能に記憶される。ユーザは、コントローラユニット105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記録することができる。なお、外部メモリ106は、SDカード等であってもよい。
 DVD-ROMドライブ107に装着されるDVD-ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記録される。CPU 101の制御によって、DVD-ROMドライブ107は、これに装着されたDVD-ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。
 画像処理部108は、DVD-ROMから読み出されたデータをCPU 101や画像処理部108が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部108が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号(映像信号)に変換され画像処理部108に接続されるモニタ(後述するディスプレイ290)へ出力される。これにより、各種の画像表示が可能となる。
 なお、画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。
 また、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを俯瞰したレンダリング画像を得る演算の高速実行も可能である。
 さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。フォント情報は、ROM 102に記録されているが、DVD-ROMに記録された専用のフォント情報を利用することも可能である。
 音声処理部109は、DVD-ROMから読み出した音声データをアナログ音声信号に変換し、外部のスピーカ(後述するディスプレイ290のスピーカ)に供給して音声を出力させる。例えば、音声処理部109は、CPU 101による制御の下、ゲームの進行中に発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。
 NIC 110は、情報処理装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE-T/100BASE-T規格に従うものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)により構成される。
 このほか、情報処理装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD-ROMドライブ107に装着されるDVD-ROM等と同じ機能を果たすように構成してもよい。
 また、ユーザからの文字列の編集入力を受け付けるためのキーボードや、各種の位置の指定および選択入力を受け付けるためのマウスなどを接続する形態も採用することができる。
 また、本実施形態の情報処理装置100にかえて、一般的なコンピュータ(汎用のパーソナルコンピュータ等)をゲーム装置として利用することもできる。たとえば、一般的なコンピュータは、上記情報処理装置100と同様に、CPU、RAM、ROM、DVD-ROMドライブ、および、NICを備え、情報処理装置100よりも簡易な機能となる画像処理部を備え、外部記憶装置としてハードディスクを有する他、フレキシブルディスク、光磁気ディスク、磁気テープ等が利用できるようになっている。また、コントローラではなく、キーボードやマウスなどを入力装置として利用する。そして、ゲームプログラムをインストールした後に、そのプログラムを実行させると、ゲーム装置として機能する。
 (コントローラユニットの概要)
 図2は、上述したコントローラユニット105の概要を説明するための外観図である。
 コントローラユニット105は、図示するようなコントローラ210とセンサバー220とを含んで構成される。情報処理装置100は、所定のケーブルを介してセンサバー220及びディスプレイ290とそれぞれ接続されている。
 コントローラ210は、例えば、テレビ等のリモコンと類似した外観を有し、情報処理装置100とワイヤレスで(無線通信によって)接続され、プレイヤが片手で持ってそのまま操作可能なコントローラである。
 また、センサバー220は、所定の長さの棒状に形成され、ディスプレイ290の上部に、画面の向きに沿って適宜固定される。このセンサバー220には、両端に1つずつ発光素子221が埋設されている。なお、埋設される発光素子221の数は一例であり、これらの数より多くてもよい。
 センサバー220は、情報処理装置100から電源供給を受けて発光素子221を適宜発光させる。
 コントローラ210は、先端にCCDカメラ211が配置され、先端がディスプレイ290に向けられると、このCCDカメラ211がセンサバー220の2つの発光素子221(2つの発光点)を含む画像を撮影する。また、コントローラ210は、内部に無線通信部を備えており、撮影した画像の情報を、無線通信にて情報処理装置100に順次送信する。
 そして、情報処理装置100は、コントローラ210から送られた画像中における2つの発光点の位置関係等に基づいて、コントローラ210の位置及び向き等を適宜取得する。例えば、CPU 101及び画像処理部108等は、コントローラ210から見える2つの発光点の位置関係等を解析して、コントローラ210の空間位置及び、その先端の向き(長手軸線の方向)を算定し、最終的に、プレイヤがコントローラ210を画面上のどこに向けて操作しているか等を取得する。
 なお、このようなコントローラ210の位置等の計測は、例えば、垂直同期割り込み(1/60秒)毎に行われる。
 また、コントローラ210は、内部に、3軸の加速度センサを備えており、コントローラ210の3軸方向の動きを測定することが可能となっている。なお、このような加速度センサの代わりに、角加速度センサや傾きセンサ等により、コントローラ210の動きを測定してもよい。
 コントローラ210は、このような測定結果(例えば、3軸それぞれの加速度情報)を情報処理装置100に順次送信する。
 そして、情報処理装置100は、コントローラ210から送られる測定結果に基づいて、コントローラ210の動きを検出する。例えば、プレイヤがコントローラ210を振る、ひねる、突くといった動作やその移動方向を取得する。
 なお、このようなコントローラ210の動きの検出も、例えば、垂直同期割り込み毎に行われる。
 コントローラ210の上面には、十字形キー212が配置されており、プレイヤが手に持って操作する際に、各種の方向指示入力等を行うことができる。また、Aボタン213や、各種ボタン215も上面に配置されており、当該ボタンに対応付けられた指示入力を行うことができる。
 一方、Bボタン214は、コントローラ210の下面に配置され、その下面に窪みが構成されていることもあり、プレイヤが手に持って操作する際に、トリガを引くように押下することができるようになっている。
 コントローラ210の上面のインジケータ216は、コントローラ210が複数使用された場合でもプレイヤが識別できるように、適宜点灯する。
 コントローラ210の上面に用意された電源ボタン217は、例えば、情報処理装置100のオン・オフを指示する。
 更に、コントローラ210の内部には、バイブレータ等の振動機構が配置され、情報処理装置100から送られる指示に応答して、振動を発生させることもできるようになっている。
 以下では、このようなコントローラ210とセンサバー220との組合せによって、コントローラ210の位置等を測定することを前提に説明する。なお、コントローラ210の位置の測定は、センサバー220の発光点(発光素子221)をCCDカメラ211が撮影する手法に限られず、他の手法でも適宜適用可能である。例えば、センサバー220を介した2地点間の無線通信の時差等から、コントローラ210の位置等を求めてもよく、また、超音波や赤外線等を使用して、三角測量の原理にてコントローラ210の位置等を求めてもよい。
 ここで、三角測量とは、ある2点間の正確な距離(本実施形態においては、センサバー220上の2点の距離)が既知の場合、前記2点を結ぶ線分と測定対象物との両端角(本実施形態においては、センサバー220上の2点とコントローラ210との両端角)を検知し、「三角形の一辺とその両端角が分かれば三角形が確定する」という性質によって測定対象物(本実施形態においては、コントローラ210)の位置を計測する手法を指す。
 (ゲーム装置の概要構成)
 図3は、本実施形態に係るゲーム装置の概要構成を示すブロック図である。このゲーム装置300は、表示制御部360及び照準領域検出部302、選定部303、決定部304、移動方向検出部305を含む制御部301等から構成される。
 表示制御部360は、複数のオブジェクト(例えば、牌や札等)が配列された配列画像を表示画面に表示する。照準領域検出部302は、コントローラ210により指し示される表示画面上の照準領域を検出する。選定部303は、検出された照準領域に基づいて、表示される配列画像の中から複数の候補オブジェクトを選定する。決定部304は、選定された候補オブジェクトの中から、移動方向検出部305において検出するコントローラ210の向き又は姿勢の変化に応じて決定する。移動方向検出部305は、決定部304に含まれ、適宜省略することができる。
 なお、CPU 101が、制御部301として機能しうる。
 以下では、ゲーム装置300の一例についてさらに詳細に説明する。
 図4は、本実施形態に係るゲーム装置の概要構成を示すブロック図である。このゲーム装置300は、一例として、麻雀ゲームにおいて、ディスプレイ290に向けたコントローラ210によって、ゲーム画面上の手牌(配列画像)の中から任意の牌を指定して捨てる(打牌する)捨て牌操作等を行う装置である。以下、本図を参照して説明する。
 ゲーム装置300は、位置情報取得部310と、操作情報取得部320と、移動情報取得部330と、画像情報記憶部340と、配置情報管理部350と、表示制御部360と、処理制御部370とを備える。
 まず、位置情報取得部310は、プレイヤによって把持されるコントローラ210の位置及び向き(先端の方向)からなる位置情報を順次取得する。
 例えば、位置情報取得部310は、ディスプレイ290に対するコントローラ210の空間位置及び、その先端(CCDカメラ211)の向き(長軸線の方向)を求める。より詳細には、コントローラ210の3軸方向(X軸,Y軸,Z軸の各方向)の位置と、コントローラ210の長軸線の方向を順次求める。
 位置情報取得部310は、例えば、垂直同期割り込み(1/60秒)毎に、このような3軸方向の各位置と長軸線の方向からなる位置情報を生成し、処理制御部370に順次供給する。
 そして、コントローラユニット105が、このような位置情報取得部310として機能しうる。
 操作情報取得部320は、コントローラ210から無線通信により送られるボタン操作情報を取得し、プレイヤによるコントローラ210のボタン操作の内容を順次取得する。つまり、プレイヤがコントローラ210のどのボタンを押下したか等をリアルタイムに取得する。
 なお、インターフェース104等が、このような操作情報取得部320として機能しうる。
 移動情報取得部330は、コントローラ210における3軸方向の動き(加速度等)を示す移動情報を順次取得する。
 例えば、移動情報取得部330は、プレイヤによりコントローラ210が振られた場合に、コントローラ210の移動方向(一例として、先端の移動方向)を取得する。この他にも移動情報取得部330は、プレイヤによりコントローラ210がひねられた場合や突かれたり引かれたりした場合等にも、コントローラ210の移動方向を取得する。
 そして、コントローラユニット105が、このような移動情報取得部330として機能しうる。
 画像情報記憶部340は、麻雀牌の各オブジェクト(牌オブジェクト)を含む画像情報を記憶する。
 例えば、画像情報記憶部340は、萬子(一萬~九萬)、筒子(一筒~九筒)、索子(一索~九索)、字牌(風牌と三元牌)といった各牌オブジェクトの画像情報を記憶する。また、この他にも、画像情報記憶部340は、点棒やサイコロ等のような、麻雀ゲームを実行する際に必要となる各種オブジェクトの画像情報も記憶している。
 なお、DVD-ROMドライブ107に装着されるDVD-ROM及び、RAM 103が、このような画像情報記憶部340として機能しうる。
 配置情報管理部350は、手牌の配列(組み合わせや並び)を含む牌オブジェクトの配置情報を管理する。
 例えば、配置情報管理部350は、ゲーム中におけるプレイヤの手牌の配置情報を管理する。つまり、配牌、自摸、捨て牌(打牌)、副露(ポン、チー、カン)といったゲーム中に変化する手牌の配列を管理する。また、この他にも、配置情報管理部350は、各プレイヤの河に捨てられた牌の配置情報等も管理する。
 なお、CPU 101及びRAM 103がこのような配置情報管理部350として機能しうる。
 表示制御部360は、画像情報記憶部340に記憶された画像情報及び、配置情報管理部350に管理された配置情報等に基づいて、ゲーム画像を生成する。
 具体的に表示制御部360は、図5に示すような表示画像(ゲーム画面)を生成する。この表示画像には、手牌を示す各牌オブジェクトの配列画像HGが含まれている。つまり、配列画像HGは、プレイヤが現在保有している牌オブジェクトの配列を示しており、各牌オブジェクトが横方向に一列に隣接して(それぞれ隣り合って)配置されている。
 プレイヤは、このような手牌(配列画像HG)の中から、コントローラ210によって任意の牌を指定(決定)して、捨て牌(打牌)する捨て牌操作を行うことになる。そのために、表示制御部360は、後述するように、コントローラ210により指し示されるゲーム画面上の照準領域を示す照準マークや、照準領域に応じて選ばれる候補オブジェクトの拡大画像等を生成する。
 なお、画像処理部108が、このような表示制御部360として機能しうる。
 図4に戻って、処理制御部370は、ゲーム装置300全体を制御する。例えば、処理制御部370は、照準領域算定部371、候補オブジェクト選定部372、オブジェクト決定部373、及び、ゲーム進行部374を含んで構成される。
 本実施形態においては、照準領域検出部302は照準領域算定部371によって、選定部303は候補オブジェクト選定部372によって、決定部304はオブジェクト決定部373によって実現される。
 照準領域算定部371は、位置情報取得部310にて取得された位置情報に基づいて、コントローラ210から指し示されるディスプレイ290(ゲーム画面)上の照準領域を順次算定する。
 具体的に照準領域算定部371は、まず、取得した位置情報からコントローラ210の実空間位置(X軸,Y軸,Z軸方向の各位置)及び、その先端(発光素子211)の向き(長軸線の方向)を求める。そして、図6Aに示すように、求めたコントローラ210の位置及び長軸線Lの方向に基づいて、画面Scr(ディスプレイ290)上の照準位置Spを求める。
 次に、照準領域算定部371は、求めた照準位置Spを中心にして、所定の半径の円により囲まれる照準領域SAを算定する。一例として、図6Bに示すように、手牌(配列画像)における3つ分の牌オブジェクトObjを囲むことができる程度の大きさとなる照準領域SAを算定する。
 なお、照準領域SAの形状は一例であり、このような円形に限られず、矩形等のような他の形状であってもよい。また、照準領域SAの大きさ(範囲)も一例であり、適宜変更可能である。
 照準領域算定部371は、算定したこのような照準領域の情報を、候補オブジェクト選定部372に供給する。また、このような照準領域をプレイヤが見ることができるように(照準マーク等を表示させるために)、照準領域算定部371は、この照準領域の情報を表示制御部360にも供給する。
 図4に戻って、候補オブジェクト選定部372は、照準領域算定部371が算定した照準領域の情報と、配置情報管理部350にて管理される各オブジェクトの配置情報との位置関係、及び、操作情報取得部320が取得したボタン操作情報に基づいて、複数の牌オブジェクトを候補オブジェクトとして選定する。
 例えば、候補オブジェクト選定部372は、ボタン操作情報によって、コントローラ210のボタン(以下、一例として、Bボタン214)がプレイヤにより押下されたことを検出した際に、照準領域に含まれる牌オブジェクトがあれば、その牌オブジェクトを候補オブジェクトとして選定する。なお、照準領域に含まれるか否かは、一例として、牌オブジェクトの中心(又は、重心)が、照準領域内に属しているかどうかにより判断される。
 具体的には、図7Aに示すように、手牌(配列画像HG)上に、照準領域SAが重なっている状況で、コントローラ210のBボタン214が押下されると、候補オブジェクト選定部372は、照準領域SAに含まれる「南」「西」「発」の3つの牌オブジェクトObjを候補オブジェクトとして選定する。
 また、図7Bに示すような状況で、コントローラ210のBボタン214が押下されると、候補オブジェクト選定部372は、照準領域SAに完全に含まれる「南」「西」と、中心が照準領域SAに含まれる「三索」との合計3つの牌オブジェクトObjを候補オブジェクトとして選定する。なお、「発」は、その中心が照準領域SAから外れているものとする。
 また、図7Cに示すような状況で、コントローラ210のBボタン214が押下されると、候補オブジェクト選定部372は、照準領域SAに含まれる「一筒」「七筒」「七筒」の3つの牌オブジェクトObjを候補オブジェクトとして選定する。
 なお、この場合、「七筒」「七筒」が重複しているため、「一筒」「七筒」の2つを候補オブジェクトとして、後述する拡大画像を生成してもよい。また、候補オブジェクト選定部372が、重複を判別するようにして、「一筒」「七筒」の2つの牌オブジェクトObjだけを候補オブジェクトとして選定するようにしてもよい。
 更に、図7Dに示すような状況で、コントローラ210のBボタン214が押下されると、候補オブジェクト選定部372は、照準領域SAに含まれる「二萬」「八萬」の2つの牌オブジェクトObjを候補オブジェクトとして選定する。
 なお、候補オブジェクトの選定手法は、このような牌オブジェクトの中心が、照準領域内に属しているかどうかに限られず、適宜変更可能である。例えば、照準領域に完全に含まれる牌オブジェクトだけを選定してもよく、逆に、照準領域に一部でも含まれていればそれらを全て選定してもよい。つまり、上記の図7Bの場合を一例とすると、照準領域SAに完全に含まれる「南」「西」の2つの牌オブジェクトObjだけを選定してもよく、逆に、この「南」「西」と、照準領域SAに一部が含まれる「三索」「発」との合計4つの牌オブジェクトObjを選定してもよい。
 候補オブジェクト選定部372は、このようにして選定した候補オブジェクトの情報を、オブジェクト決定部373に供給する。また、このように選定された候補オブジェクトをプレイヤが知る(見る)ことができるように(拡大画像等を表示させるために)、候補オブジェクト選定部372は、この候補オブジェクトの情報を表示制御部360にも供給する。
 図4に戻って、オブジェクト決定部373は、選定された候補オブジェクトの中から、移動情報取得部330にて取得された移動情報(3軸方向の加速度等)に基づいて、1つの牌オブジェクトを決定する。
 例えば、オブジェクト決定部373は、候補オブジェクトが選定された状態で、プレイヤによりコントローラ210が振られた場合に、その振られた方向(一例として、先端の移動方向)に応じて定まる牌オブジェクトを、候補オブジェクトの中から決定する。
 一例として、3つの牌オブジェクト(プレイヤから見て左端、真ん中、右端の牌オブジェクト)が候補オブジェクトとして選定されている場合、コントローラ210がプレイヤから見て左方向に振られると、左端の牌オブジェクトが決定され、また、上方向に振られると、真ん中の牌オブジェクトが決定され、そして、右方向に振られると、右端の牌オブジェクトが決定される。
 具体的には、図8Aに示すように、左端の牌オブジェクトObjL(南)、真ん中の牌オブジェクトObjC(西)、及び、右端の牌オブジェクトObjR(発)からなる3つの牌オブジェクトが候補オブジェクトとして選定されている状態で、プレイヤによりコントローラ210が上に振られたとする。この場合、オブジェクト決定部373は、上方向に対応する牌オブジェクトObjC(西)を決定する。
 また、同じ候補オブジェクトで、図8Bに示すように、コントローラ210が左に振られた場合、オブジェクト決定部373は、左方向に対応する牌オブジェクトObjL(南)を決定する。
 更に、同じ候補オブジェクトで、図8Cに示すように、コントローラ210が右に振られた場合、オブジェクト決定部373は、右方向に対応する牌オブジェクトObjR(発)を決定する。
 なお、コントローラ210が振られた方向(移動方向)は、ある程度の許容範囲が設けられており、厳密に、水平方向(左/右方向)や垂直方向(上方向)に振られていなくとも、左/右方向や上方向であることを判別(検出)できるようになっている。
 また、図8A~図8Cでは、3つの牌オブジェクトが候補オブジェクトとして選定されている場合を説明したが、他の数の牌オブジェクトが候補オブジェクトとして選定されている場合にも適宜適用可能である。
 例えば、2つの牌オブジェクト(プレイヤから見て左端、右端の牌オブジェクト)が候補オブジェクトとして選定されている場合、コントローラ210がプレイヤから見て左方向に振られると、オブジェクト決定部373は、左端の牌オブジェクトを決定し、また、右方向に振られると、右端の牌オブジェクトを決定するようにしてもよい。
 図4に戻って、オブジェクト決定部373は、このようにして決定した牌オブジェクトの情報を、ゲーム進行部374、及び、配置情報管理部350に供給する。なお、配置情報管理部350に、決定した牌オブジェクトの情報(つまり、捨て牌の情報)が供給されると、配置情報が更新され、そして、更新された配置情報に基づいて、表示制御部360によりゲーム画面が更新される(つまり、手牌や河の画像が更新される)。
 ゲーム進行部374は、麻雀ゲームの進行を管理する。例えば、プレイヤの自摸、捨て牌、副露(ポン、チー、カン)といったゲームの進行に必要な情報の管理を行う。
 例えば、自摸から捨て牌までに制限時間が設けられている状態で、この制限時間内に、プレイヤが捨て牌を決定できなかった場合(オブジェクト決定部373から決定した牌の情報が得られなかった場合)に、ゲーム進行部374は、所定の牌を捨て牌として決定する。
 具体的には、候補オブジェクトが選定されている状態で、制限時間が経過した場合、ゲーム進行部374は、候補オブジェクト中の所定位置の牌(一例として、右端の牌)を捨て牌として決定する。また、候補オブジェクトが選定されていない状態で、制限時間が経過した場合、ゲーム進行部374は、手牌中の所定位置の牌(一例として、右端の牌)を捨て牌として決定する。
 処理制御部370は、このような照準領域算定部371、候補オブジェクト選定部372、オブジェクト決定部373、及び、ゲーム進行部374が適宜連携して、ゲーム装置300を制御している。
 そして、CPU 101が、このような構成からなる処理制御部370として機能しうる。
 (ゲーム装置の動作の概要)
 図9は、上述した構成のゲーム装置300において、麻雀ゲームのプレイ中に実行される捨て牌処理の流れを示すフローチャートである。以下、この図を参照してゲーム装置300の動作について説明する。
 この捨て牌処理は、全体としての麻雀ゲーム処理の中の一部であり、例えば、ゲーム中において、プレイヤの自摸後、副露(ポン、チー、カン)後等に、繰り返し実行される。
 まず、ゲーム装置300は、コントローラ210の位置情報を取得して、照準領域を算定する(ステップS401)。
 つまり、照準領域算定部371は、位置情報取得部310から供給される位置情報に基づいて、コントローラ210によって指し示されるディスプレイ290(ゲーム画面)上の照準領域を算定する。
 ゲーム装置300は、照準マークをゲーム画面に合成する(ステップS402)。
 すなわち、表示制御部360は、照準領域算定部371から照準領域の情報を得ると、プレイヤが現在の照準領域を見ることができるように、例えば、図10Aに示すような照準マークMKを生成する。つまり、この照準マークMKは、上述した図6Bの照準領域SAの範囲を示すものであり、この照準領域SAをプレイヤが確認できるようにするためのものである。そして、表示制御部360は、生成したこのような照準マークMKを、図10Bに示すように、ゲーム画面に合成する。
 すなわち、図6Bを参照して上述したように、照準領域SAが、手牌(配列画像)における3つ分の牌オブジェクトObjを囲むことができる程度の大きさであるため、図10Bに示すように、照準マークMKによって示される範囲も、3つ分の牌オブジェクトを囲める程度の大きさとなっている。なお、照準領域SAと照準マークMKとは、完全一致に限られず、ある程度、大きさや形が違っていてもよい。
 つまり、プレイヤは、このような牌3つ分程度の範囲を表す照準マークMKを、手牌における所望の牌に重なるように、コントローラ210の向き等を調整することになる。
 なお、このような照準マークMKは、一例であり、形状等を適宜変更してもよい。
 図9に戻って、ゲーム装置300は、プレイヤによりコントローラ210のBボタン214が押下されたか否かを判別する(ステップS403)。
 すなわち、処理制御部370は、操作情報取得部320から取得した操作情報に基づいて、コントローラ210のBボタン214が押下されたかどうかを判別する。
 ゲーム装置300は、コントローラ210のBボタン214が押下されていないと判別すると(ステップS403;No)、上述したステップS401に処理を戻す。
 一方、コントローラ210のBボタン214が押下されたと判別した場合に(ステップS403;Yes)、ゲーム装置300は、照準マークが手牌上であるか否かを判別する(ステップS404)。
 すなわち、処理制御部370は、照準領域算定部371が算定した照準領域が、ゲーム画面中の手牌(配列画像)上に位置しているかどうか、つまり、捨て牌を指定するために、コントローラ210により手牌が狙われている状態であるかどうかを判別する。
 ゲーム装置300は、照準マークが手牌上にないと判別すると(ステップS404;No)、上述したステップS401に処理を戻す。
 一方、照準マークが手牌上にあると判別した場合に(ステップS404;Yes)、ゲーム装置300は、候補オブジェクトを選定する(ステップS405)。
 すなわち、候補オブジェクト選定部372は、手配(配列画像)と照準領域との位置関係に基づいて、候補オブジェクトを選定する。
 つまり、プレイヤは、所望の牌に照準マークが重なっている状態で、コントローラ210のBボタン214を押下することになるため、候補オブジェクト選定部372は、上述の図7A~図7Dを参照して説明したように、照準領域SAに含まれる複数の牌オブジェクトObjを候補オブジェクトとして選定する。
 ゲーム装置300は、候補オブジェクトの拡大画像をゲーム画面に合成する(ステップS406)。
 つまり、表示制御部360は、候補オブジェクト選定部372から候補オブジェクトの情報を得ると、どの牌オブジェクトが候補オブジェクトとして選定されたのかをプレイヤに知らせるために、例えば、図11Aに示すような候補オブジェクトの拡大画像KGを生成し、候補オブジェクトに対応させてゲーム画像に合成する。一例として、図11Bに示すように、拡大画像KGが候補オブジェクト上に重なるように合成する。なお、拡大画像KGの配置(合成位置)は、候補オブジェクトとの対応関係をプレイヤに知らせることを目的としているため、このように重ねるだけでなく、候補オブジェクトの近傍に配置したり、候補オブジェクトと引き出し線等にて結んで少し離れた位置に配置したり、専用の領域に配置するなど適宜変更可能である。
 また、この拡大画像KGには、3方向の矢印マークYm(YmL,YmC,YmR)が付加されている。これらの矢印マークYmは、候補オブジェクトから1つの牌オブジェクトを決定するために、プレイヤがコントローラ210をどの方向に振ればよいかを示している。
 なお、この拡大画像KGは、一例であり、矢印マークYmを付加するかどうかを含めて、適宜変更可能である。例えば、図11Cに示すように、矢印マークを付加せずに候補オブジェクトの配置を変えた拡大画像KGを生成し、それぞれの配置により、プレイヤがコントローラ210をどの方向に振ればよいかを示すようにしてもよい。
 図9に戻って、ゲーム装置300は、コントローラ210が振られたか否かを判別する(ステップS407)。
 すなわち、処理制御部370は、移動情報取得部330から供給される位置情報(加速度等)に基づいて、コントローラ210が振られたかどうかを判別する。例えば、基準値以上の加速度が得られた場合に、処理制御部370は、コントローラ210が振られたと判別する。
 ゲーム装置300は、コントローラ210が振られていないと判別すると(ステップS407;No)、Bボタン214の押下が解除されたか否かを判別する(ステップS408)。
 すなわち、処理制御部370は、操作情報取得部320から取得したボタン操作情報に基づいて、Bボタン214の押下が解除されたかどうかを判別する。
 ゲーム装置300は、コントローラ210のBボタン214の押下が解除されていないと判別すると(ステップS408;No)、上述したステップS407に処理を戻し、ステップS407,S408の処理を繰り返し実行する。
 一方、コントローラ210のBボタン214の押下が解除されたと判別した場合に(ステップS408;Yes)、ゲーム装置300は、上述したステップS401に処理を戻す。つまり、現在の候補オブジェクトの選定を一旦解除し(拡大画像の合成も停止し)、プレイヤが再度、候補オブジェクトの選定からやり直すことができるようにする。
 また、上記のステップS407にて、コントローラ210が振られたと判別した場合に(ステップS407;Yes)、ゲーム装置300は、コントローラ210の移動方向に応じて、牌オブジェクトを決定する(ステップS409)。
 つまり、オブジェクト決定部373は、選定された候補オブジェクトの中から、移動方向に応じて、1つの牌オブジェクトを決定する。
 具体的には、上述の図8A~図8Cを参照して説明したように、オブジェクト決定部373は、コントローラ210が振られた方向(一例として、先端の移動方向)に応じて定まる牌オブジェクトを、候補オブジェクトの中から決定する。
 そして、ゲーム装置300は、決定した牌オブジェクトを捨て牌とし、捨て牌処理を終える。なお、ゲーム装置300は、捨て牌処理を終えた後、麻雀ゲームを更に進行させる。
 このように、プレイヤは、まず、照準マークにて、手牌(配列画像)の中から、所望の牌が含まれるように狙う。つまり、ある程度の広い範囲(照準領域)にて所望の牌を狙えばよいため、コントローラ210の扱いに不慣れなプレイヤであっても、容易に照準を合わせることができる。また、所望の牌を狙う際に、手振れ等により照準がずれたとしても、所望の牌が含まれていればよいため、それほど、厳密さが要求されない。そのため、不慣れなプレイヤであっても、簡単に狙えるようになる。
 そして、所望の牌が候補オブジェクトとして選定された後に、プレイヤは、所望の牌オブジェクトの配置(並び)に応じて、コントローラ210を振ればよいため、直感的であり、かつ、自然な操作で所望の牌オブジェクトを決定することができる。
 この結果、表示される牌オブジェクトの選択操作を、プレイヤがより容易に行うことができる。
 (他の実施形態)
 上記の実施形態では、コントローラ210のボタン(一例として、Bボタン214)がプレイヤにより押下されたことを契機に、照準領域に含まれる牌オブジェクトを候補オブジェクトとして選定する場合について説明した。
 しかしながら、候補オブジェクトを選定する手法は、このようなボタン押下に限られず、適宜変更可能である。例えば、照準領域が保持されたまま(静止されたまま)一定時間が経過することを契機に、候補オブジェクトを選定してもよい。以下、図12を参照して、照準領域の保持(静止)によって、候補オブジェクトを選定することを特徴としたゲーム装置について説明する。
 図12は、本発明の他の実施形態に係るゲーム装置の概要構成を示すブロック図である。
 このゲーム装置500は、位置情報取得部310と、操作情報取得部320と、移動情報取得部330と、画像情報記憶部340と、配置情報管理部350と、表示制御部360と、処理制御部570とを備える。
 なお、上述した図4のゲーム装置300と異なる点は、処理制御部370と処理制御部570との相違だけである。つまり、位置情報取得部310~表示制御部360は、上述した図4のゲーム装置300とほぼ同様である。
 処理制御部570は、照準領域算定部371、候補オブジェクト選定部372、オブジェクト決定部373、ゲーム進行部374、及び、保持時間計時部571を含んで構成される。
 この処理制御部570は、上述したゲーム装置300の処理制御部370に、保持時間計時部571が付加された構成となっている。つまり、照準領域算定部371~ゲーム進行部374は、上述した処理制御部370とほぼ同様である。
 なお、CPU 101が、このような構成からなる処理制御部570として機能しうる。
 保持時間計時部571は、照準領域が保持されている時間を計時する。つまり、プレイヤによりコントローラ210が静止されている時間を計時する。
 例えば、保持時間計時部571は、移動情報取得部330にて取得された移動情報(3軸方向の加速度等)により、コントローラ210が静止している(若しくは、ほとんど移動していない)と判別されると、その時点からの計時を開始する(ゼロから計時を開始する)。なお、コントローラ210の動きが判別されると(静止が途切れると)、計時を止める。そして、次に、コントローラ210の静止を判別すると、再び、ゼロから計時を開始する。
 こうして、コントローラ210が静止されている時間を計時し、一定時間が経過すると、保持時間計時部571は、候補オブジェクト選定部372に、照準領域の保持が一定時間続いた旨を通知する。
 そして、候補オブジェクト選定部372は、保持時間計時部571からのこの通知を受けた際に、照準領域に含まれる牌オブジェクトがあれば、その牌オブジェクトを候補オブジェクトとして選定する。
 つまり、プレイヤは、所望の牌に照準マークが重なっている状態でコントローラ210を静止させるため、照準領域もそのまま保持されることになる。そして、そのまま一定時間が経過すると、候補オブジェクト選定部372は、上述の図7A~図7Dを参照して説明したように、照準領域SAに含まれる複数の牌オブジェクトObjを候補オブジェクトとして選定する。
 その後は、上述したゲーム装置300と同様に、コントローラ210が振られた方向に応じて定まる牌オブジェクトを、候補オブジェクトの中から決定する。つまり、オブジェクト決定部373は、上述の図8A~図8Cを参照して説明したように、コントローラ210が振られた方向(一例として、先端の移動方向)に応じて定まる牌オブジェクトを、候補オブジェクトの中から決定する。
 この場合も、プレイヤは、ある程度の広い範囲(照準領域)にて所望の牌を狙い、そのまま、静止させればよいため、コントローラ210の扱いに不慣れなプレイヤであっても、比較的容易に照準を合わせることができる。
 そして、所望の牌が候補オブジェクトとして選定された後に、プレイヤは、所望の牌オブジェクトの配置(並び)に応じて、コントローラ210を振ればよいため、直感的であり、かつ、自然な操作で所望の牌オブジェクトを決定することができる。
 この結果、表示される牌オブジェクトの選択操作を、プレイヤがより容易に行うことができる。
 上記の実施形態では、照準領域に含まれる牌オブジェクトを候補オブジェクトとして選定する場合について説明した。それでも、候補オブジェクトの選定手法は、任意であり、例えば、ゲーム装置300・500側が演算により求めた、捨て牌として推奨する候補オブジェクトを選定してもよい。
 例えば、手牌上を狙って、コントローラ210のBボタン214が押下されずに、又は、コントローラ210が静止されずに、一定時間が経過すると、処理制御部370・570は、所定の捨て牌理論に沿ったロジックにより、現在の手牌において不要となる牌を複数(例えば、上位3つまでの牌)選定する。
 そして、上記と同様に、候補オブジェクトの拡大画像をゲーム画面に合成し、コントローラ210が振られた方向に応じて定まる牌オブジェクトを、オブジェクト決定部373が決定する。
 この場合も、表示される牌オブジェクトの選択操作を、プレイヤがより容易に行うことができる。
 上記の実施形態では、麻雀ゲームを一例として説明したが、このような麻雀ゲームに限られず、他にカードゲーム等、コントローラ210により配列されたオブジェクト(配列画像)から任意のオブジェクトを指定するようなゲームであれば適宜適用可能である。
 つまり、上述した麻雀ゲームでは、図5に示すように、各牌オブジェクトが横方向に一列に隣接して配列された配列画像の中から、任意の牌オブジェクトを指定する場合について説明したが、これ以外でも、オブジェクトが隣接して(隣り合って)配列されていれば、同様に適用可能である。例えば、トランプ等を手で広げて持つように扇形に隣接して配列されていたり、縦方向や斜め方向に隣接して配列されていてもよく、また、一列でなく、複数列に渡って配列されていてもよい。更に、トランプの神経衰弱のように、無秩序に配列されているような場合でも、適宜適用可能である。
 なお、本願については、日本国特許願 特願2008-232166号を基礎とする優先権を主張し、当該基礎出願の内容をすべて本願にとりこむものとする。
 以上説明したように、本発明によれば、表示装置に向けたコントローラによってオブジェクトなどを操作するゲーム装置において、表示されるオブジェクトの選択操作を、プレイヤがより容易に行うのに好適なゲーム装置、オブジェクト選択方法、情報記録媒体、および、プログラムを提供することができる。
 100 情報処理装置
 101 CPU
 102 ROM
 103 RAM
 104 インターフェース
 105 コントローラユニット
 106 外部メモリ
 107 DVD-ROMドライブ
 108 画像処理部
 109 音声処理部
 110 NIC
 210 コントローラ
 211 CCDカメラ
 212 十字形キー
 213 Aボタン
 214 Bボタン
 215 各種ボタン
 216 インジケータ
 217 電源ボタン
 220 センサバー
 221 発光素子
 290 ディスプレイ
 300,500 ゲーム装置
 301 制御部
 302 照準領域検出部
 303 選定部
 304 決定部
 305 移動方向検出部
 310 位置情報取得部
 320 操作情報取得部
 330 移動情報取得部
 340 画像情報記憶部
 350 配置情報管理部
 360 表示制御部
 370,570 処理制御部
 371 照準領域算定部
 372 候補オブジェクト選定部
 373 オブジェクト決定部
 374 ゲーム進行部
 571 保持時間計時部

Claims (8)

  1.  表示装置に向けられたコントローラ(210)により、任意のオブジェクトを指定して操作するゲーム装置(300)であって、
     複数のオブジェクトが配列された配列画像を表示画面に表示する表示制御部(360)と、
     当該コントローラ(210)により指し示される表示画面上の照準領域を検出する照準領域検出部(302)と、
     検出された当該照準領域に基づいて、表示される当該配列画像の中から複数の候補オブジェクトを選定する選定部(303)と、
     選定された当該候補オブジェクトの中から、当該コントローラ(210)の向き又は姿勢の変化に応じてオブジェクトを決定する決定部(304)と、
     を備えることを特徴とするゲーム装置(300)。
  2.  所定のセンサを有するコントローラ(210)がプレイヤによって把持され、当該プレイヤが当該コントローラ(210)を表示画面に向け、任意のオブジェクトを指定して処理を命ずるゲーム装置(300)であって、
     指定対象となり得る複数のオブジェクトが隣接して配列された配列画像を表示画面に表示する表示制御部(360)と、
     当該コントローラ(210)により指し示される表示画面上の照準領域を、当該コントローラ(210)の位置及び先端の向きに基づいて検出する照準領域検出部(302)と、
     表示された当該配列画像と検出された当該照準領域との位置関係に基づいて、当該配列画像の中から複数の候補オブジェクトを選定する選定部(303)と、
     当該センサから供給される情報を取得し、当該コントローラ(210)の移動方向を検出する移動方向検出部(305)と、
     当該候補オブジェクトが選定された状態で、検出された当該移動方向に応じて定まるオブジェクトを、当該候補オブジェクトの中から決定する決定部(304)と、
     を備えることを特徴とするゲーム装置(300)。
  3.  請求項1に記載のゲーム装置(300)であって、
     前記コントローラ(210)には、所定のボタンが配置されており、
     前記選定部(303)は、当該ボタンが押下された時点での当該照準領域に属する当該配列画像における複数のオブジェクトを、候補オブジェクトとして選定する、
     ことを特徴とするゲーム装置(300)。
  4.  請求項1に記載のゲーム装置(300)であって、
     前記照準領域検出部(302)は、当該照準領域を規定時間毎に順次検出し、
     前記選定部(303)は、順次検出される当該照準領域の表示画像上の位置が維持されたまま、一定時間が経過すると、当該照準領域に含まれる当該配列画像における複数のオブジェクトを、候補オブジェクトとして選定する、
     ことを特徴とするゲーム装置(300)。
  5.  請求項1に記載のゲーム装置(300)であって、
     前記表示制御部(360)は、選定された当該各候補オブジェクトの拡大画像を、当該配列画像に対応させて表示し、
     前記決定部(304)は、表示される当該拡大画像中の当該各候補オブジェクトの並びと、当該コントローラ(210)の向きが変化する方向との関係に応じて、当該候補オブジェクトの中からオブジェクトを決定する、
     ことを特徴とするゲーム装置(300)。
  6.  表示装置に向けられたコントローラ(210)により、任意のオブジェクトを指定して操作するゲーム装置(300)におけるオブジェクト選択方法であって、
     当該ゲーム装置(300)は、照準領域検出部(302)と、選定部(303)と、決定部(304)と、表示制御部(360)と、当該コントローラ(210)を含むコントローラユニットとを有しており、
     前記表示制御部(360)が、複数のオブジェクトが配列された配列画像を表示画面に表示する表示ステップと、
     前記照準領域検出部(302)が、当該コントローラ(210)により指し示される表示画面上の照準領域を、前記コントローラユニットを使用して検出する照準領域検出ステップと、
     前記選定部(303)が、検出された当該照準領域に基づいて、表示される当該配列画像の中から複数の候補オブジェクトを選定する選定ステップと、
     前記決定部(304)が、選定された当該候補オブジェクトの中から、当該コントローラ(210)の向き又は姿勢の変化に応じてオブジェクトを決定する決定ステップと、
     を含むことを特徴とするオブジェクト選択方法。
  7.  表示装置に向けられたコントローラ(210)により、任意のオブジェクトを指定して操作するコンピュータを、
     複数のオブジェクトが配列された配列画像を表示画面に表示する表示制御部(360)、
     当該コントローラ(210)により指し示される表示画面上の照準領域を検出する照準領域検出部(302)、
     検出された当該照準領域に基づいて、表示される当該配列画像の中から複数の候補オブジェクトを選定する選定部(303)、
     選定された当該候補オブジェクトの中から、当該コントローラ(210)の向き又は姿勢の変化に応じてオブジェクトを決定する決定部(304)、
     として機能させることを特徴とするプログラムを記録することを特徴とする、コンピュータ読み取り可能な情報記録媒体。
  8.  表示装置に向けられたコントローラ(210)により、任意のオブジェクトを指定して操作するコンピュータを、
     複数のオブジェクトが配列された配列画像を表示画面に表示する表示制御部(360)、
     当該コントローラ(210)により指し示される表示画面上の照準領域を検出する照準領域検出部(302)、
     検出された当該照準領域に基づいて、表示される当該配列画像の中から複数の候補オブジェクトを選定する選定部(303)、
     選定された当該候補オブジェクトの中から、当該コントローラ(210)の向き又は姿勢の変化に応じてオブジェクトを決定する決定部(304)、
     として機能させることを特徴とするプログラム。
PCT/JP2009/065219 2008-09-10 2009-08-31 ゲーム装置、オブジェクト選択方法、情報記録媒体、および、プログラム WO2010029870A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-232166 2008-09-10
JP2008232166A JP2010063616A (ja) 2008-09-10 2008-09-10 ゲーム装置、オブジェクト選択方法、および、プログラム

Publications (1)

Publication Number Publication Date
WO2010029870A1 true WO2010029870A1 (ja) 2010-03-18

Family

ID=42005127

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/065219 WO2010029870A1 (ja) 2008-09-10 2009-08-31 ゲーム装置、オブジェクト選択方法、情報記録媒体、および、プログラム

Country Status (3)

Country Link
JP (1) JP2010063616A (ja)
TW (1) TWI396577B (ja)
WO (1) WO2010029870A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203987A (ja) * 2010-03-25 2011-10-13 Konami Digital Entertainment Co Ltd 項目選択装置、項目選択方法、ならびに、プログラム
KR20170035153A (ko) * 2015-09-22 2017-03-30 삼성전자주식회사 영상 표시 장치 및 그 동작 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3015954B1 (en) * 2013-06-26 2022-05-25 Sony Interactive Entertainment Inc. Information processing device, control method for information processing device, program, and information storage medium
JP7274870B2 (ja) 2019-01-11 2023-05-17 株式会社コロプラ プログラム、および情報処理装置
JP2019136570A (ja) * 2019-05-30 2019-08-22 株式会社コナミアミューズメント ゲームシステム及びそれに用いるコンピュータプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162371A (ja) * 2001-11-27 2003-06-06 Hitachi Ltd 携帯端末
JP2007061489A (ja) * 2005-09-01 2007-03-15 Nintendo Co Ltd 情報処理システムおよびプログラム
JP2007260116A (ja) * 2006-03-28 2007-10-11 Nintendo Co Ltd 情報処理装置およびプログラム
JP2007280461A (ja) * 2006-04-04 2007-10-25 Sony Corp 再生装置、ユーザインターフェイス制御方法、プログラム
JP2008123375A (ja) * 2006-11-14 2008-05-29 Konami Digital Entertainment:Kk 項目選択装置、項目選択方法、ならびに、プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
JP4679429B2 (ja) * 2006-04-27 2011-04-27 任天堂株式会社 音出力プログラムおよび音出力装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162371A (ja) * 2001-11-27 2003-06-06 Hitachi Ltd 携帯端末
JP2007061489A (ja) * 2005-09-01 2007-03-15 Nintendo Co Ltd 情報処理システムおよびプログラム
JP2007260116A (ja) * 2006-03-28 2007-10-11 Nintendo Co Ltd 情報処理装置およびプログラム
JP2007280461A (ja) * 2006-04-04 2007-10-25 Sony Corp 再生装置、ユーザインターフェイス制御方法、プログラム
JP2008123375A (ja) * 2006-11-14 2008-05-29 Konami Digital Entertainment:Kk 項目選択装置、項目選択方法、ならびに、プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203987A (ja) * 2010-03-25 2011-10-13 Konami Digital Entertainment Co Ltd 項目選択装置、項目選択方法、ならびに、プログラム
KR20170035153A (ko) * 2015-09-22 2017-03-30 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
EP3262842A4 (en) * 2015-09-22 2018-02-28 Samsung Electronics Co., Ltd. Image display device and method of operating the same
US10067633B2 (en) 2015-09-22 2018-09-04 Samsung Electronics Co., Ltd. Image display device and method of operating the same
KR102354328B1 (ko) * 2015-09-22 2022-01-21 삼성전자주식회사 영상 표시 장치 및 그 동작 방법

Also Published As

Publication number Publication date
TW201023951A (en) 2010-07-01
TWI396577B (zh) 2013-05-21
JP2010063616A (ja) 2010-03-25

Similar Documents

Publication Publication Date Title
JP5755943B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP4187768B2 (ja) ゲーム装置、進行制御方法、および、プログラム
JP5876229B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
US20080234022A1 (en) Game Device, Computer Control Method, and Information Storage Medium
JP6472555B1 (ja) ゲームプログラム、方法、および情報処理装置
WO2010029870A1 (ja) ゲーム装置、オブジェクト選択方法、情報記録媒体、および、プログラム
JP2011150631A (ja) 表示制御装置、視線誘導方法、および、プログラム
JP5210547B2 (ja) 移動制御プログラムおよび移動制御装置
JP5937789B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
JP2018114185A (ja) ゲームプログラム、ゲームプログラムを実行する方法、および情報処理装置
WO2010087284A1 (ja) ゲーム装置、操作評価方法、情報記録媒体、および、プログラム
JP2011056201A (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2010233742A (ja) ゲーム装置、動作判定方法、および、プログラム
JP6061262B2 (ja) ゲームシステム、ゲーム制御方法、ゲーム装置およびゲームプログラム
JP5519610B2 (ja) ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム
JP3983789B1 (ja) ゲーム装置、補正方法、および、プログラム
CN103379943A (zh) 游戏装置、游戏装置的控制方法、程序、以及信息存储介质
JP4962977B2 (ja) ゲームプログラム、対戦ゲーム装置、及び対戦ゲーム制御方法
JP4588689B2 (ja) ゲーム装置、および、プログラム
JP2007260346A (ja) ゲーム装置、振動制御方法、および、プログラム
JP5072937B2 (ja) ゲームプログラム、ゲーム装置、ゲーム制御方法
JP6270783B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
JP3983790B1 (ja) ゲーム装置、振動制御方法、および、プログラム
JP5462851B2 (ja) ゲーム装置、評価方法、および、プログラム
JP2019205515A (ja) ゲームプログラム、ゲーム方法、および情報処理端末

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09813016

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09813016

Country of ref document: EP

Kind code of ref document: A1