WO2012001754A1 - ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム - Google Patents

ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム Download PDF

Info

Publication number
WO2012001754A1
WO2012001754A1 PCT/JP2010/006819 JP2010006819W WO2012001754A1 WO 2012001754 A1 WO2012001754 A1 WO 2012001754A1 JP 2010006819 W JP2010006819 W JP 2010006819W WO 2012001754 A1 WO2012001754 A1 WO 2012001754A1
Authority
WO
WIPO (PCT)
Prior art keywords
input device
game
displacement amount
function
game control
Prior art date
Application number
PCT/JP2010/006819
Other languages
English (en)
French (fr)
Inventor
修幸 斎藤
豪規 木下
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to US13/257,755 priority Critical patent/US8851994B2/en
Priority to JP2011509742A priority patent/JP5389162B2/ja
Priority to EP10854051.9A priority patent/EP2590058B1/en
Publication of WO2012001754A1 publication Critical patent/WO2012001754A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Definitions

  • the present invention relates to a game control technique, and more particularly to a game device, a game control method, and a game control program for controlling a game using the position and orientation of an input device as operation inputs.
  • a directional key or an analog stick As an input interface for moving a character or an object on a two-dimensional game screen or a three-dimensional game field, a directional key or an analog stick is generally used.
  • an input interface in which a player holds a remote controller capable of wireless communication with a game device and inputs a moving direction by tilting the controller itself has appeared.
  • the present inventors have come up with a technique for further improving the convenience of the game player in an input interface that inputs the moving direction using the position and orientation of the input device as operation inputs.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a more convenient game control technique.
  • An aspect of the present invention relates to a game control program.
  • the game control program includes a function of acquiring a position of an input device for moving a position of a target on a screen displayed on a display device, a function of acquiring an inclination of the input device, and a position of the input device. And a function for determining the position of the target on the screen based on the displacement amount of the input device and the displacement amount of the tilt of the input device.
  • FIG. 1 It is a figure which shows the use environment of the game system concerning the Example of this invention. It is a figure which shows the external appearance structure of an input device. It is a figure which shows the internal structure of an input device. It is a figure which shows the structure of a game device. It is a figure which shows the structure of an application process part. It is a figure which shows the example of the screen of the game controlled by the game device which concerns on embodiment. It is a figure which shows the example of the screen of the game controlled by the game device which concerns on embodiment. It is a figure which shows the example of the screen of the game controlled by the game device which concerns on embodiment. It is a figure which shows the example of the screen of the game controlled by the game device which concerns on embodiment. It is a figure which shows the example of the screen of the game controlled by the game device which concerns on embodiment.
  • the game apparatus determines the target position based on both the displacement amount of the position of the input device and the displacement amount of the tilt of the input device. Therefore, the player can move the target by moving the input device itself up, down, left and right, or can move the target by tilting the input device up, down, left and right.
  • the game apparatus determines the target position based on a value obtained by weighting and adding each of the displacement amount of the position of the input device and the displacement amount of the inclination, but the displacement amount of the inclination is larger than the weight attached to the displacement amount of the position. Increase the weight attached to.
  • the player can move the target by moving the input device.
  • the player wants to move the target greatly the player can tilt the input device greatly without moving the input device greatly. It becomes possible to move the object easily.
  • FIG. 1 shows a use environment of a game system 1 according to an embodiment of the present invention.
  • the game system 1 includes a game device 10 that executes game software, a display device 12 that outputs a processing result by the game device 10, an input device 20, and an imaging device 14 that images the input device 20.
  • the input device 20 is an operation input device for a user to give an operation instruction, and the game apparatus 10 processes a game application based on the operation instruction in the input device 20 and an image signal indicating a processing result of the game application.
  • the input device 20 has a function of transmitting an operation instruction by the user to the game apparatus 10, and is configured as a wireless controller capable of wireless communication with the game apparatus 10 in this embodiment.
  • the input device 20 and the game apparatus 10 may establish a wireless connection using a Bluetooth (registered trademark) protocol.
  • the input device 20 is not limited to the wireless controller, and may be a wired controller connected to the game apparatus 10 via a cable.
  • the input device 20 is driven by a battery and is configured to have a plurality of buttons for operating instructions to advance the game.
  • the operation instruction is transmitted to the game apparatus 10 by radio.
  • the game apparatus 10 receives an operation instruction from the input device 20, controls the game progress in accordance with the operation instruction, and generates a game image signal.
  • the generated game image signal is output from the display device 12.
  • the imaging device 14 is a video camera composed of a CCD image sensor, a CMOS image sensor, or the like, and images a real space with a predetermined period to generate a frame image for each period.
  • the imaging speed of the imaging device 14 may be 30 frames / second so as to match the frame rate of the display device 12.
  • the imaging device 14 is connected to the game device 10 via a USB (Universal Serial Bus) or other interface.
  • the display device 12 is a display that outputs an image, and displays a game screen in response to an image signal generated in the game device 10.
  • the display device 12 may be a television having a display and a speaker, or may be a computer display.
  • the display device 12 may be connected to the game device 10 by a wired cable, or may be wirelessly connected by a wireless LAN (Local Area Network) or the like.
  • the input device 20 has a light emitter.
  • the light emitter emits light in a predetermined color and is imaged by the imaging device 14.
  • the imaging device 14 images the input device 20, generates a frame image, and supplies the frame image to the game device 10.
  • the game apparatus 10 acquires a frame image, and derives position information of the light emitter in real space from the position and size of the image of the light emitter in the frame image.
  • the game apparatus 10 treats the position information as a game operation instruction and reflects it in the game process such as controlling the movement of the player character.
  • the game apparatus 10 according to the present embodiment has a function of processing a game application using not only an operation input such as a button of the input device 20 but also the positional information of the acquired light emitter image.
  • the light emitter of the input device 20 is configured to emit light in a plurality of colors.
  • the light emitter can change the light emission color in accordance with a light emission instruction from the game apparatus 10.
  • the input device 20 has an acceleration sensor and a gyro sensor.
  • the detection value of the sensor is transmitted to the game apparatus 10 at a predetermined cycle, and the game apparatus 10 acquires the detection value of the sensor and acquires the posture information of the input device 20 in the real space.
  • the game apparatus 10 handles the posture information as a game operation instruction and reflects it in the game processing.
  • the game apparatus 10 according to the present embodiment has a function of processing a game application using the acquired posture information of the input device 20.
  • FIG. 2 shows an external configuration of the input device 20.
  • FIG. 2A shows the top surface configuration of the input device 20, and
  • FIG. 2B shows the bottom surface configuration of the input device 20.
  • the input device 20 has a light emitter 22 and a handle 24.
  • the light emitter 22 is formed into a sphere with a light-transmitting resin on the outside, and has a light emitting element such as a light emitting diode or a light bulb on the inside. When the inner light emitting element emits light, the entire outer sphere glows.
  • Operation buttons 30, 32, 34, 36, and 38 are provided on the upper surface of the handle 24, and an operation button 40 is provided on the lower surface.
  • the user operates the operation buttons 30, 32, 34, 36, and 38 with the thumb and the operation button 40 with the index finger while holding the end of the handle 24 by hand.
  • the operation buttons 30, 32, 34, 36, and 38 are configured to be pressed, and the user operates by pressing them.
  • the operation button 40 may be capable of inputting an analog amount.
  • the imaging device 14 Since the imaging device 14 needs to image the light emitter 22 during execution of the game application, the imaging device 14 is preferably arranged so that the imaging range faces the same direction as the display device 12. In general, since a user often plays a game in front of the display device 12, the imaging device 14 is arranged so that the direction of the optical axis thereof coincides with the front direction of the display device 12. Specifically, the imaging device 14 is preferably arranged in the vicinity of the display device 12 so that the imaging range includes a position where the user can visually recognize the display screen of the display device 12. Thereby, the imaging device 14 can image the input device 20.
  • FIG. 3 shows the internal configuration of the input device 20.
  • the input device 20 includes a wireless communication module 48, a processing unit 50, a light emitting unit 62, and operation buttons 30, 32, 34, 36, 38, and 40.
  • the wireless communication module 48 has a function of transmitting / receiving data to / from the wireless communication module of the game apparatus 10.
  • the processing unit 50 executes intended processing in the input device 20.
  • the processing unit 50 includes a main control unit 52, an input receiving unit 54, a triaxial acceleration sensor 56, a triaxial gyro sensor 58, and a light emission control unit 60.
  • the main control unit 52 transmits and receives necessary data to and from the wireless communication module 48.
  • the input receiving unit 54 receives input information from the operation buttons 30, 32, 34, 36, 38, 40 and sends it to the main control unit 52.
  • the triaxial acceleration sensor 56 detects acceleration components in the XYZ triaxial directions.
  • the triaxial gyro sensor 58 detects angular velocities in the XZ plane, the ZY plane, and the YX plane.
  • the width direction of the input device 20 is set as the X axis
  • the height direction is set as the Y axis
  • the longitudinal direction is set as the Z axis.
  • the triaxial acceleration sensor 56 and the triaxial gyro sensor 58 are preferably disposed in the handle 24 of the input device 20 and are disposed in the vicinity of the center in the handle 24.
  • the wireless communication module 48 transmits detection value information from the three-axis acceleration sensor 56 and detection value information from the three-axis gyro sensor 58 together with input information from the operation buttons to the wireless communication module of the game apparatus 10 at a predetermined cycle.
  • This transmission cycle is set to 11.25 milliseconds, for example.
  • the light emission control unit 60 controls the light emission of the light emitting unit 62.
  • the light emitting unit 62 includes a red LED 64a, a green LED 64b, and a blue LED 64c, and enables light emission of a plurality of colors.
  • the light emission control unit 60 adjusts the light emission of the red LED 64a, the green LED 64b, and the blue LED 64c, and causes the light emitting unit 62 to emit light in a desired color.
  • the wireless communication module 48 When the wireless communication module 48 receives the light emission instruction from the game apparatus 10, the wireless communication module 48 supplies the light emission instruction to the main control unit 52, and the main control unit 52 supplies the light emission control unit 60 with the light emission instruction.
  • the light emission control unit 60 controls the light emission of the red LED 64a, the green LED 64b, and the blue LED 64c so that the light emitting unit 62 emits light in the color specified by the light emission instruction.
  • the light emission control unit 60 may perform lighting control of each LED by PWM (pulse width modulation) control.
  • FIG. 4 shows the configuration of the game apparatus 10.
  • the game apparatus 10 includes a frame image acquisition unit 80, an image processing unit 82, a device information deriving unit 84, a wireless communication module 86, an input receiving unit 88, an output unit 90, and an application processing unit 100.
  • the processing function of the game apparatus 10 in the present embodiment is realized by a CPU, a memory, a program loaded in the memory, and the like, and here, a configuration realized by cooperation thereof is illustrated.
  • the program may be built in the game apparatus 10 or may be supplied from the outside in a form stored in a recording medium. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. Note that the game apparatus 10 may have a plurality of CPUs due to the hardware configuration.
  • the wireless communication module 86 establishes wireless communication with the wireless communication module 48 of the input device 20.
  • the input device 20 can transmit operation button state information, detection value information of the triaxial acceleration sensor 56 and triaxial gyro sensor 58 to the game apparatus 10 at a predetermined cycle.
  • the wireless communication module 86 receives the operation button state information and the sensor detection value information transmitted from the input device 20 and supplies them to the input receiving unit 88.
  • the input receiving unit 88 separates the button state information and the sensor detection value information and delivers them to the application processing unit 100.
  • the application processing unit 100 receives button state information and sensor detection value information as game operation instructions.
  • the application processing unit 100 handles sensor detection value information as posture information of the input device 20.
  • the frame image acquisition unit 80 is configured as a USB interface, and acquires a frame image from the imaging device 14 at a predetermined imaging speed (for example, 30 frames / second).
  • the image processing unit 82 extracts a light emitter image from the frame image.
  • the image processing unit 82 specifies the position and size of the light emitter image in the frame image.
  • the image processing unit 82 can extract the light emitter image from the frame image with high accuracy.
  • the image processing unit 82 may binarize the frame image data using a predetermined threshold value to generate a binarized image.
  • the image processing unit 82 can specify the position and size of the illuminant image from the binarized image. For example, the image processing unit 82 specifies the barycentric coordinates of the illuminant image in the frame image and the radius of the illuminant image.
  • the device information deriving unit 84 derives the position information of the input device 20 as viewed from the imaging device 14 from the position and size of the illuminant image specified by the image processing unit 82.
  • the device information deriving unit 84 derives position coordinates in the camera coordinates from the barycentric coordinates of the light emitter image, and derives distance information from the imaging device 14 from the radius of the light emitter image.
  • the position coordinates and distance information constitute position information of the input device 20.
  • the device information deriving unit 84 derives the position information of the input device 20 for each frame image and passes it to the application processing unit 100.
  • the application processing unit 100 receives the position information of the input device 20 as a game operation instruction.
  • the application processing unit 100 advances the game from the position information and posture information of the input device 20 and the button state information, and generates an image signal indicating the processing result of the game application.
  • the image signal is sent from the output unit 90 to the display device 12 and output as a display image.
  • FIG. 5 shows the configuration of the application processing unit 100.
  • the application processing unit 100 includes an operation instruction receiving unit 102, a control unit 110, a parameter holding unit 150, a game data holding unit 152, and an image generation unit 154.
  • the operation instruction receiving unit 102 receives the position information of the input device 20 from the device information deriving unit 84 and the posture information and button state information of the input device 20 from the input receiving unit 88 as operation instructions.
  • the control unit 110 executes the game program based on the operation instruction received by the operation instruction receiving unit 102 and advances the game.
  • the parameter holding unit 150 holds parameters necessary for the progress of the game.
  • the game data holding unit 152 holds three-dimensional data such as objects constituting the game world.
  • the image generation unit 154 generates a display screen by adding various information to the image of the game field rendered by the control unit 110.
  • the control unit 110 includes a first game mode control unit 112, a second game mode control unit 114, a third game mode control unit 115, a mode switching unit 116, a position calculation unit 118, a rotation control unit 120, and an afterimage control unit 122. .
  • the first game mode control unit 112 controls a first game mode in which an enemy character is captured by operating the net.
  • the second game mode control unit 114 controls a second game mode in which an enemy character is shot down by operating a pachinko.
  • the mode switching unit 116 switches the game mode between the first game mode and the second game mode in accordance with an instruction from the player.
  • the position calculation unit 118 calculates the position of the net in the first game mode and the position of the target of the pachinko in the second game mode in accordance with the operation of the input device 20 by the player.
  • the rotation control unit 120 rotates an object or the like in the game according to the rotation around the major axis of the input device 20.
  • the afterimage control unit 122 displays an afterimage of an image such as an object to be moved.
  • FIG. 6 shows an example of a game screen controlled by the game device according to the embodiment.
  • FIG. 6 shows a game screen in the first game mode.
  • the first game mode control unit 112 causes the image generation unit 154 to generate an image of the game field, notify the position of the enemy character, and generate an image of the enemy character.
  • the image generation unit 154 reads the data of the object provided in the game field from the game data holding unit 152, sets the viewpoint position and the viewing direction, and renders the game field image.
  • the enemy character data is read from the game data holding unit 152, and the enemy character is arranged and rendered at the position notified from the first game mode control unit 112.
  • the first game mode control unit 112 moves the enemy character 172 using a predetermined algorithm. Further, the position and orientation of the network 170 are controlled based on the position information and orientation information of the input device 20.
  • FIG. 7 shows an example of a game screen controlled by the game device according to the embodiment.
  • the player moves or tilts the position of the input device 20 to move the net 170 and capture the enemy character 172 in the net 170.
  • the first game mode control unit 112 determines whether the enemy character 172 is captured in the net 170 based on the positional relationship between the frame of the net 170 and the enemy character 172.
  • FIG. 8 shows an example of a game screen controlled by the game device according to the embodiment. If the first game mode control unit 112 determines that the enemy character has been captured by the net 170, the first game mode control unit 112 deletes the enemy character from the screen. At this time, the first game mode control unit 112 gives a predetermined point to the player. In the example shown in FIGS. 7 and 8, since the net 170 is moved so that the enemy character 172 enters the inside of the net 170 from the frame of the net 170, the first game mode control unit 112 determines that the enemy character 172 is the net character. If the net 170 hits the enemy character 172 from a different direction, the first game mode control unit 112 determines that the enemy character 172 has not been captured in the net 170. To do.
  • the player can rotate the net 170 with the handle of the net 170 as the rotation axis by rotating the input device 20 around the long axis.
  • the player must not only move the net 170 toward the enemy character 172 but also adjust the orientation of the net 170.
  • FIG. 9 shows an example of a game screen controlled by the game device according to the embodiment.
  • the rotation control unit 120 rotates the net 170 by the same angle as the amount of rotation around the long axis of the input device 20. .
  • the state at this time is shown in FIG.
  • FIG. 10 shows an example of a game screen controlled by the game device according to the embodiment.
  • FIG. 10 shows a game screen in the second game mode.
  • the mode switching unit 116 switches the game mode between the first game mode and the second game mode.
  • the player can switch the weapon for defeating the enemy character between the net and the pachinko by pressing the operation button 40 of the input device 20.
  • the second game mode control unit 114 causes the image generation unit 154 to generate an image of the game field and an image of the enemy character.
  • the second game mode control unit 114 moves the enemy character 174 using a predetermined algorithm.
  • the position of the target 180 of the ball 178 of the pachinko 176 is controlled based on the position information and posture information of the input device 20.
  • the second game mode control unit 114 launches the ball 178 of the pachinko 176 toward the target 180.
  • the second game mode control unit 114 determines whether or not the ball 178 has hit the enemy character 174 based on the positional relationship between the target 180 and the enemy character 174. If it is determined that the ball 178 has hit, the second game mode control unit 114 deletes the enemy character 174. , Give the player a predetermined point.
  • the position calculation unit 118 calculates the position using different methods in the first game mode and the second game mode. First, a method for calculating the target position in the second game mode will be described.
  • FIG. 11 is a diagram for explaining how the position calculation unit calculates the position.
  • the position calculation unit 118 calibrates the position and orientation of the input device 20 prior to the start of the game.
  • the position calculation unit 118 presents a calibration screen for determining the initial position and initial posture of the input device 20 to the player, and sets the position and posture of the input device 20 when the player inputs a predetermined operation button as the initial position.
  • the initial posture is determined and stored in the parameter holding unit 150.
  • the position calculation unit 118 uses the target position when the position and orientation of the input device 20 are the initial position and initial orientation in the coordinate system with the center of the display screen as the origin, and the position and orientation of the input device 20.
  • the position of the target is calculated based on the displacement amount.
  • the position calculation unit 118 sets a rectangle 192 having a predetermined size centered on the initial position of the input device 20 in the imaging range 190 of the imaging device 14 and calculates a displacement amount of the position of the input device 20. And The position calculation unit 118 sets the amount of displacement of the position of the input device 20 from the initial position. In the vertical direction, the upper end of the rectangle 192 is +1, the lower end is ⁇ 1, and in the horizontal direction, the right end of the rectangle 192 is +1 and the left end is Each is converted into a numerical value as ⁇ 1, and as shown in FIG. 12, a displacement xT in the horizontal position and a displacement yT in the vertical position are calculated.
  • the position calculation unit 118 stores the calculated displacement amounts xT and yT of the position in the parameter holding unit 150.
  • the position calculation unit 118 may set xT and yT to a value larger than +1 or a value smaller than ⁇ 1, or may be smaller than +1. If it becomes larger, it may be +1, and if it becomes smaller than ⁇ 1, it may be ⁇ 1.
  • the rectangle 192 may be made larger and included in the range from ⁇ 1 to +1.
  • the rectangle 192 may be returned to its original size. At this time, the size of the rectangle 192 may be gradually reduced.
  • the rectangle 192 may be a rectangle with a ratio of the length in the horizontal direction to the length in the vertical direction that is a general imaging range of the imaging device 14 or a general display range of the display device 12.
  • the ratio of the length in the horizontal direction to the length in the vertical direction may be a 16: 9 rectangle.
  • the rectangle 192 is a reference for sensitivity when the displacement amount of the position of the input device 20 is converted into the movement amount of the target position on the display screen.
  • the position calculation unit 118 sets a rectangle 192 so as to be within the imaging range 190 as shown in FIG. 14 when the initial position is set near the periphery of the imaging range 190. Also good. In this case, since the initial position does not coincide with the center of the rectangle 192, the sensitivity when the displacement amount of the position is digitized may be different between the upper and lower sides in the vertical direction and the right and left sides in the horizontal direction. . In another example, the center of the rectangle 192 shown in FIG. 14 may be set as the initial position. In this case, the calibrated position and the initial position do not match. When the player tries to set the initial position near the periphery of the imaging range 190, the player may be warned to set the initial position near the center of the imaging range 190.
  • the position calculation unit 118 determines the sensitivity to be multiplied when converting the displacement amount of the position of the input device 20 into the movement amount of the target position on the display screen. May be. The closer the distance between the input device 20 and the imaging device 14 is, the more the input device 20 moves on the image captured by the imaging device 14 even if the amount of movement of the input device 20 by the player is small. Therefore, the position calculation unit 118 may decrease the sensitivity by increasing the rectangle 192 as the distance between the input device 20 and the imaging device 14 is shorter. Thereby, even if the distance between the input device 20 and the imaging device 14 changes, it is possible to provide an operation environment in which the operation feeling does not change much.
  • FIG. 15 is a diagram for explaining how the position calculation unit calculates the position.
  • the position calculation unit 118 assumes that the input device 20 is directed toward the display device 12 at the time of calibration, and uses the integrated value of the gyro value (angular velocity) from the initial posture as the current posture information of the input device 20.
  • the position calculation unit 118 uses the input device 20 at the position determined by calibration in advance as the unit of an angle required for panning the imaging range of the imaging device 14 or the entire display range of the display device 12.
  • the displacement amount of 20 inclinations is digitized. As illustrated in FIG. 15, the closer the position of the input device 20 is to the imaging device 14 or the display device 12, the greater the angle required to pan the imaging range or the entire display range.
  • the position calculation unit 118 pans the entire display range from the size of the display range and the distance from the display device 12 or the imaging device 14 to the input device 20. The angle required to do this may be obtained, and the amount of displacement of the tilt of the input device 20 may be digitized using that value as a reference.
  • the unit angle may be determined in advance. In this case, the value obtained by dividing the acquired inclination of the input device 20 by the unit angle is multiplied by the distance between the imaging device 14 and the input device 20, so that the input device 20 is further away from the imaging device 14. The amount of tilt displacement is greatly evaluated.
  • the position calculation unit 118 stores the calculated displacement amounts xR and yR of the tilt in the parameter holding unit 150.
  • is a value from 0 to 1, and may be 0.4, for example.
  • is a value from 0 to 1, and may be 0.4, for example.
  • the position and inclination of the input device 20 held by the player may be shifted by a net or a target. Can be prevented from being directly reflected in the position of the camera, and shake can be reduced.
  • the position calculation unit 118 makes the weight ⁇ 2 attached to the displacement amount of the inclination larger than the weight ⁇ 1 attached to the displacement amount of the position.
  • the position calculation unit 118 may set ⁇ 1 to 0.8 and ⁇ 2 to 1.5.
  • the position calculation unit 118 stores the calculated x and y in the parameter holding unit 150.
  • the image generation unit 154 reads a net or target position in a predetermined range in the past from the parameter holding unit 150 and displays an afterimage of the net or target in the past position.
  • the image generation unit 154 may display the image by making the ⁇ value lower and translucent. Further, afterimages of all frames in a predetermined range in the past may not be displayed, but afterimages may be displayed by thinning out every predetermined frame.
  • the position calculation unit 118 may store the positions by thinning out every predetermined frame, instead of storing the positions of all the frames in the parameter holding unit 150.
  • the input device 20 functions as a net
  • the input device 20 has a function of moving the target. Therefore, the average posture of the input device 20 operated by the player is different between the first game mode and the second game mode. Therefore, the mode switching unit 116 changes the setting of the initial posture when switching the game mode between the first game mode and the second game mode.
  • the offset value of the initial posture in the second game mode may be preferably 30 to 60 degrees vertically upward, more preferably 50 degrees. That is, in the first game mode, the displacement amount of the position is calculated with the position of the input device 20 determined in advance by calibration as the initial position, and the inclination from the horizontal direction and the vertical direction with respect to the initial posture is the inclination.
  • the displacement amount of the tilt is calculated in the second game mode with reference to a posture in which the input device 20 is tilted 50 degrees vertically upward from the horizontal direction.
  • the input device 20 can be operated as if a gun is shot with the input device 20 as a gun grip and the operation button 40 as a gun trigger.
  • the net is inclined upward by about 50 degrees, so that it is possible to provide an easy-to-operate operating environment.
  • the mode switching unit 116 sets the initial posture in the vertical direction to a posture tilted upward by 50 degrees.
  • the mode switching unit 116 sets the initial posture in the vertical direction to the horizontal direction when switching from the second game mode to the second game mode.
  • the mode switching unit 116 may set the attitude of the input device 20 when switched to the second game mode as an initial value.
  • the position calculation unit 118 determines the position of the net based on the position information of the input device 20 imaged by the imaging device 14. In the position calculation method in the second game mode, the position calculation unit 118 may calculate the position of the net in consideration of only the displacement amount of the position, or the position of the net in the same manner as in the second game mode. May be calculated.
  • the rotation control unit 120 controls the posture of the net based on information acquired from the three-axis gyro sensor 58. Further, based on the information acquired from the triaxial acceleration sensor 56, the first game mode control unit 112 controls the operation of shaking the net.
  • the position of the target is controlled, but in the first game mode, it is necessary to control not only the position of the net but also the posture and movement of the net.
  • the position of the target is calculated by a different method in the first game mode and the second game mode.
  • the target position is calculated using the absolute value of the displacement amount of the position of the input device 20 with the initial position of the input device 20 determined by the calibration as a reference, but the input device 20 at the time of the previous calculation is calculated.
  • the target position may be calculated using a relative displacement amount from the position.
  • the position calculation unit 118 multiplies the difference between the position of the input device 20 in the previous frame and the position of the input device 20 in the current frame by a predetermined value indicating the sensitivity of the target position in the coordinate system of the display screen. The amount of movement may be used.
  • FIG. 16 shows a game screen in the third game mode.
  • the third game mode control unit 115 controls a game in which a designated character is found and sniped from a plurality of characters displayed on the screen.
  • the third game mode control unit 115 displays an image of the character 194 that the player should snip on the screen, and plays the same character 196 as the character 194 and a plurality of characters having different colors and shapes from the character 194.
  • the image generation unit 154 Arranged in the field, the image generation unit 154 generates an image of the game field.
  • FIG. 17 shows a game screen in the third game mode.
  • the third game mode when the input device 20 is viewed as a rifle and the input device 20 is directed upward, the overall view of the game field shown in FIG. 16 is displayed. That is, when directed toward the imaging device 14, the enlarged view shown in FIG. 17 is displayed.
  • the game screen shown in FIG. 17 resembles a state of looking through the sight, and an enlarged view of the game field is displayed inside a circular area narrower than the screen.
  • the player displays the overall view with the input device 20 facing upward, grasps the rough position of the character 196, displays the enlarged view with the input device 20 facing the screen, and the character 196 is displayed using the input device 20.
  • the display area of the enlarged view is moved to the existing position, and the character 196 is aimed and sniped.
  • pointing the input device 20 upward corresponds to removing the line of sight from the sight and looking at the entire game field
  • pointing the input device 20 to the screen corresponds to looking into the sight. Therefore, an intuitive and easy-to-understand interface can be provided.
  • the third game mode control unit 115 When the third game mode control unit 115 prompts the player to hold the input device 20 upward before starting the game and detects that the input device 20 is directed upward, the third game mode control unit 115 displays the overall view shown in FIG. Display and start the game.
  • the third game mode control unit 115 detects that the tilt from the vertical upward direction of the input device 20 exceeds a predetermined angle and is close to the horizontal direction while displaying the overall diagram, The display is switched to the enlarged view shown in FIG.
  • the third game mode control unit 115 sets the viewpoint position at a predetermined position that is closer to the game field than the viewpoint position at the time of rendering the overall view, and performs a predetermined line-of-sight direction, for example, when rendering the overall view.
  • the same line-of-sight direction as the line-of-sight direction is set, and the image generation unit 154 renders the enlarged view.
  • the third game mode control unit 115 may set the line-of-sight direction according to the attitude of the input device 20 when switching to the enlarged view. For example, in the left-right direction, the line-of-sight direction may be set according to the angle between the input device 20 and the straight line connecting the imaging device 14.
  • the position calculation unit 118 performs calibration based on the position and orientation of the input device 20 at this time, and from the position and orientation of the input device 20 as in the first game mode or the second game mode, The position of the aim 198 at is calculated.
  • the third game mode control unit 115 calculates the line-of-sight direction when rendering the enlarged view so that the position of the aim 198 is centered in the enlarged view from the calculated current position of the aim 198, and the image generation unit 154 Notify As a result, the player moves the input device 20 up, down, left, and right, or tilts up, down, left, and right, thereby moving the display area of the enlarged view up, down, left, and right in the game field and moving the position of the aim 198 up, down, left, and right Can be made.
  • the third game mode control unit 115 moves the viewpoint position when rendering the enlarged view according to the distance between the input device 20 and the imaging device 14, and notifies the image generation unit 154 of the movement. That is, if the distance between the input device 20 and the imaging device 14 is shorter than the distance when switching to the enlarged view, the viewpoint position is brought closer to the game field, and if the distance is longer, the viewpoint position is moved away. As a result, the player can zoom in on the enlarged view by moving the input device 20 closer to the imaging device 14 and zoom down by moving the input device 20 away.
  • FIG. Switch the display to the overall view shown in.
  • the calibration of the position and orientation of the input device 20 is reset, and the calibration is performed again when the enlarged view is displayed next time.
  • the first threshold value Is preferably larger than the second threshold.
  • the first threshold value may be close to 90 degrees and may be substantially horizontal
  • the second threshold value may be close to 0 degrees and substantially vertically upward.
  • the position calculation unit 118 may use the same sensitivity when moving the aim regardless of the viewpoint position when rendering the enlarged view, or may change the sensitivity according to the viewpoint position.
  • the sighting moves greatly on the enlarged view as the zooming up is performed. Therefore, an interface similar to that actually looking through the sighting device is provided. Can do.
  • the closer the viewpoint position is to the game field the lower the sensitivity when moving the aim, so that the movement of the aim on the enlarged view may be reduced. As a result, an interface that can be easily aimed can be provided.
  • the present invention can be used for a game apparatus that controls a game using the position and orientation of an input device as operation inputs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 ゲーム装置は、表示装置に表示される画面上のある対象の位置を移動させるための入力デバイスの位置を取得する位置取得部と、入力デバイスの傾きを取得する傾き取得部と、入力デバイスの位置の変位量及び入力デバイスの傾きの変位量に基づいて、画面における対象の位置を決定する位置算出部118とを備える。位置算出部118は、位置の変位量と傾きの変位量のそれぞれに重みを付けて加算した値に基づいて対象の位置を決定してもよい。

Description

ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
 本発明は、ゲーム制御技術に関し、とくに、入力デバイスの位置及び姿勢を操作入力としてゲームを制御するゲーム装置、ゲーム制御方法、及びゲーム制御プログラムに関する。
 2次元のゲーム画面又は3次元のゲームフィールドにおいて、キャラクタやオブジェクトなどを移動させるための入力インタフェースとしては、方向キーやアナログスティックなどが一般的である。近年では、ゲーム装置との間で無線通信が可能なリモートコントローラをプレイヤーが把持し、そのコントローラ自体を傾けるなどして移動方向を入力する入力インタフェースも登場している。
米国特許公開第2008/0120057号公報
 本発明者らは、入力デバイスの位置及び姿勢を操作入力として移動方向を入力する入力インタフェースにおいて、ゲームプレイヤーの利便性を更に向上させる技術を想到するに至った。
 本発明はこうした状況に鑑みてなされたものであり、その目的は、より利便性の高いゲーム制御技術を提供することにある。
 本発明のある態様は、ゲーム制御プログラムに関する。このゲーム制御プログラムは、表示装置に表示される画面上のある対象の位置を移動させるための入力デバイスの位置を取得する機能と、前記入力デバイスの傾きを取得する機能と、前記入力デバイスの位置の変位量及び前記入力デバイスの傾きの変位量に基づいて、前記画面における前記対象の位置を決定する機能と、をコンピュータに実現させる。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、より利便性の高いゲーム制御技術を提供することができる。
本発明の実施例にかかるゲームシステムの使用環境を示す図である。 入力デバイスの外観構成を示す図である。 入力デバイスの内部構成を示す図である。 ゲーム装置の構成を示す図である。 アプリケーション処理部の構成を示す図である。 実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す図である。 実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す図である。 実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す図である。 実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す図である。 実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す図である。 位置算出部が位置を算出する方法を説明するための図である。 位置算出部が位置を算出する方法を説明するための図である。 位置算出部が位置を算出する方法を説明するための図である。 位置算出部が位置を算出する方法を説明するための図である。 位置算出部が位置を算出する方法を説明するための図である。 実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す図である。 実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す図である。
 実施の形態では、位置及び姿勢の情報を検知可能な入力デバイスを利用して、ゲーム画面上のある対象を移動させる技術について説明する。ゲーム装置は、入力デバイスの位置の変位量と、入力デバイスの傾きの変位量の双方に基づいて、対象の位置を決定する。したがって、プレイヤーは、入力デバイス自体を上下左右に移動させることにより対象を移動させることもできるし、入力デバイスを上下左右に傾けることにより対象を移動させることもできる。ゲーム装置は、入力デバイスの位置の変位量と傾きの変位量のそれぞれに重みを付けて加算した値に基づいて対象の位置を決定するが、位置の変位量に付ける重みよりも傾きの変位量に付ける重みの方を大きくする。これにより、プレイヤーは、入力デバイスを移動させることによっても対象を移動させることが可能である上に、対象を大きく移動させたいときには、入力デバイスを大きく移動させなくても、入力デバイスを大きく傾けることで対象を容易に移動させることが可能となる。
 図1は、本発明の実施例にかかるゲームシステム1の使用環境を示す。ゲームシステム1は、ゲームソフトウェアを実行するゲーム装置10と、ゲーム装置10による処理結果を出力する表示装置12と、入力デバイス20と、入力デバイス20を撮像する撮像装置14を備える。
 入力デバイス20は、ユーザが操作指示を行うための操作入力装置であり、ゲーム装置10は、入力デバイス20における操作指示をもとにゲームアプリケーションを処理して、ゲームアプリケーションの処理結果を示す画像信号を生成する処理装置である。
 入力デバイス20は、ユーザによる操作指示をゲーム装置10に伝送する機能をもち、本実施例ではゲーム装置10との間で無線通信可能な無線コントローラとして構成される。入力デバイス20とゲーム装置10は、Bluetooth(ブルートゥース)(登録商標)プロトコルを用いて無線接続を確立してもよい。なお入力デバイス20は、無線コントローラに限らず、ゲーム装置10とケーブルを介して接続される有線コントローラであってもよい。
 入力デバイス20はバッテリにより駆動され、ゲームを進行させる操作指示を行うための複数のボタンを有して構成される。ユーザが入力デバイス20のボタンを操作すると、その操作指示が無線によりゲーム装置10に送信される。ゲーム装置10は、入力デバイス20から操作指示を受信し、操作指示に応じてゲーム進行を制御して、ゲーム画像信号を生成する。生成されたゲーム画像信号は、表示装置12より出力される。
 撮像装置14は、CCD撮像素子またはCMOS撮像素子などから構成されるビデオカメラであり、実空間を所定の周期で撮像して、周期ごとのフレーム画像を生成する。たとえば、撮像装置14の撮像速度は30枚/秒として、表示装置12のフレームレートと一致させてもよい。撮像装置14は、USB(Universal Serial Bus)あるいはその他のインタフェースを介してゲーム装置10と接続する。
 表示装置12は画像を出力するディスプレイであって、ゲーム装置10において生成された画像信号を受けて、ゲーム画面を表示する。表示装置12は、ディスプレイおよびスピーカを有するテレビであってよく、またコンピュータディスプレイであってもよい。表示装置12は、ゲーム装置10に有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。
 本実施例のゲームシステム1において、入力デバイス20は発光体を有する。ゲーム中、発光体は所定色で発光し、撮像装置14により撮像される。撮像装置14は入力デバイス20を撮像し、フレーム画像を生成してゲーム装置10に供給する。ゲーム装置10はフレーム画像を取得して、フレーム画像における発光体の画像の位置および大きさから、実空間における発光体の位置情報を導出する。ゲーム装置10は、位置情報をゲームの操作指示として取り扱い、プレイヤーキャラクタの動作を制御するなど、ゲームの処理に反映させる。本実施例のゲーム装置10は、入力デバイス20のボタンなどの操作入力だけでなく、取得した発光体画像の位置情報も用いてゲームアプリケーションを処理する機能をもつ。
 入力デバイス20の発光体は、複数色で発光可能に構成される。発光体は、ゲーム装置10からの発光指示により、発光色を変更できる。
 また入力デバイス20は加速度センサおよびジャイロセンサを有する。センサの検出値は、所定周期でゲーム装置10に送信され、ゲーム装置10は、センサの検出値を取得して、実空間における入力デバイス20の姿勢情報を取得する。ゲーム装置10は、姿勢情報をゲームの操作指示として取り扱い、ゲームの処理に反映させる。このように本実施例のゲーム装置10は、取得した入力デバイス20の姿勢情報も用いてゲームアプリケーションを処理する機能をもつ。
 図2は、入力デバイス20の外観構成を示す。図2(a)は、入力デバイス20の上面構成を示し、図2(b)は、入力デバイス20の下面構成を示す。入力デバイス20は、発光体22およびハンドル24を有する。発光体22は、その外側を光透過性を有する樹脂で球体に形成され、内側に発光ダイオードや電球などの発光素子を有する。内側の発光素子が発光すると、外側の球体全体が光る。ハンドル24の上面には、操作ボタン30、32、34、36、38が設けられ、下面には操作ボタン40が設けられる。ユーザはハンドル24の端部を手で把持した状態で、操作ボタン30、32、34、36、38を親指で操作し、操作ボタン40を人差し指で操作する。操作ボタン30、32、34、36、38は、押下式に構成され、ユーザは押下することで操作する。操作ボタン40は、アナログ量を入力できるものであってよい。
 ユーザは表示装置12に表示されるゲーム画面を見ながらゲームを行う。撮像装置14は、ゲームアプリケーションの実行中に発光体22を撮像する必要があるため、その撮像範囲が表示装置12と同じ方向を向くように配置されることが好ましい。一般にユーザは表示装置12の正面でゲームをプレイすることが多いため、撮像装置14は、その光軸の方向が表示装置12の正面方向と一致するように配置される。具体的に、撮像装置14は、表示装置12の近傍において、表示装置12の表示画面をユーザが視認可能な位置を撮像範囲に含むように配置されることが好ましい。これにより、撮像装置14は、入力デバイス20を撮像できる。
 図3は、入力デバイス20の内部構成を示す。入力デバイス20は、無線通信モジュール48、処理部50、発光部62および操作ボタン30、32、34、36、38、40を備える。無線通信モジュール48は、ゲーム装置10の無線通信モジュールとの間でデータを送受信する機能をもつ。処理部50は、入力デバイス20における所期の処理を実行する。
 処理部50は、メイン制御部52、入力受付部54、3軸加速度センサ56、3軸ジャイロセンサ58および発光制御部60を有する。メイン制御部52は、無線通信モジュール48との間で必要なデータの送受を行う。
 入力受付部54は、操作ボタン30、32、34、36、38、40からの入力情報を受け付け、メイン制御部52に送る。3軸加速度センサ56は、XYZの3軸方向の加速度成分を検出する。3軸ジャイロセンサ58は、XZ平面、ZY平面、YX平面における角速度を検出する。なお、ここでは、入力デバイス20の幅方向をX軸、高さ方向をY軸、長手方向をZ軸と設定する。3軸加速度センサ56および3軸ジャイロセンサ58は、入力デバイス20のハンドル24内に配置され、ハンドル24内の中心近傍に配置されることが好ましい。無線通信モジュール48は、操作ボタンからの入力情報とともに、3軸加速度センサ56による検出値情報、および3軸ジャイロセンサ58による検出値情報を、所定の周期でゲーム装置10の無線通信モジュールに送信する。この送信周期は、たとえば11.25m秒に設定される。
 発光制御部60は、発光部62の発光を制御する。発光部62は、赤色LED64a、緑色LED64b、青色LED64cを有し、複数色の発光を可能とする。発光制御部60は、赤色LED64a、緑色LED64b、青色LED64cの発光を調整して、発光部62を所望の色に発光させる。
 無線通信モジュール48はゲーム装置10から発光指示を受け取ると、メイン制御部52に供給し、メイン制御部52は、発光制御部60に発光指示を供給する。発光制御部60は、発光部62が発光指示により指定された色で発光するように、赤色LED64a、緑色LED64b、青色LED64cの発光を制御する。たとえば発光制御部60は、各LEDをPWM(パルス幅変調)制御で点灯制御してもよい。
 図4は、ゲーム装置10の構成を示す。ゲーム装置10は、フレーム画像取得部80、画像処理部82、デバイス情報導出部84、無線通信モジュール86、入力受付部88、出力部90およびアプリケーション処理部100を備える。本実施例におけるゲーム装置10の処理機能は、CPU、メモリ、メモリにロードされたプログラムなどによって実現され、ここではそれらの連携によって実現される構成を描いている。プログラムは、ゲーム装置10に内蔵されていてもよく、また記録媒体に格納された形態で外部から供給されるものであってもよい。したがってこれらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者に理解されるところである。なおハードウェアの構成上、ゲーム装置10は複数のCPUを有してもよい。
 無線通信モジュール86は、入力デバイス20の無線通信モジュール48との間で無線通信を確立する。これにより入力デバイス20は、操作ボタンの状態情報、3軸加速度センサ56および3軸ジャイロセンサ58の検出値情報を、ゲーム装置10に所定の周期で送信できるようになる。
 無線通信モジュール86は、入力デバイス20から送信される操作ボタンの状態情報、およびセンサ検出値情報を受信し、入力受付部88に供給する。入力受付部88は、ボタン状態情報およびセンサ検出値情報を分離し、アプリケーション処理部100に引き渡す。アプリケーション処理部100は、ボタン状態情報およびセンサ検出値情報を、ゲームの操作指示として受け取る。アプリケーション処理部100は、センサ検出値情報を、入力デバイス20の姿勢情報として取り扱う。
 フレーム画像取得部80はUSBインタフェースとして構成され、撮像装置14から所定の撮像速度(たとえば30フレーム/秒)でフレーム画像を取得する。画像処理部82は、フレーム画像から発光体画像を抽出する。画像処理部82は、フレーム画像中の発光体画像の位置、および大きさを特定する。入力デバイス20の発光体22が、たとえばユーザ環境内で使われそうにない色で点灯することで、画像処理部82は、フレーム画像から高精度に発光体画像を抽出できる。画像処理部82は、フレーム画像データを所定の閾値を用いて2値化処理し、2値化された画像を生成してもよい。この2値化処理により、所定の閾値より大きい輝度を保持する画素の画素値が“1”に符号化され、所定の閾値以下の輝度を保持する画素の画素値が“0”に符号化される。この所定の閾値を超える輝度で発光体22を点灯させることで、画像処理部82は、2値化された画像から、発光体画像の位置および大きさを特定できる。たとえば画像処理部82は、フレーム画像における発光体画像の重心座標と、発光体画像の半径を特定する。
 デバイス情報導出部84は、画像処理部82で特定された発光体画像の位置および大きさから、撮像装置14からみた入力デバイス20の位置情報を導出する。デバイス情報導出部84は、発光体画像の重心座標からカメラ座標における位置座標を導出し、また発光体画像の半径から、撮像装置14からの距離情報を導出する。この位置座標および距離情報は、入力デバイス20の位置情報を構成する。デバイス情報導出部84は、フレーム画像ごとに入力デバイス20の位置情報を導出し、アプリケーション処理部100に引き渡す。アプリケーション処理部100は、入力デバイス20の位置情報を、ゲームの操作指示として受け取る。
 アプリケーション処理部100は、入力デバイス20の位置情報および姿勢情報と、ボタン状態情報とからゲームを進行させて、ゲームアプリケーションの処理結果を示す画像信号を生成する。画像信号は出力部90から表示装置12に送られ、表示画像として出力される。
 図5は、アプリケーション処理部100の構成を示す。アプリケーション処理部100は、操作指示受付部102、制御部110、パラメータ保持部150、ゲームデータ保持部152および画像生成部154を備える。
 操作指示受付部102は、デバイス情報導出部84から入力デバイス20の位置情報を、入力受付部88から入力デバイス20の姿勢情報およびボタン状態情報を、それぞれ操作指示として受け付ける。制御部110は、操作指示受付部102が受け付けた操作指示にもとづいてゲームプログラムを実行し、ゲームを進行させる。パラメータ保持部150は、ゲームの進行に必要なパラメータを保持する。ゲームデータ保持部152は、ゲーム世界を構成するオブジェクトなどの三次元データを保持する。画像生成部154は、制御部110によりレンダリングされたゲームフィールドの画像に、各種情報などを付加して表示画面を生成する。
 制御部110は、第1ゲームモード制御部112、第2ゲームモード制御部114、第3ゲームモード制御部115、モード切替部116、位置算出部118、回転制御部120、残像制御部122を含む。
 第1ゲームモード制御部112は、網を操作して敵キャラクタを捕獲する第1ゲームモードを制御する。第2ゲームモード制御部114は、パチンコを操作して敵キャラクタを打ち落とす第2ゲームモードを制御する。モード切替部116は、プレイヤーからの指示に応じて、第1ゲームモードと第2ゲームモードとの間でゲームモードを切り替える。位置算出部118は、後述するように、プレイヤーによる入力デバイス20の操作に応じて、第1ゲームモードにおける網の位置や、第2ゲームモードにおけるパチンコのターゲットの位置を算出する。回転制御部120は、入力デバイス20の長軸の周りの回転に応じて、ゲーム内のオブジェクトなどを回転させる。残像制御部122は、移動対象であるオブジェクトなどの画像の残像を表示する。
 図6は、実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す。図6は、第1ゲームモードにおけるゲーム画面を示している。ゲーム画面には、敵キャラクタ172と、敵キャラクタ172を捕獲するための網170が表示されている。第1ゲームモード制御部112は、画像生成部154に、ゲームフィールドの画像を生成させるとともに、敵キャラクタの位置を通知して、敵キャラクタの画像を生成させる。画像生成部154は、ゲームデータ保持部152から、ゲームフィールドに設けられたオブジェクトのデータを読み出し、視点位置及び視線方向を設定して、ゲームフィールドの画像をレンダリングする。また、ゲームデータ保持部152から、敵キャラクタのデータを読み出し、第1ゲームモード制御部112から通知された位置に敵キャラクタを配置してレンダリングする。第1ゲームモード制御部112は、敵キャラクタ172を所定のアルゴリズムにより移動させる。また、入力デバイス20の位置情報及び姿勢情報に基づいて、網170の位置及び姿勢を制御する。
 図7は、実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す。プレイヤーは、入力デバイス20の位置を移動させたり、傾けたりして、網170を移動させ、敵キャラクタ172を網170の中に捕獲する。第1ゲームモード制御部112は、網170の枠と敵キャラクタ172との位置関係により、敵キャラクタ172が網170の中に捕獲されたか否かを判定する。
 図8は、実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す。第1ゲームモード制御部112は、網170により敵キャラクタが捕獲されたと判定すると、敵キャラクタを画面から消去する。このとき、第1ゲームモード制御部112は、プレイヤーに所定のポイントを与える。図7及び図8に示した例では、敵キャラクタ172が網170の枠から網170の内部に入るように網170が移動されたので、第1ゲームモード制御部112は、敵キャラクタ172が網170の中に捕獲されたと判定したが、異なる方向から網170が敵キャラクタ172にぶつかった場合には、第1ゲームモード制御部112は、敵キャラクタ172が網170の中に捕獲されなかったと判定する。
 第1ゲームモードでは、プレイヤーは、入力デバイス20を長軸の周りに回転させることにより、網170の持ち手を回転軸として網170を回転させることができる。プレイヤーは、網170を敵キャラクタ172に向かって移動させるだけでなく、網170の向きを合わせなければならない。
 図9は、実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す。図8に示した状態において、プレイヤーが、入力デバイス20を長軸の周りに回転させると、回転制御部120は、入力デバイス20の長軸の周りの回転量と同じ角度だけ網170を回転させる。このときの状態を図9に示す。
 図10は、実施の形態に係るゲーム装置により制御されるゲームの画面の例を示す。図10は、第2ゲームモードにおけるゲーム画面を示している。プレイヤーが、入力デバイス20の操作ボタン40を押すと、モード切替部116は、第1ゲームモードと第2ゲームモードとの間でゲームモードを切り替える。プレイヤーは、入力デバイス20の操作ボタン40を押すことにより、敵キャラクタを倒すための武器を、網とパチンコの間で持ち替えることができる。
 第2ゲームモード制御部114は、第1ゲームモード制御部112と同様に、ゲームフィールドの画像と敵キャラクタの画像を画像生成部154に生成させる。第2ゲームモード制御部114は、敵キャラクタ174を所定のアルゴリズムにより移動させる。また、入力デバイス20の位置情報及び姿勢情報に基づいて、パチンコ176の玉178のターゲット180の位置を制御する。第2ゲームモード制御部114は、プレイヤーが入力デバイス20の操作ボタン36を押すと、パチンコ176の玉178をターゲット180に向けて発射する。第2ゲームモード制御部114は、ターゲット180と敵キャラクタ174の位置関係に基づいて、玉178が敵キャラクタ174に当たったか否かを判定し、当たったと判定した場合は、敵キャラクタ174を消去し、所定のポイントをプレイヤーに与える。
 つづいて、位置算出部が位置を算出する方法について説明する。位置算出部118は、第1ゲームモードと第2ゲームモードとにおいて、異なる方法で位置を算出する。まず、第2ゲームモードにおけるターゲットの位置を算出する方法について説明する。
 図11は、位置算出部が位置を算出する方法を説明するための図である。位置算出部118は、ゲームの開始に先立って、入力デバイス20の位置及び姿勢のキャリブレーションを行う。位置算出部118は、入力デバイス20の初期位置及び初期姿勢を決定するためのキャリブレーション画面をプレイヤーに提示し、プレイヤーが所定の操作ボタンを入力したときの入力デバイス20の位置及び姿勢を初期位置及び初期姿勢に決定してパラメータ保持部150に格納する。位置算出部118は、表示画面の中心を原点とする座標系において、入力デバイス20の位置及び姿勢が初期位置及び初期姿勢であるときの対象の位置を原点とし、入力デバイス20の位置及び姿勢の変位量に基づいて対象の位置を算出する。
 位置算出部118は、撮像装置14の撮像範囲190において、入力デバイス20の初期位置を中心とした所定の大きさの矩形192を設定し、入力デバイス20の位置の変位量を算出するための基準とする。位置算出部118は、初期位置からの入力デバイス20の位置の変位量を、鉛直方向は、矩形192の上端を+1、下端を-1として、水平方向は、矩形192の右端を+1、左端を-1として、それぞれ数値化し、図12に示すように、水平方向の位置の変位量xTと鉛直方向の位置の変位量yTを算出する。位置算出部118は、算出された位置の変位量xT及びyTをパラメータ保持部150に格納する。矩形192から上下にはみ出した位置に入力デバイス20が存在する場合には、位置算出部118は、xT及びyTを、+1よりも大きい値又は-1よりも小さい値としてもよいし、+1よりも大きくなる場合は+1、-1よりも小さくなる場合は-1としてもよいし、図13に示すように、矩形192を大きくして-1から+1の範囲に含まれるようにしてもよい。図12に示す例の場合、入力デバイス20が元の矩形192の内側に戻ると、矩形192を元の大きさに戻してもよい。このとき、矩形192の大きさを徐々に小さくしてもよい。
 矩形192は、撮像装置14の一般的な撮像範囲である、横方向の長さと縦方向の長さの比が4対3の矩形であってもよいし、表示装置12の一般的な表示範囲である、横方向の長さと縦方向の長さの比が16対9の矩形であってもよい。矩形192は、入力デバイス20の位置の変位量を、表示画面における対象の位置の移動量に変換する際の感度の基準となる。
 位置算出部118は、キャリブレーションの際に、プレイヤーが撮像範囲190の周縁付近で初期位置を設定した場合、図14に示すように、撮像範囲190の内部におさまるように矩形192を設定してもよい。この場合、初期位置は矩形192の中心と一致しないので、鉛直方向の上側と下側、水平方向の右側と左側とで、位置の変位量を数値化する際の感度が異なるようにしてもよい。別の例では、図14に示した矩形192の中心を初期位置としてもよい。この場合、キャリブレーションされた位置と初期位置は一致しない。プレイヤーが撮像範囲190の周縁付近で初期位置を設定しようとしたとき、撮像範囲190の中央寄りで初期位置を設定するようプレイヤーに警告してもよい。
 位置算出部118は、入力デバイス20と撮像装置14との間の距離に基づいて、入力デバイス20の位置の変位量を、表示画面における対象の位置の移動量に変換する際に乗じる感度を決定してもよい。入力デバイス20と撮像装置14との間の距離が近いほど、プレイヤーが入力デバイス20を移動させた量が小さくても、撮像装置14による撮像画像上では入力デバイス20が大きく移動することになる。したがって、位置算出部118は、入力デバイス20と撮像装置14との間の距離が近いほど、矩形192を大きくするなどして、感度を下げてもよい。これにより、入力デバイス20と撮像装置14との間の距離が変わっても操作感覚があまり変わらないような操作環境を提供することができる。
 図15は、位置算出部が位置を算出する方法を説明するための図である。位置算出部118は、キャリブレーション時に入力デバイス20が表示装置12の方向へ向いていたものとして、その初期姿勢からのジャイロ値(角速度)の積分値を現在の入力デバイス20の姿勢情報とする。位置算出部118は、事前にキャリブレーションにより決定された位置にある入力デバイス20が、撮像装置14の撮像範囲又は表示装置12の表示範囲の全体をパンするのに要する角度を単位として、入力デバイス20の傾きの変位量を数値化する。図15に示すように、入力デバイス20の位置が撮像装置14又は表示装置12に近いほど、撮像範囲又は表示範囲全体をパンするのに要する角度が大きくなる。位置算出部118は、表示装置12の表示範囲の大きさを取得できる場合には、表示範囲の大きさと、表示装置12又は撮像装置14から入力デバイス20までの距離から、表示範囲の全体をパンするのに要する角度を求め、その値を基準として入力デバイス20の傾きの変位量を数値化してもよい。表示装置12の表示範囲の大きさが未知である場合などには、単位となる角度を予め定めてもよい。この場合、取得された入力デバイス20の傾きを単位となる角度で除した値に、撮像装置14と入力デバイス20との間の距離を乗じることにより、入力デバイス20が撮像装置14から離れるほど、傾きの変位量が大きく評価されるようにする。位置算出部118は、算出された傾きの変位量xR及びyRをパラメータ保持部150に格納する。
 位置算出部118は、パラメータ保持部150から、最新の位置の変位量xT1及びyT1と、1フレーム前の位置の変位量xT0及びyT0とを読み出して、それぞれに重みを付けて加重平均を算出し、現在の位置の変位量xT及びyTとする。すなわち、
 xT=αxT1+(1-α)xT0
 yT=αyT1+(1-α)yT0
 ここで、αは0から1までの値であり、例えば、0.4であってもよい。
 位置算出部118は、同様に、パラメータ保持部150から、最新の傾きの変位量xR1及びyR1と、1フレーム前の傾きの変位量xR0及びyR0とを読み出して、それぞれに重みを付けて加重平均を算出し、現在の傾きの変位量xR及びyRとする。すなわち、
 xR=αxR1+(1-α)xR0
 yR=αyR1+(1-α)yR0
 ここで、αは0から1までの値であり、例えば、0.4であってもよい。
 このように、最新の変位量だけでなく、過去の変位量を考慮に入れて現在の変位量を算出することにより、プレイヤーが把持する入力デバイス20の位置や傾きのぶれが、網やターゲットなどの位置に直接反映されるのを防ぎ、ぶれを低減することができる。
 位置算出部118は、現在の位置の変位量xT及びyTと、現在の傾きの変位量xR及びyRに、それぞれ重みを付けて加算することにより、ゲームフィールドにおける位置x及びyを算出する。すなわち、
 x=β1xT+β2xR
 y=β1yT+β2yR
 位置算出部118は、位置の変位量に付ける重みβ1よりも、傾きの変位量に付ける重みβ2の方を大きくする。位置算出部118は、例えば、β1を0.8、β2を1.5としてもよい。
 位置算出部118は、算出されたx及びyをパラメータ保持部150に格納する。画像生成部154は、網やターゲットの画像を生成する際に、パラメータ保持部150から過去の所定の範囲の網又はターゲットの位置を読み出し、過去の位置に網又はターゲットの残像を表示する。画像生成部154は、残像を表示する際に、α値を低くして半透明にして表示してもよい。また、過去の所定の範囲の全てのフレームの残像を表示するのではなく、所定のフレームごとに間引いて残像を表示してもよい。位置算出部118は、全てのフレームの位置をパラメータ保持部150に格納するのではなく、所定のフレームごとに間引いて位置を格納してもよい。
 第1ゲームモードにおいては、入力デバイス20は網として機能し、第2ゲームモードにおいては、入力デバイス20はターゲットを移動させる機能を有する。したがって、第1ゲームモードと第2ゲームモードとでは、プレイヤーが操作する入力デバイス20の平均的な姿勢が異なる。このため、モード切替部116は、第1ゲームモードと第2ゲームモードの間でゲームモードを切り替える際に、初期姿勢の設定を変更する。本実施の形態では、第2ゲームモードにおける初期姿勢のオフセット値は、好ましくは鉛直上向きに30~60度、より好ましくは50度であってもよい。すなわち、第1ゲームモードでは、事前にキャリブレーションにより決定された入力デバイス20の位置を初期位置として位置の変位量が算出され、初期姿勢を基準とした水平方向及び鉛直方向からの傾きが傾きの変位量とされるが、第2ゲームモードでは、鉛直方向については、入力デバイス20を水平方向から鉛直上向きに50度傾けた姿勢を基準として傾きの変位量が算出される。これにより、入力デバイス20を銃のグリップに、操作ボタン40を銃のトリガーに見立て、銃を撃つような感覚で入力デバイス20を操作することができる。また、第2ゲームモードから第1ゲームモードにゲームモードを切り替えたとき、網が50度程度上向きに傾いた状態になるので、操作しやすい操作環境を提供することができる。モード切替部116は、第1ゲームモードから第2ゲームモードに切り替える際に、鉛直方向の初期姿勢を50度上に傾いた姿勢に設定する。モード切替部116は、第2ゲームモードから第2ゲームモードに切り替える際には、鉛直方向の初期姿勢を水平方向に設定する。モード切替部116は、第2ゲームモードに切り替えられたときの入力デバイス20の姿勢を初期値として設定してもよい。
 つづいて、第1ゲームモードにおいて網の位置を算出する方法について説明する。第1ゲームモードにおいては、位置算出部118は、撮像装置14により撮像された入力デバイス20の位置情報に基づいて網の位置を決定する。位置算出部118は、第2ゲームモードにおける位置の算出方法において、位置の変位量のみを考慮して網の位置を算出してもよいし、第2ゲームモードの場合と同様にして網の位置を算出してもよい。第1ゲームモードにおいては、3軸ジャイロセンサ58から取得される情報に基づいて、回転制御部120が網の姿勢を制御する。また、3軸加速度センサ56から取得される情報に基づいて、第1ゲームモード制御部112が網を振る動作を制御する。第2ゲームモードにおいては、ターゲットの位置のみが制御されるが、第1ゲームモードにおいては、網の位置だけでなく網の姿勢や動作なども制御する必要があるので、位置算出部118は、第1ゲームモードと第2ゲームモードにおいて異なる方法により対象の位置を算出する。
 上記の例では、キャリブレーションにより決定された入力デバイス20の初期位置を基準とした入力デバイス20の位置の変位量の絶対値を用いて対象の位置を算出したが、前回算出時の入力デバイス20の位置からの相対的な変位量を用いて対象の位置を算出してもよい。位置算出部118は、前フレームにおける入力デバイス20の位置と現フレームにおける入力デバイス20の位置との差分に、感度を示す所定の値を乗じた値を、表示画面の座標系における対象の位置の移動量としてもよい。
 図16は、第3ゲームモードにおけるゲーム画面を示す。第3ゲームモード制御部115は、画面内に表示された複数のキャラクタの中から、指定されたキャラクタを発見して狙撃するゲームを制御する。第3ゲームモード制御部115は、プレイヤーが狙撃すべきキャラクタ194の画像を画面に表示させるとともに、キャラクタ194と同一のキャラクタ196と、キャラクタ194とは色や形状などの異なる複数のキャラクタとをゲームフィールドに配置し、画像生成部154にゲームフィールドの画像を生成させる。
 図17は、第3ゲームモードにおけるゲーム画面を示す。第3ゲームモードにおいては、入力デバイス20をライフルに見たて、入力デバイス20が上方に向けられている間は、図16に示したゲームフィールドの全体図を表示し、入力デバイス20が画面、すなわち撮像装置14の方へ向けられると、図17に示した拡大図を表示する。図17に示したゲーム画面は、照準器から覗いた様子を模しており、画面よりも狭い円形の領域の内部にゲームフィールドの拡大図を表示する。プレイヤーは、入力デバイス20を上方に向けて全体図を表示させ、キャラクタ196の大まかな位置を把握し、入力デバイス20を画面に向けて拡大図を表示させ、入力デバイス20を用いてキャラクタ196が存在する位置へ拡大図の表示領域を移動させ、キャラクタ196に照準を合わせて狙撃する。このように、入力デバイス20を上方に向けることが、照準器から視線を外してゲームフィールド全体を眺めることに対応し、入力デバイス20を画面に向けることが、照準器を覗き込むことに対応しているので、直感的に分かりやすいインタフェースを提供することができる。
 第3ゲームモード制御部115は、ゲームの開始前に、入力デバイス20を上向きに把持するようプレイヤーに促し、入力デバイス20が上方に向けられていることを検知すると、図16に示す全体図を表示してゲームを開始させる。第3ゲームモード制御部115は、全体図を表示しているときに、入力デバイス20の鉛直上向きからの傾きが所定の角度を超えて、水平方向に近い角度になったことを検知すると、図17に示した拡大図に表示を切り替える。このとき、第3ゲームモード制御部115は、全体図をレンダリングするときの視点位置よりもゲームフィールドに近い所定位置に視点位置を設定し、所定の視線方向、例えば、全体図をレンダリングするときの視線方向と同じ視線方向を設定して、画像生成部154に拡大図をレンダリングさせる。第3ゲームモード制御部115は、拡大図に切り替えるときの入力デバイス20の姿勢に応じて視線方向を設定してもよい。例えば、左右方向については、入力デバイス20と撮像装置14を結ぶ直線との間の角度に応じて、視線方向を設定してもよい。
 位置算出部118は、このときの入力デバイス20の位置及び姿勢を基準としてキャリブレーションを行い、第1ゲームモード又は第2ゲームモードの場合と同様に、入力デバイス20の位置及び姿勢から、ゲームフィールドにおける照準198の位置を算出する。第3ゲームモード制御部115は、算出された照準198の現在位置から、拡大図において照準198の位置が中央になるように、拡大図をレンダリングするときの視線方向を算出し、画像生成部154に通知する。これにより、プレイヤーは、入力デバイス20を上下左右に移動させたり、上下左右に傾けたりすることにより、拡大図の表示領域をゲームフィールドにおいて上下左右に移動させ、照準198の位置を上下左右に移動させることができる。
 第3ゲームモード制御部115は、入力デバイス20と撮像装置14との間の距離に応じて、拡大図をレンダリングするときの視点位置を移動させ、画像生成部154に通知する。すなわち、入力デバイス20と撮像装置14との間の距離が、拡大図に切り替えたときの距離よりも短くなれば視点位置をゲームフィールドに近づけ、長くなれば遠ざける。これにより、プレイヤーは、入力デバイス20を撮像装置14に近づけることにより拡大図をズームアップし、遠ざけることによりズームダウンすることができる。
 第3ゲームモード制御部115は、拡大図を表示しているときに、入力デバイス20の鉛直上向きからの傾きが所定の角度を下回り、鉛直上向きに近い角度になったことを検知すると、図16に示した全体図に表示を切り替える。このとき、入力デバイス20の位置及び姿勢のキャリブレーションはリセットされ、次回に拡大図が表示されるときに再びキャリブレーションが行われる。
 全体図から拡大図へ切り替えるときの入力デバイス20の鉛直上向きからの傾きを第1しきい値とし、拡大図から全体図へ切り替えるときの傾きを第2しきい値とすると、第1しきい値は第2しきい値よりも大きいことが好ましい。例えば、第1のしきい値は90度に近く、ほぼ水平方向であってもよく、第2のしきい値は0度に近く、ほぼ鉛直上方であってもよい。このように、全体図から拡大図への切替と拡大図から全体図への切替に関してヒステリシスを設けることにより、プレイヤーが入力デバイス20を操作して照準器を移動させたりしている間に、意図せず全体図と拡大図の間で表示が切り替わってしまうことを防ぐことができる。
 位置算出部118は、拡大図をレンダリングするときの視点位置によらず、照準を移動させるときの感度を同じとしてもよいし、視点位置に応じて感度を変化させてもよい。前者の場合、入力デバイス20を同じだけ移動させたり傾けたりしたとき、ズームアップするほど拡大図上では照準が大きく移動するので、実際に照準器を覗いているのと同様のインタフェースを提供することができる。後者の場合、例えば、視点位置をゲームフィールドに近づけてズームアップするほど、照準を移動させるときの感度を低くすることにより、拡大図上での照準の移動を小さくしてもよい。これにより、照準を合わせることが容易なインタフェースを提供することができる。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、その各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 10 ゲーム装置、110 制御部、112 第1ゲームモード制御部、114 第2ゲームモード制御部、115 第3ゲームモード制御部、116 モード切替部、118 位置算出部、120 回転制御部、122 残像制御部、150 パラメータ保持部、152 ゲームデータ保持部、154 画像生成部。
 本発明は、入力デバイスの位置及び姿勢を操作入力としてゲームを制御するゲーム装置に利用可能である。

Claims (11)

  1.  表示装置に表示される画面上のある対象の位置を移動させるための入力デバイスの位置を取得する機能と、
     前記入力デバイスの傾きを取得する機能と、
     前記入力デバイスの位置の変位量及び前記入力デバイスの傾きの変位量に基づいて、前記画面における前記対象の位置を決定する機能と、
     をコンピュータに実現させるためのゲーム制御プログラム。
  2.  前記決定する機能は、前記位置の変位量と前記傾きの変位量のそれぞれに重みを付けて加算した値に基づいて前記対象の位置を決定し、
     前記傾きの変位量に付ける重みを、前記位置の変位量に付ける重みよりも重くすることを特徴とする請求項1に記載のゲーム制御プログラム。
  3.  前記入力デバイスの位置を取得する機能は、プレイヤーが把持する前記入力デバイスを撮像装置により撮像した画像を解析することにより得られた前記入力デバイスの位置を取得することを特徴とする請求項1又は2に記載のゲーム制御プログラム。
  4.  前記決定する機能は、前記入力デバイスと前記撮像装置又は前記表示装置との間の距離が長いほど、前記入力デバイスの傾きの変位量を大きく評価して、前記対象の位置を決定することを特徴とする請求項3に記載のゲーム制御プログラム。
  5.  異なる複数のモードのゲームを制御する機能と、
     前記ゲームのモードを切り替える機能と、を更にコンピュータに実現させ、
     前記決定する機能は、前記ゲームのモードが切り替えられたときに、前記位置の変位量又は前記傾きの変位量を求める基準となる初期値を切り替えることを特徴とする請求項1から4のいずれかに記載のゲーム制御プログラム。
  6.  前記位置の変位量及び前記傾きの変位量を第1保持部に記録する機能を更にコンピュータに実現させ、
     前記決定する機能は、前記第1保持部から読み出した過去の前記位置の変位量及び前記傾きの変位量と、最新の前記位置の変位量及び前記傾きの変位量との加重平均を、それぞれ前記位置の変位量及び前記傾きの変位量とすることを特徴とする請求項1から5のいずれかに記載のゲーム制御プログラム。
  7.  前記入力デバイスの長軸の周りの回転量を取得する機能と、
     前記回転量に基づいて、前記対象を回転させる機能と、
     を更にコンピュータに実現させることを特徴とする請求項1から6のいずれかに記載のゲーム制御プログラム。
  8.  前記対象の位置を第2保持部に記録する機能と、
     前記画面における前記対象の位置に、前記対象の画像を表示する機能と、
     前記第2保持部に保持された過去の前記対象の位置に、前記対象の残像を表示する機能と、
     を更にコンピュータに実現させることを特徴とする請求項1から7のいずれかに記載のゲーム制御プログラム。
  9.  表示装置に表示される画面上のある対象の位置を移動させるための入力デバイスの位置を取得する位置取得部と、
     前記入力デバイスの傾きを取得する傾き取得部と、
     前記入力デバイスの位置の変位量及び前記入力デバイスの傾きの変位量に基づいて、前記画面における前記対象の位置を決定する位置算出部と、
     を備えることを特徴とするゲーム装置。
  10.  表示装置に表示される画面上のある対象の位置を移動させるための入力デバイスの位置を取得するステップと、
     前記入力デバイスの傾きを取得するステップと、
     前記入力デバイスの位置の変位量及び前記入力デバイスの傾きの変位量に基づいて、前記画面における前記対象の位置を決定するステップと、
     を備えることを特徴とするゲーム制御方法。
  11.  請求項1から8のいずれかに記載のゲーム制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2010/006819 2010-06-30 2010-11-22 ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム WO2012001754A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/257,755 US8851994B2 (en) 2010-06-30 2010-11-22 Game device, game control method, and game control program adapted to control game by using position and posture of input device
JP2011509742A JP5389162B2 (ja) 2010-06-30 2010-11-22 ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
EP10854051.9A EP2590058B1 (en) 2010-06-30 2010-11-22 Game device, method of game control, and game control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010150003 2010-06-30
JP2010-150003 2010-06-30

Publications (1)

Publication Number Publication Date
WO2012001754A1 true WO2012001754A1 (ja) 2012-01-05

Family

ID=45401512

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/006819 WO2012001754A1 (ja) 2010-06-30 2010-11-22 ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム

Country Status (4)

Country Link
US (1) US8851994B2 (ja)
EP (1) EP2590058B1 (ja)
JP (1) JP5389162B2 (ja)
WO (1) WO2012001754A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196568A (ja) * 2012-03-22 2013-09-30 Nintendo Co Ltd ゲームシステム、ゲーム処理方法、ゲーム装置、およびゲームプログラム
JP2014171860A (ja) * 2013-03-12 2014-09-22 Fourthirtythree Inc シューティングゲームが記録されたコンピュータ可読の記録媒体
JP2016106297A (ja) * 2012-10-15 2016-06-16 株式会社ソニー・インタラクティブエンタテインメント 操作デバイス
US9789395B2 (en) 2012-10-15 2017-10-17 Sony Interactive Entertainment Inc. Operating device
JP2020188985A (ja) * 2019-05-23 2020-11-26 任天堂株式会社 ゲームプログラム、ゲームシステム、ゲーム装置制御方法、およびゲーム装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8497838B2 (en) * 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
KR101831400B1 (ko) * 2011-06-16 2018-02-26 삼성전자주식회사 디스플레이 장치 및 그 캘리브레이션 방법
JP5586545B2 (ja) * 2011-09-09 2014-09-10 任天堂株式会社 ゲームシステム、携帯型ゲーム装置、情報処理部の制御方法、および情報処理部の制御プログラム
CN107913521B (zh) * 2017-11-09 2019-02-26 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法和装置
CN109806588B (zh) * 2019-01-31 2020-12-01 腾讯科技(深圳)有限公司 属性值的恢复方法和装置、存储介质、电子装置
RU2766827C1 (ru) * 2021-06-08 2022-03-16 Петр Александрович Баранник Способ развития зрительно-моторной реакции стрелка при скоростной стрельбе в зданиях

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007289529A (ja) * 2006-04-26 2007-11-08 Sony Computer Entertainment Inc ゲームコントローラ
US20080120057A1 (en) 2006-09-21 2008-05-22 Sony Computer Entertainment Inc. Information processing device, information processing method, and information storage medium
JP2009087145A (ja) * 2007-10-01 2009-04-23 Nintendo Co Ltd 画像処理プログラムおよび画像処理装置
JP2010019751A (ja) * 2008-07-11 2010-01-28 Nintendo Co Ltd ディジタルデータ補正プログラムおよびディジタルデータ補正装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5366376A (en) * 1992-05-22 1994-11-22 Atari Games Corporation Driver training system and method with performance data feedback
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
JP3059956B2 (ja) 1998-03-19 2000-07-04 コナミ株式会社 画像作成装置、画像作成方法及び画像作成プログラムが記録された可読記録媒体
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7391409B2 (en) * 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
JP4179162B2 (ja) * 2003-12-26 2008-11-12 株式会社セガ 情報処理装置、ゲーム装置、画像生成方法、ゲーム画像生成方法
JP4471910B2 (ja) * 2005-09-14 2010-06-02 任天堂株式会社 仮想位置決定プログラム
JP4530419B2 (ja) * 2006-03-09 2010-08-25 任天堂株式会社 座標算出装置および座標算出プログラム
JP5196515B2 (ja) * 2006-04-25 2013-05-15 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US7988558B2 (en) * 2006-04-27 2011-08-02 Nintendo Co., Ltd. Game apparatus and storage medium storing game program
EP2194509A1 (en) * 2006-05-07 2010-06-09 Sony Computer Entertainment Inc. Method for providing affective characteristics to computer generated avatar during gameplay
JP5089079B2 (ja) * 2006-05-08 2012-12-05 任天堂株式会社 プログラム、情報記憶媒体及び画像生成システム
JP5330640B2 (ja) * 2006-05-09 2013-10-30 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP4861855B2 (ja) * 2007-02-15 2012-01-25 株式会社バンダイナムコゲームス 指示位置演算システム、指示体及びゲームシステム
US20080309618A1 (en) 2007-06-12 2008-12-18 Kazuyuki Okada Methods and systems for controlling an input device, for generating collision data, and for controlling a camera angle
JP5214215B2 (ja) * 2007-11-02 2013-06-19 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP5334595B2 (ja) * 2009-01-09 2013-11-06 任天堂株式会社 ゲーム装置およびゲームプログラム
JP4748270B2 (ja) * 2009-01-30 2011-08-17 株式会社ニコン 画像処理装置および画像処理プログラム
JP5421655B2 (ja) * 2009-05-28 2014-02-19 任天堂株式会社 ゲームプログラム及びゲーム装置
JP5234809B2 (ja) * 2009-06-24 2013-07-10 任天堂株式会社 情報処理プログラムおよび情報処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007289529A (ja) * 2006-04-26 2007-11-08 Sony Computer Entertainment Inc ゲームコントローラ
US20080120057A1 (en) 2006-09-21 2008-05-22 Sony Computer Entertainment Inc. Information processing device, information processing method, and information storage medium
JP2009087145A (ja) * 2007-10-01 2009-04-23 Nintendo Co Ltd 画像処理プログラムおよび画像処理装置
JP2010019751A (ja) * 2008-07-11 2010-01-28 Nintendo Co Ltd ディジタルデータ補正プログラムおよびディジタルデータ補正装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2590058A4

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196568A (ja) * 2012-03-22 2013-09-30 Nintendo Co Ltd ゲームシステム、ゲーム処理方法、ゲーム装置、およびゲームプログラム
JP2016106297A (ja) * 2012-10-15 2016-06-16 株式会社ソニー・インタラクティブエンタテインメント 操作デバイス
US9690392B2 (en) 2012-10-15 2017-06-27 Sony Corporation Operating device including a touch sensor
US9789395B2 (en) 2012-10-15 2017-10-17 Sony Interactive Entertainment Inc. Operating device
US10507386B2 (en) 2012-10-15 2019-12-17 Sony Interactive Entertainment Inc. Operating device
US10603576B2 (en) 2012-10-15 2020-03-31 Sony Interactive Entertainment Inc. Operating device including a touch sensor
JP2014171860A (ja) * 2013-03-12 2014-09-22 Fourthirtythree Inc シューティングゲームが記録されたコンピュータ可読の記録媒体
JP2020188985A (ja) * 2019-05-23 2020-11-26 任天堂株式会社 ゲームプログラム、ゲームシステム、ゲーム装置制御方法、およびゲーム装置
JP7166219B2 (ja) 2019-05-23 2022-11-07 任天堂株式会社 ゲームプログラム、ゲームシステム、ゲーム装置制御方法、およびゲーム装置

Also Published As

Publication number Publication date
JPWO2012001754A1 (ja) 2013-08-22
EP2590058A1 (en) 2013-05-08
EP2590058A4 (en) 2014-07-30
EP2590058B1 (en) 2018-03-21
JP5389162B2 (ja) 2014-01-15
US20130095919A1 (en) 2013-04-18
US8851994B2 (en) 2014-10-07

Similar Documents

Publication Publication Date Title
JP5389162B2 (ja) ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
JP5330640B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP4794957B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP6532393B2 (ja) 表示制御装置及び表示制御方法
US8403753B2 (en) Computer-readable storage medium storing game program, game apparatus, and processing method
US9751013B2 (en) Storage medium, information processing system, and information processing method for adjusting images based on movement information
JP2007080002A (ja) 仮想位置決定プログラム
WO2017094608A1 (ja) 表示制御装置及び表示制御方法
JP5291305B2 (ja) ゲームプログラムおよびゲーム装置
JP2007296248A (ja) ゲーム装置
JP5259965B2 (ja) 情報処理プログラム、および、情報処理装置
JP2010142404A (ja) ゲームプログラムおよびゲーム装置
JP5945297B2 (ja) ゲームプログラムおよびゲーム装置
JP2011024612A (ja) ゲーム装置
JP5453006B2 (ja) ゲーム装置
US8721444B2 (en) Game device for performing operation object control and non-operation object control
JP5331259B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7462591B2 (ja) 表示制御装置及び表示制御方法
JP6891319B2 (ja) 表示制御装置及び表示制御方法
JP5357998B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP2019185049A (ja) 表示制御装置及び表示制御方法
JP2011255090A (ja) ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
JP2012000154A (ja) ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2011509742

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13257755

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10854051

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010854051

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE