WO2014142104A1 - ゲーム装置 - Google Patents

ゲーム装置 Download PDF

Info

Publication number
WO2014142104A1
WO2014142104A1 PCT/JP2014/056276 JP2014056276W WO2014142104A1 WO 2014142104 A1 WO2014142104 A1 WO 2014142104A1 JP 2014056276 W JP2014056276 W JP 2014056276W WO 2014142104 A1 WO2014142104 A1 WO 2014142104A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
game
lines
collide
timing
Prior art date
Application number
PCT/JP2014/056276
Other languages
English (en)
French (fr)
Inventor
はるか 俵山
心芸 謝
徳志 吉田
尚紀 前田
直紀 田羅間
武布 藤島
Original Assignee
株式会社カプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013047903A external-priority patent/JP5558602B1/ja
Priority claimed from JP2013116930A external-priority patent/JP5433096B1/ja
Application filed by 株式会社カプコン filed Critical 株式会社カプコン
Priority to CN201480014057.5A priority Critical patent/CN105188866B/zh
Priority to KR1020157021983A priority patent/KR101709653B1/ko
Priority to KR1020167022792A priority patent/KR101732001B1/ko
Priority to US14/775,131 priority patent/US10076704B2/en
Publication of WO2014142104A1 publication Critical patent/WO2014142104A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges

Definitions

  • the present invention relates to a game apparatus that executes a game in which an operation is input in accordance with a predetermined timing.
  • a game that evaluates user operation timing is known.
  • the game described in Japanese Patent No. 3686925 is a game for evaluating a user's operation at the timing when two images overlap.
  • the game described in Japanese Patent Application Laid-Open No. 2007-111568 is a game that operates on a game machine having a touch panel and evaluates touch input for a touch image displayed in accordance with music.
  • a game in which an icon moving in the depth direction is touched at a predetermined timing is also known (see, for example, FIG. 8 of JP-A-08-305456 and FIG. 3 of JP-T-2009-531153).
  • the user In a game where the touch image is moved and various places on the touch panel are touched, the user must determine not only the timing but also the touch position. Therefore, if the touch image is moved at high speed, the difficulty level of the game increases. On the other hand, if the moving speed of the touch image is slowed down, the feeling of speed is lost.
  • the present invention has been made in view of the above, and an object thereof is to provide a timing game with a sense of speed.
  • a first feature of the present invention is a game device, which includes an operation input unit that inputs user operation information, a background display unit that displays a background so as to move in the depth direction of the game screen, and a plurality of lines. Appear from different positions, set the intersection point of the plurality of lines extended as a virtual intersection point, move the virtual intersection point according to the display of the background, and move the virtual intersection point according to the movement of the virtual intersection point.
  • a line control unit that corrects the positions of the lines and moves the tips of the plurality of lines toward the virtual intersection, the operation information is received from the operation input unit, and the operation information and the tips of the plurality of lines are received.
  • a timing determination unit that evaluates the operation information by comparing positions and timings at which the two collide with each other.
  • a second feature of the present invention is a game device, an operation input unit that inputs player operation information, an object control unit that displays and moves a plurality of objects, and causes the plurality of objects to collide with each other,
  • the sign object control unit that displays a sign object indicating a sign that the plurality of objects are close to each other, and the operation information is received from the operation input unit, and the proximity information of the plurality of objects is received from the object control unit.
  • a timing determination unit that receives and evaluates the operation information based on the proximity information, and the predictive object control unit causes the plurality of objects to collide at a planned collision position where the plurality of objects collide with each other. The multiple predictive objects overlap at the timing And controlling a sign object.
  • FIG. 1 is a block diagram showing an internal configuration of a game machine in which a game program according to the present embodiment is executed.
  • FIG. 2 is a diagram illustrating an example of a game screen.
  • FIG. 3A is a diagram showing the game screens in chronological order.
  • FIG. 3B is a diagram showing the game screens in chronological order.
  • FIG. 3C is a diagram showing the game screens in chronological order.
  • FIG. 4 is a functional block diagram showing a configuration of a game device constituted by the game program in the present embodiment.
  • FIG. 5 is a flowchart showing an overall processing flow of the game apparatus.
  • FIG. 6 is a flowchart showing the flow of the determination process.
  • FIG. 7A is a diagram illustrating variations of line objects and predictive images.
  • FIG. 7B is a diagram showing variations of line objects and predictive images.
  • FIG. 7C is a diagram illustrating variations of line objects and predictive images.
  • FIG. 7D is a diagram illustrating variations of the line object and the sign image.
  • FIG. 8A is a diagram illustrating an example in which four line objects collide.
  • FIG. 8B is a diagram illustrating an example in which four line objects collide.
  • FIG. 9A is a diagram showing a game screen in which the display position of the line object is moved in time series order.
  • FIG. 9B is a diagram showing a game screen in which the display position of the line object is moved in time series order.
  • FIG. 9C is a diagram showing a game screen in which the display position of the line object is moved in time series order.
  • FIG. 10A is a diagram illustrating how the position of the virtual intersection is moved.
  • FIG. 10B is a diagram illustrating how the position of the virtual intersection is moved.
  • FIG. 1 is a block diagram showing an internal configuration of a game machine 3 on which the game program 1 according to the present embodiment is executed.
  • the game machine 3 connects a CPU 31, a RAM 32, a ROM 33, a storage 34, an image processing unit 35, an input interface 36, an audio processing unit 37, a wireless communication unit 38, and a media interface 39 to the bus 30.
  • a touch panel 40 is connected to the image processing unit 35 and the input interface 36.
  • the touch panel 40 displays a game screen generated by the image processing unit 35, inputs the contact coordinates with which the user has touched the touch panel 40, and passes it to the input interface 36.
  • a speaker 41 is connected to the sound processing unit 37.
  • the speaker 41 outputs sound such as sound effects and BGM that are converted into analog signals by the sound processing unit 37 and amplified.
  • a smartphone equipped with a touch panel 40 can be used as the game machine 3.
  • the game machine 3 receives the game program 1 from the wireless communication unit 38 or the media interface 39 and stores it in the storage 34.
  • the CPU 31 reads out and executes the game program 1 stored in the storage 34 on the RAM 32, and configures a game device to be described later using the above hardware resources.
  • the game program 1 can be recorded on a recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, or can be provided through a network.
  • This game is a timing game in which the user's operation is evaluated at the timing when the tips of a plurality of line objects appearing from the end of the game screen collide with each other.
  • FIG. 2 shows an example of the game screen.
  • Line objects 51A and 51B and indication images 52A to 52C are displayed on the game screen shown in FIG.
  • Information such as a score is also displayed on the actual game screen, but it is not shown here.
  • You may display the promotion video according to the music reproduced as a background of a game screen.
  • An object having a different shape may be used instead of the line objects 51 and 51B.
  • the line objects 51A and 51B appear and move from the end of the game screen in accordance with the music output from the game machine 3, and the tips collide at the virtual intersection 53 in the game screen.
  • the virtual intersection 53 is not displayed on the game screen.
  • the sign images 52A to 52C are images showing signs that the ends of the line objects 51A and 51B are close to each other.
  • the predictive images 52A to 52C are displayed in the game screen before the appearance of the line objects 51A and 51B or simultaneously with the appearance of the line objects 51A and 51B.
  • the predictive images 52A to 52C indicate the rough collision timing of the line objects 51A and 51B and the position of the virtual intersection 53 to the user by movement, color, and shape change.
  • the predictive images 52A to 52C images in which the traveling directions of the line objects 51A and 51B are represented by a plurality of broken lines are used.
  • the progress direction of the break points of the predictor images 52A to 52C indicates the position of the virtual intersection 53, and the change in the interval between the predictor images 52A to 52C indicates the collision timing of the line objects 51A and 51B.
  • FIG. 3A to FIG. 3C are diagrams showing, in order of time series, how the line objects 51A and 51B come close to the virtual intersection 53 after appearing in the game screen.
  • the line objects 51A and 51B appear from the left side of the upper and lower ends of the game screen and move toward the virtual intersection 53 near the center of the game screen. That is, the line object 51A moves in the lower right direction, and the line object 51B moves in the upper right direction.
  • the sign image 52A appears from the left side of the game screen and moves to the right slightly before the appearance of the line objects 51A and 51B.
  • Another predictor image 52B appears from the left side of the game screen and moves to the right following the predictor image 52A simultaneously with the appearance of the line objects 51A and 51B.
  • another sign image 52C appears from the left side of the game screen and moves to the right after the sign images 52A and 52B after the appearance of the line objects 51A and 51B.
  • each of the predictor images 52A to 52C is faster as the appearance is slower. Therefore, as shown in FIGS. 3A to 3C, the interval between the predictive images 52A to 52C becomes narrower as the line objects 51A and 51B approach the virtual intersection 53.
  • the predictive images 52A to 52C move toward the virtual intersection 53 like a ripple with the passage of time, and overlap at the timing when the line objects 51A and 51B collide at the virtual intersection 53. At this time, the break points of the predictive images 52A to 52C overlap at the virtual intersection 53.
  • the user can estimate the approximate timing at which the tips of the line objects 51A and 51B collide and the position of the virtual intersection 53 by observing the predictive images 52A to 52C.
  • FIG. 4 is a functional block diagram showing a configuration of a game device constituted by the game program in the present embodiment.
  • the game device shown in the figure includes an operation input unit 11, a predictive image control unit 12, a line control unit 13, a timing determination unit 14, a score processing unit 15, an image output unit 16, a background processing unit 17, a voice output unit 18, and A game data storage unit 19 is provided.
  • the operation input unit 11 inputs a user operation.
  • the user inputs an operation by touching the touch panel 40 of the game machine 3 with a finger or the like.
  • the operation types include tap, flick, long press, and swipe.
  • the operation input unit 11 acquires operation information such as contact coordinates on the game screen and the type of operation, and transmits the operation information to the timing determination unit 14.
  • the sign image control unit 12 causes the sign images 52A to 52C corresponding to the line objects 51A and 51B to appear on the game screen and controls the movement, color, and shape of the sign images 52A to 52C, and the sign images 52A to 52C.
  • the position information, color, and shape are transmitted to the image output unit 16.
  • the appearance timing and motion data of the predictive images 52A to 52C are read from the game data storage unit 19.
  • the line control unit 13 causes the line objects 51A and 51B to appear on the game screen in accordance with the music output from the audio output unit 18, and controls the movement so that the ends of the line objects 51A and 51B collide with each other.
  • the position information of the line objects 51A and 51B is transmitted to the image output unit 16.
  • the line control unit 13 determines the position information of the virtual intersection 53 that is the position where the tips of the line objects 51A and 51B collide, the position information of the line objects 51A and 51B, and the time until the tips of the line objects 51A and 51B collide. Or the like is transmitted to the timing determination unit 14. Data of the appearance timing of the line objects 51A and 51B and the moving speed of the line object are read from the game data storage unit 19.
  • the timing determination unit 14 receives operation information from the operation input unit 11 and also receives proximity information of the tips of the line objects 51A and 51B from the line control unit 13, and whether or not an appropriate position is tapped at an appropriate timing. And the success or failure of the tap is transmitted to the score processing unit 15.
  • the score processing unit 15 performs score addition processing based on the success or failure of the tap received from the timing determination unit 14.
  • the score processing unit 15 transmits a parameter value such as a score to the image output unit 16.
  • the image output unit 16 receives the position information of the line objects 51A and 51B from the line object control unit 13, displays the line objects 51A and 51B on the game screen, and also displays the position of the indication images 52A to 52C from the indication image control unit 12. The information is received and the sign images 52A to 52C are displayed on the game screen.
  • the image output unit 16 displays a parameter value such as a score and a background image on the game screen.
  • the background processing unit 17 reads background images to be displayed behind the line objects 51A and 51B and the predictive images 52A to 52C from the game data storage unit 19 and causes the image output unit 16 to display them.
  • the audio output unit 18 acquires music data from the game data storage unit 19 and outputs it.
  • the game data storage unit 19 stores image data to be displayed on the game screen, sound data such as music and sound effects to be reproduced, line appearance data, and sign appearance data.
  • the line appearance data includes information such as the position of the virtual intersection, the number of appearances, the appearance timing of the line object, the appearance position, and the moving direction / speed.
  • the position of the virtual intersection represents coordinates on the game screen.
  • the number of appearances represents the number of line objects that intersect at a virtual intersection.
  • the appearance timing is data in which the time for the line object to appear is recorded for each line object. For example, the appearance timing is recorded in the line appearance data based on the music playback time.
  • the appearance position is data in which position coordinates at which a line object appears is recorded for each line object. For example, the position coordinates are recorded in the line appearance data with any corner of the game screen as the origin.
  • the moving direction / speed is data in which the moving direction and speed of each line object are recorded. The moving speed of the line object may be different for each line object.
  • the sign appearance data is associated with the line appearance data and includes information such as the appearance timing, appearance position, moving speed, and change information of the sign image.
  • the appearance timing is data that records the time for the sign image to appear. For example, the appearance timing is recorded in the sign appearance data on the basis of the music playback time, or the relative time from the line object appearance timing to the sign image appearance timing is recorded in the sign appearance data.
  • the appearance position is data in which position coordinates at which the sign image appears are recorded.
  • the moving speed is data in which the moving speed of the precursor image is recorded.
  • the change information is data that records how the change is made, for example, when the color of the sign image is changed.
  • FIG. 5 is a flowchart showing the overall processing flow of the game apparatus.
  • the game device performs an initialization process when the game is started (step S11).
  • the initialization process includes, for example, initialization of parameters such as clearing of a score, selection of line appearance data and sign appearance data to be used with music to be played back. Music selected in advance according to the music selected by the user or the difficulty level is selected as music to be played.
  • the audio output unit 18 starts playing music (step S12).
  • the line control unit 13 reads line appearance data from the game data storage unit 19 and determines whether or not new line objects 51A and 51B appear (step S13). For example, it is determined whether or not new line objects 51A and 51B are to appear by comparing the music playback time and the appearance timing of the line appearance data. The line control unit 13 determines that new line objects 51A and 51B appear when the music playback time is equal to or greater than the appearance timing.
  • the line control unit 13 determines that new line objects 51A and 51B appear (Yes in step S13)
  • the line control unit 13 and the predictive image control unit 12 determine that the line objects 51A and 51B and the predictive images 52A to 52C. Appears on the game screen (step S14).
  • the line control unit 13 causes the line objects 51A and 51B to appear at the appearance position of the line appearance data read from the game data storage unit 19.
  • the sign image control unit 12 reads the sign appearance data corresponding to the line objects 51A and 51B that have appeared by the line control unit 13 from the game data storage unit 19, and causes the sign images 52A to 52C to appear on the game screen.
  • the sign images 52A to 52C may appear on the game screen before the appearance of the line objects 51A and 51B. In this case, the appearance positions of the line objects 51A and 51B are set outside the game screen.
  • the line control unit 13 moves the line objects 51A and 51B on the game screen at a predetermined interval (step S15), and the sign image control unit 12 updates the sign images 52A to 52C (step S16).
  • the line objects 51A and 51B and the predictive images 52A to 52C displayed on the game screen are moved and updated at predetermined intervals (for example, 60 fps intervals).
  • the timing determination unit 14 determines whether or not the user has tapped the virtual intersection 53 where the tips of the line objects 51A and 51B collide with each other at an appropriate position and timing (step S17). Details of this determination processing will be described later.
  • step S18 it is determined whether or not the game end condition is satisfied. For example, when the reproduction of music is finished, it is determined that the game is clear, and when the number of times determined to be a mistake in the determination process exceeds a predetermined value, it is determined that the game is over. If the game end condition is not satisfied (No in step S18), the process returns to step S13 to continue the game.
  • step S18 If the game end condition is satisfied (Yes in step S18), the game is displayed on the game screen indicating that the game is cleared or the game is over (step S19). After the game ends, if the game is cleared, the process returns to step S11 to start a new game, and if the game is over, the process returns to the title.
  • the determination process it is determined whether or not the collision location on the game screen has been tapped at the timing when the tips of the line objects collide with each other.
  • FIG. 6 is a flowchart showing the flow of the determination process.
  • the timing determination unit 14 determines whether or not the game screen has been tapped (step S21).
  • the timing determination unit 14 acquires the tap coordinates on the game screen (Step S22), and determines whether or not the tap position is within an appropriate range (Step S23). . Whether or not the tap position is within the appropriate range is determined by comparing the tap coordinates and the virtual intersection 53 indicating the position where the tips of the line objects collide with each other.
  • the timing determination unit 14 determines whether or not the tap timing is within an appropriate range (Step S24). Whether or not the tap timing is within an appropriate range is determined by determining the deviation of the tap timing from the just timing when the timing at which the tips of the line objects 51A and 51B collide is the just timing. For example, it is determined whether or not the line object is within an appropriate range using proximity information that records the time until the tips of the line objects collide.
  • the score processing unit 15 adds a score according to the tap timing (step S25), and the line control unit 13 detects the tapped line objects 51A and 51B. Is deleted from the game screen (step S26).
  • the score processing unit 15 adds the maximum score when the tap timing is just timing, and adds a smaller score otherwise.
  • the timing determination unit 15 determines that the tap timing is missed when a predetermined time has elapsed after the leading ends of the line objects 51A and 51B collide.
  • step S27 the score processing unit 15 determines that the user has not tapped the collision position of the line objects 51A and 51B at an appropriate timing, and the line object 51A, It is determined that the operation input to 51B is a mistake, and a mistake process is performed (step S28).
  • the line control unit 13 deletes the line objects 51A and 51B that could not be tapped from the game screen (step S26).
  • FIGS. 7A to 7D are diagrams showing variations of the line object and the predictor image. Hereinafter, each variation shown in FIGS. 7A to 7D will be described.
  • FIG. 7A is a diagram illustrating an example in which a plurality of sets of line objects appear simultaneously.
  • a plurality of sets of line objects 51A to 51D that collide at different virtual intersections 53A and 53B appear simultaneously on the game screen.
  • the user taps virtual intersections 53A and 53B in this order.
  • the line objects 51A to 51D move at the same angle with respect to the sides of the game screen, but may move at different angles with respect to the sides of the game screen.
  • the line object 51A moves at an angle of 45 degrees with respect to the upper side of the game screen
  • the line object 51B moves at an angle of 90 degrees with respect to the lower side of the game screen.
  • the moving speeds of the line objects 51A to 51D may be the same or different.
  • the tap timing can be made difficult by increasing the speed at which the line object 51A moves and decreasing the speed at which the line object 51B moves.
  • the speed may appear at a constant speed, or the speed may change at a predetermined timing after the appearance. For example, the speed may change after the line object disappears for a moment.
  • FIG. 7B is a diagram illustrating an example in which the line objects 51A and 51B disappear or appear.
  • the line objects 51A and 51B move, the line objects 51A and 51B are temporarily hidden. Alternatively, part of the line objects 51A and 51B is not displayed.
  • the sign image may be not displayed or only the sign image may be displayed.
  • FIG. 7C is a diagram showing an example in which a collision of line objects is predicted by a color change.
  • a predictive image 52 (pentagon in FIG. 7C) in which the color changes is arranged at a portion delimited by the line objects 51A and 51B when the line objects 51A and 51B collide.
  • the color of the sign image 52 changes according to the movement of the line objects 51A and 51B.
  • the color of the predictive image 52 is made black or transparent so that it is not distinguished from other parts at the time of appearance, and then gradually becomes red or the transparency is decreased.
  • the user knows the rough timing at which the line objects 51A and 51B collide with the darkness and transparency of the sign image 52, and the direction of the line objects 51A and 51B and the position of the virtual intersection 53 in the shape of the sign image 52. I can know.
  • FIG. 7D is a diagram showing an example in which a collision of line objects is predicted by a change in line thickness.
  • the thick line including the line objects 51A and 51B and the virtual intersection 53 is used as the sign image 52.
  • the sign image 52 becomes thinner as the line objects 51A and 51B approach.
  • the user knows the approximate timing at which the line objects 51A and 51B collide with the change in the thickness of the predictor image 52, and determines the direction in which the line objects 51A and 51B move at the position of the predictor image 52 and the approximate position of the virtual intersection 53. I can know.
  • FIG. 8A and 8B are diagrams illustrating an example in which four line objects collide.
  • the number of line objects that collide may be greater than 2, and for example, each of the four line objects 51A to 51D may collide at one virtual intersection 53.
  • the operation requested from the user may be flicked (flicking with a finger) or held (pressed for a while) instead of a tap.
  • FIG. 8B when the four line objects 51A to 51D collide at one virtual intersection 53, when the user presses the collision position, the sphere 54 appears at the position pressed by the user. Then, a hole 55 appears at an arbitrary position on the game screen.
  • the line control unit 13 moves the sphere 54 according to the user's flick operation, and adds the score when the sphere 54 enters the hole 55.
  • the ball 54 may be bounced around the side of the game screen, or the ball 54 may be placed directly into the hole 55.
  • the movement of the sphere 54 is determined based on the flick timing, angle, speed, length, and the like by the user.
  • the flick length is the distance from the start point to the end point of the touched position.
  • the user is requested to perform various operations such as tap, flick, and hold depending on the number of line objects that collide, as well as other attributes (eg, thickness, color, display method, etc.) of the line objects 51A and 51B. Also good.
  • the line object does not move in a direction other than the moving direction.
  • an embodiment will be described in which the line object is moved in a direction other than the moving direction of the line object so that the line object is moved in the depth direction.
  • FIG. 9A to FIG. 9C are diagrams showing the game screen in which the display position of the line object is moved in time series order.
  • the line objects 51A and 51B and the predictive images 52A and 52B are displayed on the background with a sense of depth using perspective, and the line objects 51A and 51B are displayed from the back to the front (depth).
  • the display positions of the line objects 51A and 51B are moved so as to move in the direction).
  • the background processing unit 17 gives the game screen a sense of depth by expressing the floor 58A and the ceiling 58B as lines that radiate from the vanishing point 56 set at the center of the game screen as the background of the game screen.
  • level meters 58C indicating the volume of music to be reproduced are arranged on both sides of the floor 58A.
  • the background processing unit 17 moves the display positions of the floor 58 ⁇ / b> A, the ceiling 58 ⁇ / b> B, and the level meter 58 ⁇ / b> C toward the front for each frame so that the user feels that the user is moving toward the vanishing point 56. .
  • the background processing unit 17 moves the horizontal line of the floor 58A downward, the horizontal line of the ceiling 58B upward, and the left and right level meters 58C downward and leftward so as to leave the vanishing point 56 on the game screen. Move to.
  • the background processing unit 17 matches the moving speed of the floor 58A, the ceiling 58B, and the level meter 58C with the tempo (BPM) of the music to be reproduced.
  • the floor 58A, the ceiling 58B, and the level meter 58C are backgrounds for giving a sense of depth and a sense of speed, and are not related to user operations.
  • the background is displayed so as to move in the depth direction, thereby creating a sense of speed.
  • the line control unit 13 displays the line objects 51 ⁇ / b> A and 51 ⁇ / b> B on the background with a sense of depth, and moves the display positions of the line objects 51 ⁇ / b> A and 51 ⁇ / b> B away from the vanishing point 56. Specifically, as shown in FIGS. 9A to 9C, the line control unit 13 raises the line object 51A moving in the horizontal direction displayed above the vanishing point 56 on the game screen in accordance with the elapsed time. The line object 51B that moves in the vertical direction displayed to the right of the vanishing point 56 is moved in the right direction according to the elapsed time. The size (thickness) of the line objects 51A and 51B is also increased (thickened) according to the elapsed time.
  • the predictive images 52A and 52B are displayed so as to indicate the virtual intersection 53 to which the line objects 51A and 51B are extended at the current display position, not the expected collision position 57 that is the final collision position of the line objects 51A and 51B. Is done.
  • band-like images that move in the longitudinal direction of the line objects 51A and 51B are displayed as the indication images 52A and 52B.
  • the intersection of the two strip-shaped sign images 52A and 52B corresponds to the virtual intersection 53.
  • the display positions of the line objects 51A and 51B are determined based on the position of the virtual intersection 53 that moves from the vanishing point 56 to the expected collision position 57 that is the final collision position with the passage of time.
  • the position of the virtual intersection 53 is determined by interpolation on the line connecting the vanishing point 56 and the expected collision position 57 according to the elapsed time.
  • FIGS. 10A and 10B show how the position of the virtual intersection 53 is moved.
  • the virtual intersection 53 is moved from the vanishing point 56 to the expected collision position 57 in one measure
  • the predictor images 52A and 52B are three beats before the just timing
  • the line objects 51A and 51B are just timing. It was supposed to appear 2 beats before.
  • the virtual intersection 53 is arranged at a position P of 3/4 from the expected collision position 57 to the vanishing point 56 as shown in FIG. 10A.
  • the sign images 52A and 52B are displayed with the virtual intersection 53 as a reference.
  • the sign image control unit 12 displays the band-shaped sign images 52A and 52B from the virtual intersection 53 to the side where the line objects 51A and 51B appear.
  • the line control unit 13 moves the virtual intersection 53 on the line segment toward the expected collision position 57 with the passage of time, and corrects the display positions of the predictive images 52A and 52B in accordance with the position of the virtual intersection 53. .
  • the line control unit 13 determines that the virtual intersection 53 is half the distance from the expected collision position 57 to the vanishing point 56, as shown in FIG. 10B. Is moved to position Q.
  • the sign image control unit 12 displays the sign images 52A and 52B based on the virtual intersection 53, and the line control unit 13 causes the line objects 51A and 51B to appear based on the virtual intersection 53.
  • the line control unit 13 causes the line object 51 ⁇ / b> A to appear at the left end of the game screen according to the vertical position of the virtual intersection 53, and causes the line object 51 ⁇ / b> B to match the horizontal position of the virtual intersection 53. Appears on the bottom of.
  • the line control unit 13 moves the line objects 51 ⁇ / b> A and 51 ⁇ / b> B and moves the virtual intersection 53 toward the expected collision position 57.
  • the line control unit 13 and the sign image control unit 12 correct the display positions of the line objects 51A and 51B and the sign images 52A and 52B in accordance with the position of the virtual intersection 53.
  • the virtual intersection 53 reaches the expected collision position 57, and the tips of the line objects 51A and 51B collide at the expected collision position 57.
  • the score is added when the user taps the collision position of the line objects 51A and 51B on the game screen at the just timing.
  • the timing determination unit 14 compares the position where the user taps on the game screen and the collision position, and the timing when the user taps and the just timing. The timing determination unit 14 determines success if the deviation between the position tapped by the user and the collision position, and the deviation between the timing tapped by the user and the just timing are within a predetermined range, and failure if the deviation is outside the predetermined range. .
  • the predictive image control unit 12 sets the appearance timing of the predictive images 52A and 52B to be two beats before the just timing, and sets the line objects 51A and 51B.
  • the appearance timing is set to be one beat before the just timing.
  • the predictive image control unit 12 sets the appearance timing of the predictive images 52A and 52B to 4 beats before the just timing, and sets the appearance timing of the line objects 51A and 51B from the just timing. Three beats before.
  • a setting not to display the predictor images 52A and 52B may be added.
  • the display positions of the line objects 51A and 51B move without displaying the predictive images 52A and 52B, it becomes difficult for the user to grasp the collision positions of the line objects 51A and 51B, and the difficulty of the game can be increased.
  • the background processing unit 17 displays the line object on the background with a sense of depth, and moves the display position of the line object so that the line object moves in the depth direction. It was.
  • an embodiment will be described in which a line object is moved in the depth direction as well as up, down, left and right in a three-dimensional virtual space.
  • a plurality of line objects are arranged on a plane that is parallel to the plane of the game screen when the perspective transformation of the three-dimensional virtual space is performed, and lines are formed on the plane.
  • Move the object to collide Move the line object to the depth direction (perpendicular to the game screen) by bringing the position of the viewpoint (virtual camera arranged in the virtual space) closer to the plane where the line object is placed, or by bringing the line object closer to the position of the viewpoint.
  • the user's operation for the position on the game screen corresponding to the collision position is evaluated at the timing when the leading ends of the line objects collide.
  • the image output unit 16 displays an image projected on a two-dimensional plane by perspective-transforming a three-dimensional virtual space as a game screen.
  • For line objects place the line object in a three-dimensional virtual space as a large object, and display the line object on the game screen by perspective transformation, or project only the position of the line object on the two-dimensional plane. Then, there is a method of calculating a position on the game screen and drawing a line object at the calculated position on the game screen. In the latter method, the image output unit 16 determines the thickness of the line object based on the distance in the depth direction.
  • a method of displaying a predictive image based on the calculated virtual intersection on the game screen is a method of displaying a predictive image based on the calculated virtual intersection on the game screen.
  • the thickness of the line object drawn on the game screen at the time of the collision is constant.
  • the game device connects to the server and matches the opponent.
  • the game device starts the game after reading play data of the opponent from the server.
  • play data when a high score for each song and each difficulty level is given for all users (so-called ghost data)
  • Play data (ghost data) of the last several hundred plays of each song and each difficulty level by all users are stored.
  • the data of (1) is used when selecting an opponent from among the users registered by himself, and the data of (2) is used when selecting an opponent from users close to the skill.
  • the game device displays the difference from the opponent's score below the player's score on the game screen.
  • the score difference with the opponent is obtained by calculating the score of the opponent using the read play data, and calculating and displaying the score difference during the game, assuming that the user and the opponent start the game at the same time.
  • the win / loss with your opponent will be displayed. Thereafter, the battle result of the user is displayed as a numerical value on the result display screen.
  • the play data of the user is transmitted to the server for each play regardless of the score.
  • the game device stores key data (operation input information) based on the user's operation input as play data, and transmits the key data to the server for storage at the end of the game.
  • the game device of the user who performs the match reads the opponent's key data stored in the server and uses it as an operation input for the opponent, and calculates the score of the opponent as the game progresses.
  • the game device may be directly connected to another game device by, for example, P2P communication, etc., and may transmit and receive key data of each other in real time.
  • the background drawn in perspective is moved in the depth direction in the timing game of tapping the position where the tip of the line objects 51A and 51B collides at the timing of collision.
  • the line objects 51A and 51B By displaying and moving the line objects 51A and 51B according to the background, it is possible to make the line objects 51A and 51B appear to move in the depth direction, and provide a timing game with a sense of speed. Can do.
  • the line control unit 13 sets the virtual intersection 53 in the traveling direction of the line objects 51A and 51B to the expected collision position 57. Move towards. Therefore, the user shifts the position of the virtual intersection 53 when the predictive images 52A and 52B and the line objects 51A and 51B appear on the game screen from the expected collision position 57 where the tips of the line objects 51A and 51B actually collide, It becomes difficult to predict the position and timing at which the tips of the line objects 51A and 51B collide with each other, and the interest of the user can be increased.
  • the line object in the timing game in which a plurality of line objects arranged in a three-dimensional virtual space are moved so that the tips collide with each other, and the position where the tip of the line object collides is tapped.
  • the line object By moving the viewpoint for perspective transformation of the three-dimensional virtual space into the two-dimensional plane in the direction of the line object, the line object can be moved in the depth direction as well as the plane of the game screen.
  • the tips of the line objects 51A and 51B displayed corresponding to the line objects 51A and 51B.
  • the sign images 52A to 52C showing signs that are close to each other
  • the user can infer the collision position and timing of the line objects 51A and 51B from the sign images 52A to 52C. You can move to to speed up the game. Further, the game screen can be dynamically changed by the predictive images 52A to 52C.
  • a timing game with a sense of speed can be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 ライン51A,51Bの先端が衝突するタイミングで衝突した位置をタップするタイミングゲームにおいて、遠近法で描いた背景が奥行方向に移動するように表示するとともに、背景に合わせてライン51A,51Bを移動させる。これにより、ライン51A,51Bを奥行方向に移動しているように見せることが可能となり、スピード感のあるタイミングゲームを提供することができる。

Description

ゲーム装置
 本発明は、所定のタイミングに合わせて操作を入力するゲームを実行するゲーム装置に関する。
 ユーザの操作タイミングを評価するゲームが知られている。例えば、特許第3686925号公報に記載のゲームは、2つの画像が重なったタイミングにおけるユーザの操作を評価するゲームである。特開2007-111568号公報に記載のゲームは、タッチパネルを備えたゲーム機で動作し、音楽に合わせて表示されるタッチ画像に対するタッチ入力を評価するゲームである。
 近年では、タッチパネルを備えたゲーム機が広く普及している。その結果、特開2007-111568号公報に記載のゲームのように、ゲーム画面上に表示される画像に対して直接操作を入力するゲームが多くなっている。
 奥行方向に移動するアイコンを所定のタイミングでタッチするゲームも知られている(例えば、特開平08-305456号公報の第8図、特表2009-531153号公報の第3図を参照)。
 しかしながら、特許第3686925号公報に記載のゲームでは、ボタン操作を前提としているために操作が単調である。
 特開2007-111568号公報に記載のゲームはタッチパネルによりユーザの操作を入力するが、タッチする場所を示すタッチ画像がゲーム画面上の所定の位置に固定されて表示されるため変化に乏しい。
 特開平08-305456号公報及び特表2009-531153号公報に記載のゲームはタッチする対象が奥行方向のみに移動する。
 タッチ画像を移動させて、タッチパネル上の様々な場所をタッチさせるゲームでは、ユーザはタイミングだけでなく、タッチ位置も判断しなければならない。そのため、タッチ画像を高速に移動させるとゲームの難易度が上がってしまう。反対に、タッチ画像の移動速度を遅くするとスピード感が失われてしまう。
 本発明は、上記に鑑みてなされたものであり、スピード感のあるタイミングゲームを提供することを目的とする。
 本発明の第1の特徴は、ゲーム装置であって、ユーザの操作情報を入力する操作入力部と、ゲーム画面の奥行方向に移動するように背景を表示する背景表示部と、複数のラインをそれぞれ異なる位置から出現させて、当該複数のラインを伸ばした先の交点を仮想交点と設定して当該仮想交点を前記背景の表示に合わせて移動させ、前記仮想交点の移動に合わせて前記複数のラインの位置を補正するとともに、前記複数のラインの先端を前記仮想交点に向けて移動させるライン制御部と、前記操作入力部から前記操作情報を受信し、当該操作情報と前記複数のラインの先端同士が衝突した位置及びタイミングを比較して前記操作情報を評価するタイミング判定部と、を有することを特徴とする。
 本発明の第2の特徴は、ゲーム装置であって、プレイヤーの操作情報を入力する操作入力部と、複数のオブジェクトを表示して移動させ、当該複数のオブジェクト同士を衝突させるオブジェクト制御部と、前記複数のオブジェクト同士が互いに近接する予兆を示す予兆オブジェクトを表示する予兆オブジェクト制御部と、前記操作入力部から前記操作情報を受信するとともに、前記オブジェクト制御部から前記複数のオブジェクト同士の近接情報を受信し、前記近接情報に基づいて前記操作情報を評価するタイミング判定部と、を有し、前記予兆オブジェクト制御部は、前記複数のオブジェクト同士が衝突する衝突予定位置において前記複数のオブジェクト同士が衝突するタイミングで、複数の予兆オブジェクトが重なるように、当該複数の予兆オブジェクトを制御することを特徴とする。
図1は、本実施の形態におけるゲームプログラムが実行されるゲーム機の内部構成を示すブロック図である。 図2は、ゲーム画面の一例を示す図である。 図3Aは、ゲーム画面を時系列順に示す図である。 図3Bは、ゲーム画面を時系列順に示す図である。 図3Cは、ゲーム画面を時系列順に示す図である。 図4は、本実施の形態におけるゲームプログラムによって構成されるゲーム装置の構成を示す機能ブロック図である。 図5は、上記ゲーム装置の全体的な処理の流れを示すフローチャートである。 図6は、判定処理の流れを示すフローチャートである。 図7Aは、ラインオブジェクト、予兆画像のバリエーションを示す図である。 図7Bは、ラインオブジェクト、予兆画像のバリエーションを示す図である。 図7Cは、ラインオブジェクト、予兆画像のバリエーションを示す図である。 図7Dは、ラインオブジェクト、予兆画像のバリエーションを示す図である。 図8Aは、4つのラインオブジェクトが衝突する例を示す図である。 図8Bは、4つのラインオブジェクトが衝突する例を示す図である。 図9Aは、ラインオブジェクトの表示位置を移動させたゲーム画面を時系列順に示す図である。 図9Bは、ラインオブジェクトの表示位置を移動させたゲーム画面を時系列順に示す図である。 図9Cは、ラインオブジェクトの表示位置を移動させたゲーム画面を時系列順に示す図である。 図10Aは、仮想交点の位置を動かす様子を示す図である。 図10Bは、仮想交点の位置を動かす様子を示す図である。
 以下、本発明の実施の形態について図面を用いて説明する。
 図1は、本実施の形態におけるゲームプログラム1が実行されるゲーム機3の内部構成を示すブロック図である。
 ゲーム機3は、バス30に、CPU31、RAM32、ROM33、ストレージ34、画像処理ユニット35、入力インタフェース36、音声処理ユニット37、無線通信ユニット38、およびメディアインタフェース39を接続する。画像処理ユニット35と入力インタフェース36には、タッチパネル40が接続される。タッチパネル40は、画像処理ユニット35により生成されるゲーム画面を表示するとともに、ユーザがタッチパネル40に接触した接触座標を入力して入力インタフェース36へ渡す。音声処理ユニット37には、スピーカー41が接続される。スピーカー41は、音声処理ユニット37によりアナログ信号に変換されて増幅された効果音やBGM等の音声を出力する。例えば、ゲーム機3として、タッチパネル40を備えたスマートフォンが利用できる。
 ゲーム機3は、無線通信ユニット38あるいはメディアインタフェース39からゲームプログラム1を受信してストレージ34に格納する。CPU31がストレージ34に格納されたゲームプログラム1をRAM32上に読み出して実行し、上記のハードウェア資源を用いて後述するゲーム装置を構成する。ゲームプログラム1は、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
 <ゲームについて>
 次に、本実施の形態におけるゲームプログラムによって提供されるゲームについて説明する。
 本ゲームは、ゲーム画面の端から出現する複数のラインオブジェクトの先端同士が衝突したタイミングにおけるユーザの操作を評価するタイミングゲームである。
 図2に、ゲーム画面の一例を示す。同図に示すゲーム画面には、ラインオブジェクト51A,51Bと予兆画像52A~52Cが表示されている。実際のゲーム画面には、スコアなどの情報も表示されるが、ここでは図示していない。ゲーム画面の背景として再生される音楽に合わせたプロモーションビデオを表示してもよい。ラインオブジェクト51,51Bに変えて別の形状のオブジェクトを用いてもよい。
 ラインオブジェクト51A,51Bは、ゲーム機3から出力される音楽に合わせて、ゲーム画面の端から出現して移動し、ゲーム画面内の仮想交点53で先端同士が衝突する。仮想交点53はゲーム画面上には表示されない。
 予兆画像52A~52Cは、ラインオブジェクト51A,51Bの先端が互いに近接する予兆を示す画像である。予兆画像52A~52Cは、ラインオブジェクト51A,51Bの出現前、あるいはラインオブジェクト51A,51Bの出現と同時にゲーム画面内に表示される。予兆画像52A~52Cは、動きや色、形状の変化によりラインオブジェクト51A,51Bの大まかな衝突タイミングと仮想交点53の位置をユーザに示す。図2の例では、予兆画像52A~52Cとして、ラインオブジェクト51A,51Bの進行方向を複数の折れ線で表した画像を用いた。予兆画像52A~52Cの折れ点の進行方向が仮想交点53の位置を示し、予兆画像52A~52C間の間隔の変化がラインオブジェクト51A,51Bの衝突タイミングを示す。
 ここで、ラインオブジェクト51A,51Bと予兆画像52A~52Cの動きについて説明する。図3Aから図3Cは、ラインオブジェクト51A,51Bがゲーム画面内に出現した後、仮想交点53に近接する様子を時系列順に示した図である。
 図3Aから図3Cに示すように、ラインオブジェクト51A,51Bは、ゲーム画面の上下端の左側から出現してゲーム画面中央付近の仮想交点53に向かって移動する。つまり、ラインオブジェクト51Aは右下方向に移動し、ラインオブジェクト51Bは右上方向に移動する。
 予兆画像52Aは、ラインオブジェクト51A,51Bの出現より少し前に、ゲーム画面左側から出現して右側に移動する。別の予兆画像52Bは、ラインオブジェクト51A,51Bの出現と同時に、予兆画像52Aの後を追って、ゲーム画面左側から出現して右側に移動する。さらに別の予兆画像52Cは、ラインオブジェクト51A,51Bの出現後、予兆画像52A,52Bの後を追って、ゲーム画面左側から出現して右側に移動する。
 予兆画像52A~52Cそれぞれの移動速度は出現の遅いものほど速くなっている。したがって、図3Aから図3Cに示すように、予兆画像52A~52C間の間隔はラインオブジェクト51A,51Bが仮想交点53に近づくに連れて狭くなる。予兆画像52A~52Cは、時間の経過にともなって波紋のように仮想交点53に向かって移動し、ラインオブジェクト51A,51Bが仮想交点53で衝突するタイミングで重なる。このとき、予兆画像52A~52Cの折れ点は仮想交点53で重なっている。
 ユーザは、予兆画像52A~52Cを観察することで、ラインオブジェクト51A,51Bの先端が衝突する大まかなタイミングと仮想交点53の位置を推測することができる。
 <ゲーム装置>
 次に、本実施の形態におけるゲームプログラムがゲーム機3に読み込まれて構成されるゲーム装置について説明する。
 図4は、本実施の形態におけるゲームプログラムによって構成されるゲーム装置の構成を示す機能ブロック図である。同図に示すゲーム装置は、操作入力部11、予兆画像制御部12、ライン制御部13、タイミング判定部14、スコア処理部15、画像出力部16、背景処理部17、音声出力部18、およびゲームデータ蓄積部19を備える。
 操作入力部11は、ユーザの操作を入力する。ユーザは、ゲーム機3のタッチパネル40に指などで接触することで操作を入力する。操作の種類には、タップ、フリック、長押し、スワイプがある。操作入力部11は、ゲーム画面上の接触座標、操作の種類などの操作情報を取得してタイミング判定部14へ送信する。
 予兆画像制御部12は、ラインオブジェクト51A,51Bに対応する予兆画像52A~52Cをゲーム画面上に出現させるとともに、予兆画像52A~52Cの動きや色、形状を制御し、予兆画像52A~52Cの位置情報、色、形状を画像出力部16へ送信する。予兆画像52A~52Cの出現タイミングおよび動きのデータはゲームデータ蓄積部19から読み出す。
 ライン制御部13は、音声出力部18から出力される音楽に合わせてラインオブジェクト51A,51Bをゲーム画面上に出現させるとともに、ラインオブジェクト51A,51Bの先端同士が衝突するように移動を制御し、ラインオブジェクト51A,51Bの位置情報を画像出力部16へ送信する。ライン制御部13は、ラインオブジェクト51A,51Bの先端同士が衝突する位置である仮想交点53の位置情報、ラインオブジェクト51A,51Bの位置情報、およびラインオブジェクト51A,51Bの先端が衝突するまでの時間などの近接情報をタイミング判定部14へ送信する。ラインオブジェクト51A,51Bの出現タイミングおよびラインオブジェクトの移動する速度のデータは、ゲームデータ蓄積部19から読み出す。
 タイミング判定部14は、操作入力部11から操作情報を受信するとともに、ライン制御部13からラインオブジェクト51A,51Bの先端の近接情報を受信し、適切なタイミングで適切な位置がタップされたか否かを判定し、タップの成否をスコア処理部15へ送信する。
 スコア処理部15は、タイミング判定部14から受信したタップの成否に基づいてスコアの加算処理を行う。スコア処理部15は、スコアなどのパラメータの値を画像出力部16へ送信する。
 画像出力部16は、ラインオブジェクト制御部13からラインオブジェクト51A,51Bの位置情報を受信してゲーム画面にラインオブジェクト51A,51Bを表示するとともに、予兆画像制御部12から予兆画像52A~52Cの位置情報を受信してゲーム画面に予兆画像52A~52Cを表示する。画像出力部16は、スコアなどのパラメータの値や背景画像をゲーム画面に表示する。
 背景処理部17は、ラインオブジェクト51A,51B、予兆画像52A~52Cの後ろに表示する背景画像をゲームデータ蓄積部19から読み出して画像出力部16に表示させる。
 音声出力部18は、ゲームデータ蓄積部19から音楽データを取得して出力する。
 ゲームデータ蓄積部19は、ゲーム画面に表示する画像データ、再生する音楽や効果音などの音声データ、ライン出現データ、および予兆出現データを格納する。
 ライン出現データは、仮想交点の位置、出現数、ラインオブジェクトの出現タイミング、出現位置、移動する方向・速さなどの情報で構成される。仮想交点の位置はゲーム画面上の座標を表す。出現数は仮想交点で交差するラインオブジェクトの数を表す。出現タイミングは、ラインオブジェクトを出現させる時間をラインオブジェクト毎に記録したデータである。例えば、音楽の再生時間を基準として出現タイミングをライン出現データに記録する。出現位置は、ラインオブジェクトを出現させる位置座標をラインオブジェクト毎に記録したデータである。例えばゲーム画面のいずれかの角を原点として位置座標をライン出現データに記録する。移動する方向・速さは、ラインオブジェクト毎の移動する方向及び速さを記録したデータである。ラインオブジェクトの移動する速さは、ラインオブジェクト毎に異なってもよい。
 予兆出現データは、ライン出現データに関連付けられており、予兆画像の出現タイミング、出現位置、移動速度、変化情報などの情報で構成される。出現タイミングは、予兆画像を出現させる時間を記録したデータである。例えば、音楽の再生時間を基準として出現タイミングを予兆出現データに記録する、あるいは、ラインオブジェクトの出現タイミングから予兆画像の出現タイミングまでの相対時間を予兆出現データに記録する。出現位置は、予兆画像を出現させる位置座標を記録したデータである。移動速度は、予兆画像の移動速度を記録したデータである。変化情報は、例えば予兆画像の色を変化させる場合など、どのように変化させるのかを記録したデータである。
 <処理の流れ>
 次に、上記ゲーム装置の処理の流れについて説明する。
 図5は、本ゲーム装置の全体的な処理の流れを示すフローチャートである。
 ゲーム装置は、ゲームを開始すると、初期化処理を行う(ステップS11)。初期化処理は、例えば、スコアのクリアなどのパラメータの初期化や、再生する音楽と使用するライン出現データ、予兆出現データの選択がある。ユーザが選択した音楽や難易度に応じて予め設定された音楽が再生する音楽として選択される。
 初期化処理が終了すると、音声出力部18が音楽の再生を開始する(ステップS12)。
 ライン制御部13は、ゲームデータ蓄積部19からライン出現データを読み出し、新たなラインオブジェクト51A,51Bを出現させるか否かを判定する(ステップS13)。例えば、音楽の再生時間とライン出現データの出現タイミングとを比較して新たなラインオブジェクト51A,51Bを出現させるか否かを判定する。ライン制御部13は、音楽の再生時間が出現タイミング以上になっていたときに、新たなラインオブジェクト51A,51Bを出現させると判定する。
 ライン制御部13が新たなラインオブジェクト51A,51Bを出現させると判定した場合は(ステップS13のYes)、ライン制御部13及び予兆画像制御部12は、ラインオブジェクト51A,51Bと予兆画像52A~52Cをゲーム画面上に出現させる(ステップS14)。ライン制御部13は、ゲームデータ蓄積部19から読み出したライン出現データの出現位置にラインオブジェクト51A,51Bを出現させる。予兆画像制御部12は、ライン制御部13が出現させたラインオブジェクト51A,51Bに対応する予兆出現データをゲームデータ蓄積部19から読み出して、予兆画像52A~52Cをゲーム画面上に出現させる。予兆画像52A~52Cがラインオブジェクト51A,51Bの出現よりも先にゲーム画面上に出現する場合もある。この場合、ラインオブジェクト51A,51Bの出現位置をゲーム画面外に設定しておく。
 ライン制御部13は、所定の間隔で、ゲーム画面上のラインオブジェクト51A,51Bを移動させ(ステップS15)、予兆画像制御部12は予兆画像52A~52Cを更新する(ステップS16)。ゲーム画面上に表示されたラインオブジェクト51A,51Bや予兆画像52A~52Cは、所定の間隔(例えば60fps間隔)で移動及び更新される。
 そして、タイミング判定部14は、ユーザが、ラインオブジェクト51A,51Bの先端同士が衝突する仮想交点53を適正な位置及びタイミングでタップしたか否かを判定する(ステップS17)。この判定処理の詳細については後述する。
 さらに、ゲームの終了条件を満たしているか否か判定する(ステップS18)。例えば音楽の再生が終了した場合はゲームクリアと判定し、判定処理でミスと判定された回数が所定の値を超えた場合はゲームオーバーと判定する。ゲームの終了条件を満たしていない場合は(ステップS18のNo)、ステップS13に戻り、ゲームを継続する。
 ゲームの終了条件を満たしている場合は(ステップS18のYes)、ゲームクリアした旨あるいはゲームオーバーになった旨をゲーム画面に表示してゲームを終了する(ステップS19)。ゲーム終了後は、ゲームクリアの場合はステップS11に戻って新たにゲームを開始し、ゲームオーバーの場合はタイトルに戻る。
 続いて、判定処理について説明する。判定処理では、ラインオブジェクトの先端同士が衝突するタイミングでゲーム画面上の衝突場所がタップされたか否かを判定する。
 図6は、判定処理の流れを示すフローチャートである。
 まず、タイミング判定部14はゲーム画面がタップされたか否か判定する(ステップS21)。
 ゲーム画面がタップされた場合(ステップS21のYes)、タイミング判定部14はゲーム画面上のタップ座標を取得し(ステップS22)、タップ位置が適正範囲内であるか否か判定する(ステップS23)。タップ位置が適正範囲内であるか否かは、タップ座標とラインオブジェクトの先端同士が衝突する位置を示す仮想交点53とを比較して判定される。
 タップ座標が仮想交点53から所定の範囲内である場合(ステップS23のYes)、タイミング判定部14はタップのタイミングが適正範囲内であるか否か判定する(ステップS24)。タップのタイミングが適正範囲内であるか否かは、ラインオブジェクト51A,51Bの先端が衝突するタイミングをジャストタイミングとしたときに、タップのタイミングのジャストタイミングからのずれを求めて判定する。例えば、ラインオブジェクトの先端同士が衝突するまでの時間を記録した近接情報を用いて適正範囲内か否かを判定する。
 タップのタイミングが適正範囲内である場合(ステップS24のYes)、スコア処理部15はタップのタイミングに応じてスコアを加算し(ステップS25)、ライン制御部13はタップされたラインオブジェクト51A,51Bをゲーム画面上から削除する(ステップS26)。スコア処理部15は、タップのタイミングがジャストタイミングの場合は最大のスコアを加算し、それ以外の場合は、より少ないスコアを加算する。
 一方、ゲーム画面がタップされていない場合(ステップS21のNo)、あるいはタップ位置が適正範囲外の場合(ステップS23のNo)、タイミング判定部15は仮想交点53をタップすべきタイミングを逃したか否かを判定する(ステップS27)。タイミング判定部15は、ラインオブジェクト51A,51Bの先端が衝突後、所定の時間経過していた場合はタップのタイミングを逃したと判定する。
 ユーザがタップのタイミングを逃していた場合(ステップS27のYes)、スコア処理部15は、ユーザがラインオブジェクト51A,51Bの衝突位置を適正なタイミングでタップできなかったと判断し、そのラインオブジェクト51A,51Bに対する操作入力をミスと判定してミス処理を行う(ステップS28)。ライン制御部13はタップできなかったラインオブジェクト51A,51Bをゲーム画面上から削除する(ステップS26)。
 <バリエーション>
 次に、ラインオブジェクト、予兆画像のバリエーションについて説明する。
 図7Aから図7Dは、ラインオブジェクト、予兆画像のバリエーションを示す図である。以下、図7Aから図7Dに示した各バリエーションについて説明する。
 図7Aは、複数組みのラインオブジェクトが同時に出現する例を示す図である。図7Aの例では、別々の仮想交点53A,53Bで衝突する複数組みのラインオブジェクト51A~51Dが同時にゲーム画面上に出現する。図7Aの場合、ユーザは、仮想交点53A,53Bの順にタップする。図7Aの例では、各ラインオブジェクト51A~51Dは、ゲーム画面の辺に対して同じ角度で移動しているが、ゲーム画面の辺に対して異なる角度で移動するものでもよい。例えば、ラインオブジェクト51Aはゲーム画面の上辺に対して45度の角度で移動し、ラインオブジェクト51Bはゲーム画面の下辺に対して90度の角度で移動するようにする。各ラインオブジェクト51A~51Dが移動する速度は同一でもよいし、異なってもよい。例えば、ライン制御部13がラインオブジェクト51Aの移動する速度を速く、ラインオブジェクト51Bの移動する速度を遅くすることで、タップのタイミングを難しくできる。速度は、一定の速度で出現させてもよいし、出現後、所定のタイミングで速度が変わっても良い。例えば、ラインオブジェクトが一瞬消えたあとに、速度が変わってもよい。
 図7Bは、ラインオブジェクト51A,51Bが消えたり現れたりする例を示す図である。図7Bの例では、ラインオブジェクト51A,51Bが移動するときに、ラインオブジェクト51A,51Bを一時的に非表示とする。あるいは、ラインオブジェクト51A,51Bの一部を非表示とする。ラインオブジェクト51A,51Bを非表示としたとき、予兆画像も非表示としてもよいし、予兆画像だけを表示してもよい。
 図7Cは、色の変化でラインオブジェクトの衝突を予兆させる例を示す図である。同図に示す例では、ラインオブジェクト51A,51Bの衝突時にラインオブジェクト51A,51Bによって区切られる部分に色が変化する予兆画像52(図7Cでは5角形)を配置した。予兆画像52は、ラインオブジェクト51A,51Bの移動に応じて色が変化する。例えば、はじめに、予兆画像52の色を出現時には他の部分との区別が無いように黒あるいは透明とし、その後、徐々に赤くあるいは透明度を減少させていく。ユーザは、予兆画像52の色の濃さ、透明度でラインオブジェクト51A,51Bが衝突する大まかなタイミングを知り、予兆画像52の形状でラインオブジェクト51A,51Bの移動する方向と仮想交点53の位置を知ることができる。
 図7Dは、線の太さの変化でラインオブジェクトの衝突を予兆させる例を示す図である。図7Dの例では、ラインオブジェクト51A,51Bと仮想交点53を含む太い線を予兆画像52とした。予兆画像52は、ラインオブジェクト51A,51Bが接近するのに伴って細くなっていく。ユーザは、予兆画像52の太さの変化でラインオブジェクト51A,51Bが衝突する大まかなタイミングを知り、予兆画像52の位置でラインオブジェクト51A,51Bの移動する方向、仮想交点53の大まかな位置を知ることができる。
 図8A及び図8Bは、4つのラインオブジェクトが衝突する例を示す図である。図8Aに示すように、衝突するラインオブジェクトの数を2より大きくして、例えば4つのラインオブジェクト51A~51Dのそれぞれがひとつの仮想交点53で衝突するものでもよい。4つのラインオブジェクト51A~51Dのそれぞれが衝突するときは、ユーザに要求する操作をタップの変わりにフリック(指で弾く動作)あるいはホールド(しばらく押し続ける)としてもよい。さらに、図8Bに示すように、4つのラインオブジェクト51A~51Dがひとつの仮想交点53で衝突する場合は、ユーザが衝突位置を押したときに、ユーザが押した位置に球54を出現させるとともに、ゲーム画面上の任意の位置に穴55を出現させる。そして、ライン制御部13は、ユーザのフリック操作に応じて球54を移動させ、球54が穴55に入った場合にはスコアを加算する。球54をゲーム画面の辺で跳ね返るようにしてもよいし、球54を穴55に直接入れるようにしてもよい。球54の動きは、ユーザによるフリックのタイミング、角度、速さ、長さなどに基いて決定する。フリックの長さとは、タッチした位置の始点から終点までの距離である。
 衝突するラインオブジェクトの数だけでなく、ラインオブジェクト51A,51Bの別の属性(例えば、太さ、色、表示方法など)に応じてタップ、フリック、ホールドなどの様々な操作をユーザに要求してもよい。
 <ラインオブジェクトの奥行方向の移動>
 これまでに説明した実施例では、ラインオブジェクトの移動する方向以外の方向には移動しなかった。ここでは、ラインオブジェクトをラインオブジェクトの移動する方向以外に移動させてラインオブジェクトが奥行方向に移動しているように見せる実施例について説明する。
 図9Aから図9Cは、ラインオブジェクトの表示位置を移動させたゲーム画面を時系列順に示す図である。図9Aから図9Cに示す実施例では、遠近法を用いた奥行き感のある背景に重ねてラインオブジェクト51A,51B、予兆画像52A,52Bを表示し、ラインオブジェクト51A,51Bが奥から手前(奥行方向)に移動しているように、ラインオブジェクト51A,51Bの表示位置を移動させた。
 背景処理部17は、ゲーム画面の背景として、ゲーム画面中央に設定した消失点56から放射状に広がる線で床58A、天井58Bを表現することで、ゲーム画面に奥行き感を出した。背景処理部17は、床58Aの両サイドには、再生する音楽の音量を示すレベルメータ58Cを配置した。背景処理部17は、1フレーム毎に床58A、天井58Bおよびレベルメータ58Cのゲーム画面上の表示位置を手前に向けて移動させ、ユーザが消失点56へ向かって移動しているように感じさせる。具体的には、背景処理部17は、ゲーム画面上で消失点56から離れるように、床58Aの横線を下方向に、天井58Bの横線を上方向に、左右のレベルメータ58Cを左右下方向に移動させる。背景処理部17は、床58A、天井58B、およびレベルメータ58Cの移動速度を再生する音楽のテンポ(BPM)に合わせる。床58A、天井58B、およびレベルメータ58Cは、奥行き感及びスピード感を出すための背景であり、ユーザの操作には関係しない。床58A、天井58B、およびレベルメータ58Cを消失点56から離れるように移動させて表示することで背景が奥行方向に移動するように表示されてスピード感が生まれる。
 ライン制御部13は、ラインオブジェクト51A,51Bを奥行き感を出した背景の上に重ねて表示し、ラインオブジェクト51A,51Bの表示位置が消失点56から離れるように移動させる。具体的には、図9Aから図9Cに示すように、ライン制御部13は、ゲーム画面上で消失点56より上に表示されている横方向に移動するラインオブジェクト51Aを経過時間に合わせて上方向に移動させ、消失点56より右に表示されている縦方向に移動するラインオブジェクト51Bを経過時間に合わせて右方向に移動させる。ラインオブジェクト51A,51Bのサイズ(太さ)も経過時間に合わせて大きく(太く)する。
 予兆画像52A,52Bは、ラインオブジェクト51A,51Bの最終的な衝突位置である衝突予定位置57ではなく、現在の表示位置でラインオブジェクト51A,51Bを伸ばした先の仮想交点53を示すように表示される。図9Aから図9Cの例では、予兆画像52A,52Bとして、ラインオブジェクト51A,51Bの長手方向に移動する帯状の画像を表示した。2つの帯状の予兆画像52A,52Bの交点が仮想交点53に対応する。
 次に、ラインオブジェクト51A,51B、予兆画像52A,52Bの表示位置を計算する処理について説明する。
 ラインオブジェクト51A,51Bの表示位置は、時間の経過に伴って消失点56から最終的な衝突位置である衝突予定位置57に移動する仮想交点53の位置に基いて決定する。仮想交点53の位置は、消失点56と衝突予定位置57を結ぶ線上で経過時間に合わせて補間して決定する。
 図10Aと図10Bに、仮想交点53の位置を動かす様子を示す。図10Aと図10Bの例では、消失点56から衝突予定位置57まで仮想交点53を1小節で移動させるとし、予兆画像52A,52Bをジャストタイミングの3拍前、ラインオブジェクト51A,51Bをジャストタイミングの2拍前に出現させるとした。
 ジャストタイミングから3拍前、つまり予兆画像52A,52Bを出現させるタイミングになると、図10Aに示すように、仮想交点53を衝突予定位置57から消失点56までの3/4の位置Pに配置し、仮想交点53を基準にして予兆画像52A,52Bを表示する。具体的には、予兆画像制御部12は、仮想交点53からラインオブジェクト51A,51Bが出現する辺まで帯状の予兆画像52A,52Bを表示させる。
 ライン制御部13は、時間の経過に伴って仮想交点53を線分上を衝突予定位置57へ向けて移動させるとともに、予兆画像52A,52Bの表示位置も仮想交点53の位置に合わせて補正する。
 そして、ジャストタイミングから2拍前、つまりラインオブジェクト51A,51Bを出現させるタイミングになると、図10Bに示すように、ライン制御部13は、仮想交点53は衝突予定位置57から消失点56までの半分の位置Qまで移動させる。予兆画像制御部12は、仮想交点53を基準にして予兆画像52A,52Bを表示し、ライン制御部13は、仮想交点53を基準にしてラインオブジェクト51A,51Bを出現させる。具体的には、ライン制御部13は、仮想交点53の縦の位置に合わせてラインオブジェクト51Aをゲーム画面の左端に出現させるとともに、仮想交点53の横の位置に合わせてラインオブジェクト51Bをゲーム画面の下辺に出現させる。
 その後、ライン制御部13は、ラインオブジェクト51A,51Bを移動させるとともに、仮想交点53を衝突予定位置57へ向けて移動させる。ライン制御部13及び予兆画像制御部12は、仮想交点53の位置に合わせてラインオブジェクト51A,51B及び予兆画像52A,52Bの表示位置を補正する。ジャストタイミングになると、仮想交点53は衝突予定位置57に到達し、ラインオブジェクト51A,51Bの先端同士が衝突予定位置57で衝突する。ユーザがゲーム画面上のラインオブジェクト51A,51Bの衝突位置をジャストタイミングでタップすることでスコアが加算される。タイミング判定部14は、ユーザがゲーム画面上をタップした位置と衝突位置、ユーザがタップしたタイミングとジャストタイミングとを比較する。タイミング判定部14は、ユーザがタップした位置と衝突位置とのずれ、ユーザがタップしたタイミングとジャストタイミングとのずれが所定の範囲内であれば成功、所定の範囲外であれば失敗と判定する。
 ゲームの設定でラインオブジェクト51A,51Bの移動速度を速くする場合は、例えば、予兆画像制御部12は、予兆画像52A,52Bの出現タイミングをジャストタイミングから2拍前とし、ラインオブジェクト51A,51Bの出現タイミングをジャストタイミングから1拍前とする。ラインオブジェクト51A,51Bの移動速度を遅くする場合は、予兆画像制御部12は、予兆画像52A,52Bの出現タイミングをジャストタイミングから4拍前とし、ラインオブジェクト51A,51Bの出現タイミングをジャストタイミングから3拍前とする。
 予兆画像52A,52Bを表示させない設定を追加してもよい。予兆画像52A,52Bを表示せずに、ラインオブジェクト51A,51Bの表示位置が移動する場合、ユーザにとってラインオブジェクト51A,51Bの衝突位置が把握しにくくなり、ゲームの難易度を上げることができる。
 <3次元空間>
 上記の実施例では、背景処理部17は、奥行き感を出した背景にラインオブジェクトを重ねて表示し、ラインオブジェクトの表示位置を移動させることでラインオブジェクトが奥行方向に移動しているように見せた。ここでは、ラインオブジェクトを3次元の仮想空間上で上下左右だけでなく奥行方向に移動させる実施例について説明する。
 3次元の仮想空間にラインオブジェクトを配置する場合、3次元の仮想空間を透視変換したときにゲーム画面の平面に対して平行となる面上に複数のラインオブジェクトを配置し、その面上でラインオブジェクトを移動させて衝突させる。ラインオブジェクトを配置した面に視点(仮想空間内に配置される仮想カメラ)の位置を接近させる、あるいは視点の位置にラインオブジェクトを接近させることでラインオブジェクトを奥行方向(ゲーム画面に対して垂直な方向)に移動させる。ラインオブジェクトの先端同士が衝突したタイミングで、衝突位置に対応するゲーム画面上の位置に対するユーザの操作を評価する。
 画像出力部16は、ゲーム画面として、3次元の仮想空間を透視変換して2次元平面に投影した画像を表示する。ラインオブジェクトについては、ラインオブジェクトを大きさのあるオブジェクトとして3次元の仮想空間に配置し、ラインオブジェクトを透視変換してゲーム画面に表示する方法や、あるいはラインオブジェクトの位置のみを2次元平面に投影してゲーム画面上の位置を算出し、算出したゲーム画面上の位置にラインオブジェクトを描画する方法がある。後者の方法では、画像出力部16が、奥行方向の距離に基いてラインオブジェクトの太さを決定する。
 予兆画像については、ラインオブジェクトと同様に大きさのあるオブジェクトを仮想空間に配置する方法や、ラインオブジェクトの衝突位置つまり仮想交点の位置を2次元平面に投影してゲーム画面上の位置を算出し、算出したゲーム画面上の仮想交点に基いて予兆画像を表示する方法がある。
 ラインオブジェクトの先端が衝突するタイミングを視点とラインオブジェクトを配置した面との距離が一定の値となったときとすることで、衝突時にゲーム画面上に描画されるラインオブジェクトの太さが一定となる。
 <対戦>
 次に、本ゲームにより他のユーザと対戦する実施例について説明する。
 まず、ゲーム装置はサーバに接続して対戦相手をマッチングする。対戦相手は、例えば、自分で登録したユーザの中から選択する方法や、腕前の近いユーザの中からランダムに選択する方法がある。
 そして、ゲーム装置は、対戦相手のプレイデータをサーバから読み出した後、ゲームを開始する。サーバには、ユーザの名前やIDなどのユーザまたはゲーム装置を特定する情報のほか、(1)全ユーザについて、各曲・各難易度のハイスコアを出した時のプレイデータ(いわゆるゴーストデータ)と、(2)全ユーザによる各曲・各難易度の直近数百プレイのプレイデータ(ゴーストデータ)が保存されている。自分で登録したユーザの中から対戦相手を選ぶときは(1)のデータを用い、腕前の近いユーザの中から対戦相手を選ぶときは(2)のデータを用いる。
 ゲーム装置は、ゲーム中、ゲーム画面上の自分のスコアの下に対戦相手のスコアとの差を表示する。対戦相手とのスコアの差は、ユーザと対戦相手が同時にゲームを開始したとして、読み出したプレイデータを用いて対戦相手のスコアを求め、ゲーム中におけるスコアの差を求めて表示する。
 ゲーム終了時には、対戦相手との勝敗が表示される。その後、結果表示画面でユーザの対戦結果が数値で表示される。直近数百プレイのプレイデータとして用いるために、スコアに関わらず、1プレイ毎にユーザのプレイデータをサーバに送信する。
 例えば、ゲーム装置は、ユーザの操作入力に基づくキーデータ(操作入力情報)をプレイデータとして記憶しておき、ゲーム終了時にキーデータをサーバに送信して記憶させる。対戦を行うユーザのゲーム装置は、サーバに記憶された対戦相手のキーデータを読み込んで対戦相手の操作入力として使用し、ゲームの進行に合わせて対戦相手のスコアを計算する。あるいは、ゲーム装置は、他のゲーム装置と例えばP2P通信などで直接接続し、互いのキーデータを送受信することで、リアルタイムに対戦してもよい。
 以上説明したように、本実施の形態によれば、ラインオブジェクト51A,51Bの先端が衝突するタイミングで衝突した位置をタップするタイミングゲームにおいて、遠近法で描いた背景が奥行方向に移動するように表示するとともに、背景に合わせてラインオブジェクト51A,51Bを移動させることで、ラインオブジェクト51A,51Bを奥行方向に移動しているように見せることが可能となり、スピード感のあるタイミングゲームを提供することができる。
 本実施の形態によれば、ラインオブジェクト51A,51Bが奥行方向に移動しているように見せるために、ライン制御部13は、ラインオブジェクト51A,51Bの進行方向の仮想交点53を衝突予定位置57に向けて移動させる。そのため、ユーザは、予兆画像52A,52Bやラインオブジェクト51A,51Bがゲーム画面に出現したときの仮想交点53の位置とラインオブジェクト51A,51Bの先端が実際に衝突する衝突予定位置57がずれて、ラインオブジェクト51A,51Bの先端同士が衝突する位置及びタイミングを予想しにくくなり、ユーザの興趣性を増すことができる。
 本実施の形態によれば、3次元の仮想空間上に配置した複数のラインオブジェクトを移動させて先端同士を衝突させて、ラインオブジェクトの先端が衝突するタイミングで衝突した位置をタップするタイミングゲームにおいて、3次元の仮想空間を2次元平面に透視変換する視点をラインオブジェクトの方向に移動させることにより、ラインオブジェクトをゲーム画面の平面だけでなく、奥行方向に移動させることが可能となる。
 本実施の形態によれば、ラインオブジェクト51A,51Bの先端が衝突するタイミングで衝突した位置をタップするタイミングゲームにおいて、ラインオブジェクト51A,51Bに対応して表示される、ラインオブジェクト51A,51Bの先端が互いに近接する予兆を示す予兆画像52A~52Cを表示することで、ユーザは、予兆画像52A~52Cによりラインオブジェクト51A,51Bの衝突位置、衝突タイミングを推測できるので、ラインオブジェクト51A,51Bを高速に移動させてゲームにスピード感を出すことができる。また、予兆画像52A~52Cによりゲーム画面をダイナミックに変化させることができる。
 以上説明したように、本発明によれば、スピード感のあるタイミングゲームを提供することができる。
 1…ゲームプログラム
 11…操作入力部
 12…予兆画像制御部
 13…ライン制御部
 14…タイミング判定部
 15…スコア処理部
 16…画像出力部
 17…背景処理部
 18…音声出力部
 19…ゲームデータ蓄積部
 51A~51D…ラインオブジェクト
 52,52A~52C…予兆画像
 53,53A,53B…仮想交点
 54…球
 55…穴
 56…消失点
 57…衝突予定位置
 58A…床
 58B…天井
 58C…レベルメータ

Claims (12)

  1.  ユーザの操作情報を入力する操作入力部と、
     ゲーム画面の奥行方向に移動するように背景を表示する背景表示部と、
     複数のラインをそれぞれ異なる位置から出現させて、当該複数のラインを伸ばした先の交点を仮想交点と設定して当該仮想交点を前記背景の表示に合わせて移動させ、前記仮想交点の移動に合わせて前記複数のラインの位置を補正するとともに、前記複数のラインの先端を前記仮想交点に向けて移動させるライン制御部と、
     前記操作入力部から前記操作情報を受信し、当該操作情報と前記複数のラインの先端同士が衝突した位置及びタイミングを比較して前記操作情報を評価するタイミング判定部と、
     を有することを特徴とするゲーム装置。
  2.  前記ライン制御部は、ゲーム画面内に消失点と前記複数のラインの先端同士が衝突する位置を示す衝突予定位置を設定し、前記消失点と前記衝突予定位置を結ぶ線分上に前記仮想交点を配置して前記複数のラインの出現位置を決め、当該仮想交点を前記背景の表示に合わせて前記衝突予定位置の方向に移動させることを特徴とする請求項1記載のゲーム装置。
  3.  コンピュータで読み取り可能な記録媒体であって、
     ユーザの操作情報を入力する処理と、
     ゲーム画面の奥行方向に移動するように背景を表示する処理と、
     複数のラインをそれぞれ異なる位置から出現させて、当該複数のラインを伸ばした先の交点を仮想交点と設定して当該仮想交点を前記背景の表示に合わせて移動させ、前記仮想交点の移動に合わせて前記複数のラインの位置を補正するとともに、前記複数のラインの先端を前記仮想交点に向けて移動させる処理と、
     前記操作入力部から前記操作情報を受信し、当該操作情報と前記複数のラインの先端同士が衝突した位置及びタイミングを比較して前記操作情報を評価する処理と、
     を前記コンピュータに実行させる指令を記録した記録媒体。
  4.  前記移動させる処理は、ゲーム画面内に消失点と前記複数のラインの先端同士が衝突する位置を示す衝突予定位置を設定し、前記消失点と前記衝突予定位置を結ぶ線分上に前記仮想交点を配置して前記複数のラインの出現位置を決め、当該仮想交点を前記背景の表示に合わせて前記衝突予定位置の方向に移動させることを特徴とする請求項3記載の記録媒体。
  5.  ユーザの操作情報を入力するステップと、
     ゲーム画面の奥行方向に移動するように背景を表示するステップと、
     複数のラインをそれぞれ異なる位置から出現させて、当該複数のラインを伸ばした先の交点を仮想交点と設定して当該仮想交点を前記背景の表示に合わせて移動させ、前記仮想交点の移動に合わせて前記複数のラインの位置を補正するとともに、前記複数のラインの先端を前記仮想交点に向けて移動させるステップと、
     前記操作入力部から前記操作情報を受信し、当該操作情報と前記複数のラインの先端同士が衝突した位置及びタイミングを比較して前記操作情報を評価するステップと、
     を有することを特徴とするゲーム方法。
  6.  前記移動させるステップは、ゲーム画面内に消失点と前記複数のラインの先端同士が衝突する位置を示す衝突予定位置を設定し、前記消失点と前記衝突予定位置を結ぶ線分上に前記仮想交点を配置して前記複数のラインの出現位置を決め、当該仮想交点を前記背景の表示に合わせて前記衝突予定位置の方向に移動させることを特徴とする請求項5記載のゲーム方法。
  7.  プレイヤーの操作情報を入力する操作入力部と、
     複数のオブジェクトを表示して移動させ、当該複数のオブジェクト同士を衝突させるオブジェクト制御部と、
     前記複数のオブジェクト同士が互いに近接する予兆を示す予兆オブジェクトを表示する予兆オブジェクト制御部と、
     前記操作入力部から前記操作情報を受信するとともに、前記オブジェクト制御部から前記複数のオブジェクト同士の近接情報を受信し、前記近接情報に基づいて前記操作情報を評価するタイミング判定部と、を有し、
     前記予兆オブジェクト制御部は、前記複数のオブジェクト同士が衝突する衝突予定位置において前記複数のオブジェクト同士が衝突するタイミングで、複数の予兆オブジェクトが重なるように、当該複数の予兆オブジェクトを制御することを特徴とするゲーム装置。
  8.  前記予兆オブジェクトは、前記複数のオブジェクト同士が衝突する位置及び/又は衝突するタイミングを示すことを特徴とする請求項7記載のゲーム装置。
  9.  コンピュータで読み取り可能な記録媒体であって、
     プレイヤーの操作情報を入力する処理と、
     複数のオブジェクトを表示して移動させ、当該複数のオブジェクト同士を衝突させる処理と、
     前記複数のオブジェクト同士が互いに近接する予兆を示す予兆オブジェクトを表示する処理と、
     前記近接情報に基づいて前記操作情報を評価する処理と、を前記コンピュータに実行させる指令を記録した記録媒体であって、
     前記予兆オブジェクトを表示する処理は、前記複数のオブジェクト同士が衝突する衝突予定位置において前記複数のオブジェクト同士が衝突するタイミングで、複数の予兆オブジェクトが重なるように、当該複数の予兆オブジェクトを制御することを特徴とする記録媒体。
  10.  前記予兆オブジェクトは、前記複数のオブジェクト同士が衝突する位置及び/又は衝突するタイミングを示すことを特徴とする請求項9記載の記録媒体。
  11.  プレイヤーの操作情報を入力するステップと、
     複数のオブジェクトを表示して移動させ、当該複数のオブジェクト同士を衝突させるステップと、
     前記複数のオブジェクト同士が互いに近接する予兆を示す予兆オブジェクトを表示するステップと、
     前記近接情報に基づいて前記操作情報を評価するステップと、を有し、
     前記予兆オブジェクトを表示するステップは、前記複数のオブジェクト同士が衝突する衝突予定位置において前記複数のオブジェクト同士が衝突するタイミングで、複数の予兆オブジェクトが重なるように、当該複数の予兆オブジェクトを制御することを特徴とするゲーム方法。
  12.  前記予兆オブジェクトは、前記複数のオブジェクト同士が衝突する位置及び/又は衝突するタイミングを示すことを特徴とする請求項11記載のゲーム方法。
PCT/JP2014/056276 2013-03-11 2014-03-11 ゲーム装置 WO2014142104A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201480014057.5A CN105188866B (zh) 2013-03-11 2014-03-11 游戏装置
KR1020157021983A KR101709653B1 (ko) 2013-03-11 2014-03-11 게임 장치
KR1020167022792A KR101732001B1 (ko) 2013-03-11 2014-03-11 게임 장치 및 컴퓨터 판독 가능 기록매체
US14/775,131 US10076704B2 (en) 2013-03-11 2014-03-11 Game device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013047903A JP5558602B1 (ja) 2013-03-11 2013-03-11 ゲームプログラム及びゲーム装置
JP2013-047903 2013-03-11
JP2013116930A JP5433096B1 (ja) 2013-06-03 2013-06-03 ゲームプログラム及びゲーム装置
JP2013-116930 2013-06-03

Publications (1)

Publication Number Publication Date
WO2014142104A1 true WO2014142104A1 (ja) 2014-09-18

Family

ID=51536758

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/056276 WO2014142104A1 (ja) 2013-03-11 2014-03-11 ゲーム装置

Country Status (4)

Country Link
US (1) US10076704B2 (ja)
KR (2) KR101709653B1 (ja)
CN (1) CN105188866B (ja)
WO (1) WO2014142104A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9855501B2 (en) * 2014-04-23 2018-01-02 King.Com Ltd. Opacity method and device therefor
US9766768B2 (en) * 2014-04-23 2017-09-19 King.Com Limited Opacity method and device therefor
JP2017208688A (ja) * 2016-05-18 2017-11-24 株式会社スクウェア・エニックス プログラム、コンピュータ装置、プログラム実行方法、及び、コンピュータシステム
US10926177B2 (en) * 2019-03-15 2021-02-23 Sony Interactive Entertainment Inc. Systems and methods for predicting states by using a distributed game engine

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006075495A1 (ja) * 2005-01-14 2006-07-20 Konami Digital Entertainment Co., Ltd. ゲーム装置、ゲーム制御方法及び情報記憶媒体
JP2008200295A (ja) * 2007-02-20 2008-09-04 Namco Bandai Games Inc ゲーム装置、プログラム及び情報記憶媒体
JP2009082696A (ja) * 2007-09-12 2009-04-23 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲームシステム
JP2010253253A (ja) * 2009-03-31 2010-11-11 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置用プログラム及び画像オブジェクト制御方法
JP2011011008A (ja) * 2009-07-06 2011-01-20 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム処理方法、ならびに、プログラム
JP2011189010A (ja) * 2010-03-15 2011-09-29 Konami Digital Entertainment Co Ltd ゲームシステム及びそのコンピュータプログラム
JP2012249690A (ja) * 2011-05-31 2012-12-20 Taito Corp ゲーム装置、ゲームプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3058051B2 (ja) 1995-04-27 2000-07-04 ヤマハ株式会社 音楽的アミューズメントシステム
JP2000079280A (ja) 1999-10-05 2000-03-21 Namco Ltd シュ―ティングゲ―ム装置
JP2001120835A (ja) 1999-10-26 2001-05-08 Enix Corp ビデオゲーム装置およびプログラムを格納した記録媒体
JP4955873B2 (ja) 2001-09-07 2012-06-20 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、およびゲーム装置
JP3686925B2 (ja) 2002-12-19 2005-08-24 コナミ株式会社 ゲーム装置、ゲームシステム、ゲーム提供方法、及びプログラム
JP2005329052A (ja) 2004-05-20 2005-12-02 Namco Ltd プログラム、情報記憶媒体及びゲーム装置
WO2007077851A1 (ja) 2005-12-30 2007-07-12 Ssd Company Limited 演出方法及び操作物
EP2027577B1 (en) 2006-03-29 2019-05-08 Harmonix Music Systems, Inc. Game controller simulating a guitar
JP2007111568A (ja) 2007-02-06 2007-05-10 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
US20090069096A1 (en) 2007-09-12 2009-03-12 Namco Bandai Games Inc. Program, information storage medium, game system, and input instruction device
JP4503675B2 (ja) 2008-12-25 2010-07-14 株式会社コナミデジタルエンタテインメント ゲーム機およびゲームプログラム
JP2011152297A (ja) 2010-01-27 2011-08-11 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲームシステム
JP5241807B2 (ja) 2010-12-02 2013-07-17 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP5226835B2 (ja) * 2011-07-08 2013-07-03 株式会社コナミデジタルエンタテインメント ゲーム機、それに用いるコンピュータプログラム及び、制御方法
JP5982111B2 (ja) * 2011-11-08 2016-08-31 株式会社タイトー ゲームサーバ、ゲーム装置、ゲームプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006075495A1 (ja) * 2005-01-14 2006-07-20 Konami Digital Entertainment Co., Ltd. ゲーム装置、ゲーム制御方法及び情報記憶媒体
JP2008200295A (ja) * 2007-02-20 2008-09-04 Namco Bandai Games Inc ゲーム装置、プログラム及び情報記憶媒体
JP2009082696A (ja) * 2007-09-12 2009-04-23 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲームシステム
JP2010253253A (ja) * 2009-03-31 2010-11-11 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置用プログラム及び画像オブジェクト制御方法
JP2011011008A (ja) * 2009-07-06 2011-01-20 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム処理方法、ならびに、プログラム
JP2011189010A (ja) * 2010-03-15 2011-09-29 Konami Digital Entertainment Co Ltd ゲームシステム及びそのコンピュータプログラム
JP2012249690A (ja) * 2011-05-31 2012-12-20 Taito Corp ゲーム装置、ゲームプログラム

Also Published As

Publication number Publication date
CN105188866B (zh) 2018-01-23
CN105188866A (zh) 2015-12-23
KR101732001B1 (ko) 2017-05-24
KR20150106454A (ko) 2015-09-21
KR20160102581A (ko) 2016-08-30
US10076704B2 (en) 2018-09-18
US20160023110A1 (en) 2016-01-28
KR101709653B1 (ko) 2017-02-23

Similar Documents

Publication Publication Date Title
JP3962059B2 (ja) ゲーム装置、ゲーム制御方法及びプログラム
JP4890624B2 (ja) ゲームシステム及びそのコンピュータプログラム
WO2013038844A1 (ja) ゲーム装置、ゲーム装置の制御方法、プログラム、及び情報記憶媒体
JP5558602B1 (ja) ゲームプログラム及びゲーム装置
JP6123066B2 (ja) ゲーム装置及びゲームプログラム
WO2013051342A1 (ja) ゲーム装置、ゲーム装置の制御方法、プログラム、及び情報記憶媒体
JP6123118B2 (ja) ゲーム装置及びゲームプログラム
WO2014142104A1 (ja) ゲーム装置
JP5433096B1 (ja) ゲームプログラム及びゲーム装置
JP2017051428A (ja) プログラム及びゲーム装置
JP2015008941A (ja) プログラム及びコンピュータシステム
JP5971816B2 (ja) ゲーム装置及びプログラム
JP5600201B1 (ja) ゲームプログラム及びゲーム装置
JP6184203B2 (ja) プログラムおよびゲーム装置
JP2015008987A (ja) プログラムおよびゲーム装置
JP5977805B2 (ja) ゲームプログラム及びゲーム装置
JP6291358B2 (ja) ゲームプログラム及びゲーム装置
JP5746310B2 (ja) ゲームプログラム及びゲーム装置
JP6284103B2 (ja) ゲームシステム、ゲーム装置、及びゲームプログラム
JP6328286B2 (ja) ゲーム装置及びゲームプログラム
WO2020017138A1 (ja) タイミングゲーム装置およびタイミングゲーム用プログラム
JP6450299B2 (ja) ゲームプログラムおよびゲーム装置
JP6167408B2 (ja) ゲーム装置及びプログラム
JP2019213865A (ja) 情報処理方法、情報処理装置及び情報処理プログラム
JP2015058155A (ja) プログラム、ゲーム装置およびサーバシステム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480014057.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14763254

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20157021983

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14775131

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 14763254

Country of ref document: EP

Kind code of ref document: A1