WO2016208325A1 - モーション表示プログラム - Google Patents

モーション表示プログラム Download PDF

Info

Publication number
WO2016208325A1
WO2016208325A1 PCT/JP2016/065840 JP2016065840W WO2016208325A1 WO 2016208325 A1 WO2016208325 A1 WO 2016208325A1 JP 2016065840 W JP2016065840 W JP 2016065840W WO 2016208325 A1 WO2016208325 A1 WO 2016208325A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion
timing
display
initial
display program
Prior art date
Application number
PCT/JP2016/065840
Other languages
English (en)
French (fr)
Inventor
太雄 深谷
拓也 本村
純 西尾
Original Assignee
株式会社コロプラ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コロプラ filed Critical 株式会社コロプラ
Publication of WO2016208325A1 publication Critical patent/WO2016208325A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game

Definitions

  • the present invention relates to a motion display program for controlling the display of character motion in a game progressing by touch input by a user.
  • Patent Document 1 there is a portable game device that plays a game on a terminal equipped with a touch panel while referring to a timing at which an object displayed on a display moves in accordance with music.
  • a portable game device of Patent Document 1 an object displayed on a display is moved in accordance with music, and the user measures the timing at which the object overlaps the timing indicator, and touches a display different from that displaying the object. The game progresses by inputting.
  • the present invention has been made in view of the above, and an object thereof is to provide a more interesting timing game.
  • a motion display program executed on a computer including a display and a touch panel provided in association with the display, A display step for displaying an index prompting a user operation; A detecting step for detecting whether or not the user operation is appropriately performed; A reproduction step of reproducing a predetermined motion on the character when it is detected in the detection step that the user operation has been performed satisfying a predetermined criterion; A repetition step of repeating the display step, the detection step and the reproduction step when it is detected in the reproduction step that the user operation has been performed satisfying a predetermined criterion; Is a motion display program that causes a computer to execute In the reproduction step, a motion display program for causing the computer to further execute a determination step for determining a motion to be reproduced next in accordance with the motion reproduced immediately before is obtained.
  • FIG. 1 shows an external view of a terminal according to one embodiment of the present invention.
  • 1 shows a hardware configuration diagram of a terminal according to an embodiment of the present invention.
  • FIG. FIG. 2 shows a block diagram of a terminal according to one embodiment of the present invention. It is a basic diagram accompanying description of a display of an elastic object and a timing index according to one example of the present invention. It is a screenshot in progress of a game with explanation of a display of an elastic object and a timing index according to a 1st embodiment of the present invention.
  • FIG. 2 is a flowchart showing a process flow of a terminal according to the first embodiment of the present invention.
  • the computer program according to the embodiment of the present invention has the following configuration.
  • (Configuration 1) A motion display program executed on a computer including a display and a touch panel provided in association with the display, A display step for displaying an index prompting a user operation; A detecting step for detecting whether or not the user operation is appropriately performed; A reproduction step of reproducing a predetermined motion on the character when it is detected in the detection step that the user operation has been performed satisfying a predetermined criterion; A repetition step of repeating the display step, the detection step and the reproduction step when it is detected in the reproduction step that the user operation has been performed satisfying a predetermined criterion; Is a motion display program that causes a computer to execute A motion display program for causing the computer to further execute a determination step of determining a motion to be reproduced next in accordance with a motion reproduced immediately before in the reproduction step.
  • a motion display program of configuration 1 In the displaying step, An operation input detection step of detecting an initial operation position by an initial operation input on the touch panel; An index display step for displaying a timing index for returning to the initial touch position after moving from the initial operation position toward a predetermined position when the initial operation position is detected; Is further executed by the computer, In the detection step, A timing match detection step for detecting whether a next touch input is detected when the timing index returns to the initial touch position; Further causing the computer to execute Motion display program. According to the present configuration, it is possible to continuously reproduce a plurality of motions more smoothly while enhancing the preference.
  • (Configuration 3) A motion display program of Configuration 1 or Configuration 2,
  • the motion has a start posture that is the posture of the character at the start of playback and an end posture that is the posture of the character at the end of playback,
  • the determining step further determines, as the motion to be reproduced next, a motion having a start posture with less difference compared to the end posture of the motion reproduced immediately before.
  • Motion display program According to this configuration, a plurality of motions can be reproduced more smoothly and continuously by comparing the specific postures of the characters.
  • (Configuration 4) A motion display program according to Configuration 3, The determining step further includes the position of the character's hand in the end posture of the motion reproduced immediately before and the position of the character's hand in the start posture of a motion that is a candidate for the next motion to be reproduced. Compare with Motion display program. According to this configuration, a plurality of motions can be played back more smoothly and continuously by comparing the positions of particularly easily conspicuous character hands.
  • (Configuration 5) The motion display program according to any one of Configurations 1 to 4, A motion display program for causing the computer to further execute an elastic display processing step of displaying an elastic object displayed so as to follow the timing index on the display. According to this configuration, it is possible to provide a game with higher preference.
  • FIG. 1 is an external view of a terminal according to an embodiment.
  • a terminal 100 shown in the figure includes a touch panel 102 having a screen display function.
  • a device that exhibits the screen display function of the touch panel 102 is referred to as a display 104.
  • the terminal can include a speaker (not shown).
  • the touch panel 102 detects a touch operation by the user under the control of the processor.
  • the display 104 displays a graphic corresponding to a touch operation on the touch panel by the user.
  • the terminal 100 is a device for realizing the functions shown in FIG.
  • this terminal is a terminal provided with touch panels, such as devices, such as a smart phone, PDA, and a tablet-type computer, it can be performed.
  • the terminal 100 can include a processor 202, a memory 204, a display unit 206, an input unit 208, an output unit 210, and a communication unit 212, which are connected to each other via a bus so that data communication can be performed.
  • the memory 204 of the terminal 100 stores an interface program, a game program, and game data according to an embodiment of the present invention. These programs are executed by the processor, and the user uses the touch panel 102 of the terminal 100 to play a game. Can enjoy. Note that the memory temporarily stores data generated while the processor is operating in accordance with the interface program and data used by the processor.
  • the display unit 206 corresponds to the display 104
  • the input unit 208 corresponds to the touch panel 102
  • the output unit 210 corresponds to a speaker or the like (not shown).
  • the communication unit 212 establishes a connection between the terminal 100 and the network under the control of the processor.
  • the interface unit, game program, and game data may be supplied to the terminal 100 from a remote location by the communication unit 212 of the terminal 100 via a communication network.
  • FIG. 3 is a block diagram of terminal 100 according to the embodiment of the present invention.
  • the terminal 100 includes a processing unit 300 that includes all or a part of the touch input detection unit 310, the image processing unit 320, the timing coincidence detection unit 330, the touch input evaluation unit 340, and the motion adjustment unit 350. Can do.
  • the image processing unit 320 can further include a display object processing unit 322.
  • the touch panel 102 detects a touch operation by the user under the control of the processor.
  • the processing unit 300 generates a graphic based on the contact operation by the user detected by the touch panel 102 and outputs the graphic to the display 104, or generates a sound having a different scale based on the contact operation by the user detected by the touch panel 102. Or output to the speaker 106.
  • FIG. 300 includes all or a part of the touch input detection unit 310, the image processing unit 320, the timing coincidence detection unit 330, the touch input evaluation unit 340, and the motion adjustment unit 350. Can do.
  • each element described as a functional block for performing various processes can be configured with a processor, a memory, and other integrated circuits in hardware, and loaded into the memory in software. This is realized by various programs. Therefore, those skilled in the art will understand that these functional blocks can be realized by hardware, software, or a combination thereof.
  • the touch input detection unit 310 can detect various operation information based on an operation with a user's finger or the like on the user's touch panel, for example, a touch position by a tap operation that is a short-time contact. Specifically, when the touch sensor detects a tap operation by a short-time contact with a user finger or the like on the touch panel, the touch input detection unit 310 detects a coordinate position of the touch input by the tap operation. The touch input detection unit 310 detects the coordinate position of the touch input by the first tap operation as the initial touch position.
  • the initial touch position may be an arbitrary position on the display 104.
  • the touch input detection unit 310 detects not only a tap operation by a short contact such as hitting the touch surface but also a swipe operation in which the finger moves on the touch surface while the user's finger is in contact with the touch panel. Can do.
  • an operation with a user's finger will be described as an example, but the present invention is not limited to an operation with a user's finger, and a stylus or the like may be used.
  • the image processing unit 320 displays a timing index and an initial shape elastic object at the initial touch position.
  • the timing index is controlled to return to the initial touch position after moving in the direction of the predetermined position, and the elastic object is deformed to follow the timing index.
  • the image processing unit 320 is elastically deformed and displayed so as to return to the initial shape again after the elastic object follows the timing index and partially extends from the initial shape to a predetermined position.
  • the display 104 is displayed so that the timing index is displayed in conjunction with the movement of the elastic object.
  • the elastic object behaves as an elastic body on the display in response to a user tap operation on the touch panel.
  • the predetermined position is an arbitrary position on the display 104 and is randomly designated by the image processing unit 320 for each touch input by the user.
  • the image processing unit 320 displays the circular timing index 400 and the initial shape elastic object 402 on the display 104 with the detected initial touch position 404 as a center ( First display process). Then, the image processing unit 320 randomly determines a predetermined position 404 that is the position where the elastic object is most extended as an arbitrary position on the display 104.
  • the initial shape of the elastic object 402 is, for example, a circular shape as shown in FIG. 4A.
  • the predetermined position is, for example, the upper right position of the display 104.
  • the predetermined position 404 is exemplarily displayed to show that it has not changed in FIGS. 4A to 4C, but the predetermined position 404 may not be displayed.
  • the image processing unit 320 moves the timing index toward a predetermined position 404 and follows the elastic object 402 from the initial touch position to the timing index (timing index 406). Is stretched so as to be gradually pulled to a predetermined position 404 (displayed on the tip of the elastic object 402) and displayed on the display 104.
  • FIG. 4B shows a shape before the timing index 400 and the tip of the elastic object 402 reach a predetermined position.
  • the image processing unit 320 superimposes the timing index 406 and the leading end 408 of the elastic object 402 on the predetermined position 404.
  • the elastic object 402 can be configured by a base portion 412 fixed at an initial touch position, a distal end portion 408, and a connection portion 410 that connects between the base portion and the distal end portion 408.
  • the elastic object 402 gradually moves at a predetermined speed while being deformed so that the tip portion 408 is pulled to a predetermined position while the base portion 412 is fixed at the initial touch position 400. It appears as if it is elastically deformed.
  • the image processing unit 320 moves the timing index 406 from the predetermined position 404 to the initial touch position 400 and displays it on the display 104.
  • the display is returned to the initial touch position 400 while releasing the tension from the predetermined position with respect to the elastic object 402 and returning the elastic object 402 to the initial shape according to its restoring force so as to be elastically deformed at a predetermined speed.
  • 104 is displayed (third display process).
  • the image processing unit 320 moves the timing index 406 from a predetermined position to the initial touch position in association with the movement of the tip 408 of the elastic object 402 and displays it on the display (third display process). .
  • the timing index 406 is moved and displayed from the initial touch position 400 to the predetermined position 404 corresponding to the touch input in conjunction with the movement of the distal end portion 408 of the elastic object 402, and further moved to the initial touch position 400.
  • the elastic object 402 may be moved and displayed from the middle when the tip 408 of the elastic object 402 returns from the predetermined position 404 to the initial touch position 400.
  • the timing index is for clearly indicating the timing of requesting the user to perform a tap operation. Therefore, if the elastic object is displayed immediately before it returns to the initial shape, the user is based on the timing index.
  • the timing for touch input cannot be estimated. Therefore, it is preferable that the image processing unit 320 is configured to display the timing index over a period in which the user can guess the timing of the touch input.
  • the image processing unit 320 randomly designates a predetermined position 404 as an arbitrary position on the display each time a touch input by the user to the touch panel is detected, and newly designates a predetermined position newly specified from the initial touch position 402.
  • An elastic object that elastically deforms to the position 404 and returns to the initial touch position 402 again, and a process of displaying the timing index 406 on the display 104 in conjunction with the movement of the elastic object (hereinafter referred to as “a series of index processes”) are repeated. .
  • the image processing unit 320 can arbitrarily determine a period from the previous touch input until the next touch input is requested, but if the period is too short, the user operation is difficult, and if the period is too long, the user For example, it is not possible to fully enjoy an attack action in which many attacks against enemy characters are desired in a short time.
  • FIGS. 5A to 5C are screen shots when a program having an interface program according to an embodiment of the present invention is implemented.
  • FIG. 5A shows the elastic object 402 having an initial shape at the detected initial touch position.
  • FIG. 5B shows the elastic object 402 having an initial shape at the detected initial touch position.
  • FIG. 5B shows the deformed elastic object 402 by extending the timing index 406 and the elastic object so as to be pulled from the initial touch position to the predetermined position 404, and the timing index 406 at the predetermined position 404.
  • FIG. 5C shows the elastic object 402 that is released from the predetermined position 404 and returns to the initial shape and returns to the initial touch position, and the timing index 406 that has moved from the predetermined position to the initial touch position together with the elastic object.
  • the timing coincidence detection unit 330 detects whether the next touch input is detected when the timing index 406 returns to the initial touch position. More specifically, the timing coincidence detection unit 330 acquires detection information of the next touch input by the user from the touch input detection unit 310. In addition, the timing coincidence detection unit 330 uses the image processing unit 320 to acquire the time for the timing index to return to the initial touch position. The timing coincidence detection unit 330 determines whether the next touch input is performed when the timing index returns to the initial touch position, or whether the next touch input is performed on the initial touch position. Note that it is not necessary to determine whether or not the next touch input has been performed on the initial touch position. This is because, for example, the enemy character moves and the enemy character overlaps the initial touch position before the timing index returns to the initial touch position.
  • the touch input evaluation unit 340 can increase the evaluation value for the next touch input when the timing coincidence detection unit 330 detects the next touch input for the initial touch position when the timing index returns to the initial touch position. . More specifically, for example, when the enemy character is attacked by the first touch input (first touch input), the damage (evaluation value) given to the enemy character is set to 10. When it is detected that the next touch input (second touch input) is performed with good timing when the timing index returns to the initial touch position, the touch input evaluation unit 340 based on the second touch input gives the enemy character. The damage that can be done can be 20.
  • the touch input evaluation unit 340 may damage the enemy character due to the third touch input. 30. Therefore, the user cannot increase the evaluation value for the next touch input without performing the next touch input for the initial touch value when the timing index returns to the initial touch position.
  • the touch input evaluation unit 340 can change the way of display, such as changing the color and shape of the timing index or blinking each time the evaluation value for the touch input increases.
  • the image processing unit 320 can cause the display 104 to display a value related to the evaluation value for the determined touch input.
  • the image processing unit 320 displays the damage given to the enemy character, displays the remaining ability of the enemy character attacked by the attack power, or indicates characters that indicate that the touch input has been made with good timing, for example, FIG. “COMBO” can be displayed as shown in FIG.
  • the user can change the development of the battle game by increasing the attack power of the character by touching according to the timing index displayed on the display. Can proceed.
  • the touch input detection unit 310 detects an initial touch position on the touch panel (step S702).
  • the image processing unit 320 causes the display 104 to display an elastic object having an initial shape centering on the initial touch position.
  • the image processing unit 320 randomly designates a predetermined position, which is a position where the elastic object is extended, as an arbitrary position on the display.
  • the image processing unit 320 elastically displays the elastic object by extending its tip from the initial shape to a predetermined position, and displays a timing index when the tip of the elastic object reaches the predetermined position.
  • step S706 It is displayed (step S706).
  • the tension from the predetermined position with respect to the elastic object is released, the elastic object is elastically deformed to the initial shape according to its restoring force at a predetermined speed, and elastically displayed to return to the initial touch position.
  • the timing index is displayed in conjunction with the movement of the part (step S708).
  • it is determined whether or not the touch input detection unit 310 has detected the next touch input step S710).
  • the timing coincidence detection unit 330 detects whether the next touch input for the initial touch position 402 is detected when the timing index returns to the initial touch position (step S712).
  • step S714 When the next touch input is made with good timing when the timing index returns to the initial touch position, the touch input evaluation unit 340 increases the evaluation value for the next touch input (step S714), and the process returns to step S704. On the other hand, if the next touch input is not made with good timing when the timing index returns to the initial touch position, the process returns to step S704 without increasing the evaluation value for the next touch input. Thereafter, steps S704 to S714 are repeatedly executed every time the next touch input is detected, and the process is terminated when the next touch input is not detected.
  • the motion adjustment unit 350 reproduces a predetermined motion in parallel while the above-described series of index processing (FIGS. 5A to 5C) is performed. Specifically, when it is determined that the touch input is performed on the initial touch position, the character is controlled to perform an attack motion. Specifically, as shown in FIG. 7, when the initial touch input is set to the initial touch position, the timing index is moved from the initial touch position (“initial position” in the figure) to a predetermined position, and from the predetermined position. Return to the initial touch position. Regarding motion playback, first, the motion to be played is determined by lottery. In the present embodiment, four patterns of motion are prepared as shown in FIG.
  • motion M1 is a motion that swings the sword from the right to the left (as viewed from the character)
  • motion M2 is a motion that swings the sword from the left to the right
  • motion M3 is a motion that swings the sword from the lower right to the upper left
  • Motion M4 is a motion of swinging the sword from the upper right to the lower left.
  • the motion to be reproduced next is selected.
  • the character posture at the end of the motion that was played immediately before is taken into consideration. More specifically, the sword held by the character is positioned on the right side of the character at the end of the motion M2 (see FIG. 8) reproduced immediately before. In this case, the motion to be reproduced next is not natural unless the sword is swung away from the right side. Referring to FIG.
  • motions in which the sword is swung off from the right side include motion M1 (shaking off the sword from right to left) and motion M3 (shaking off the sword from bottom right to top left). Therefore, the motion to be reproduced following the motion M2 is determined by drawing one of these. Thus, according to the present embodiment, the motion to be reproduced next can be smoothly (naturally) connected to the motion reproduced immediately before.
  • the timing coincidence detection unit 330 transmits a start request (SQ202, SQ203) to the display object processing unit 322 and the motion adjustment unit 350.
  • the display object processing unit 322 displays the timing index and the elastic object (see FIGS. 4 and 5), and the motion adjustment unit 350 determines after the motion lottery (first lottery: see FIG. 7) is performed. Motion is displayed.
  • the touch input detection unit detects the third touch, the operation information is transmitted to the timing coincidence detection unit 330 (SQ204), and the timing coincidence detection unit 330 appropriately performs the third touch. If it is determined that the request is made, a start request (SQ205, SQ206) is transmitted to the display object processing unit 322 and the motion adjustment unit 350.
  • one timing index is used in the series of index processing (FIGS. 5A to 5C).
  • the timing index The number may be increased. As the number of timing indicators increases, the user needs to perform touch input in a timely manner with respect to each of the plurality of timing indicators. Therefore, a more difficult operation is required, and the development of the game becomes more interesting. Further, as the number of timing indicators increases, the number of attacks on the enemy character by one touch input can be increased.
  • FIGS. 10A to 10C are screen shots when processing for increasing the number of timing indicators according to an embodiment of the present invention is performed.
  • the image processing unit 320 increases the number of timing indicators, for example, from one to two. Then, the image processing unit 320 determines two predetermined positions having different distances and directions from the initial touch position, for example, a second predetermined position and a third predetermined position for each timing index. Next, the image processing unit 320 displays the two timing objects 602 and 604 and the elastic object following the timing objects 602 and 604, and moves them toward the second predetermined position and the third predetermined position.
  • the timing coincidence detection unit 330 detects the touch input (third and fourth touch inputs) for each timing index with good timing when each of the two timing indices returns to the initial touch position.
  • FIG. 10A shows that when the timing index returns to the initial touch position 400 corresponding to the detected first touch input (initial touch) in the timing coincidence detection unit 330, the touch input for the initial touch position 400 is already 1 This is a graphic in the case where the number of times is detected (1COMBO) and the timing index is increased to two.
  • two timing indicators (602, 604) are shown at the second and third predetermined positions, and each elastic object follows each timing indicator so that its tip end overlaps each timing indicator. Is displayed.
  • the second and third predetermined positions corresponding to the movement destination of each timing index may be different distances from the initial touch position, or may be equal distances, but the timing of returning to the initial touch position is different. Configured.
  • FIG. 10B shows that when the timing index 602 returns to the initial touch position, the next touch input (second touch) with respect to the initial touch position has already been detected (2COMBO), and the remaining timing index 604 returns to the initial touch position.
  • the middle graphic is shown.
  • FIG. 10C shows a graphic when the timing index 604 subsequently returns to the initial touch position.
  • the timing index increases to, for example, three.
  • the touch input is made in time with the timing index displayed on the display, the user can increase the timing index, so the number of attacks on the enemy character by one touch input is increased. Can do. Therefore, the user can develop a more interesting game.
  • the motion adjustment unit 350 reproduces a predetermined motion in parallel while the series of index processing (FIGS. 10A to 10C) according to the present embodiment is being performed. Specifically, when it is determined that the touch input is performed on the initial touch position, the character is controlled to perform an attack motion. Specifically, as shown in FIGS. 10A to 10C and FIG. 11, when the initial touch is set to the initial touch position, timing index 1 (timing index 602 in FIG. 10) and timing index 2 (timing index 604 in FIG. 10). Are moved from the initial touch position (“initial position” in FIG. 11) to the second and third predetermined positions almost simultaneously and return to the initial touch position.
  • the timing index 1 returns to the initial touch position first, and the timing index 2 returns to the initial touch position later.
  • the motion to be played back is determined by lottery in the same manner as in the first embodiment.
  • the motion MM1 is composed of sub-motions M1-1 and M1-2
  • the motion MM2 is composed of sub-motions M2-1 and 2-2.
  • the sub motion M1-1 is a motion that swings the sword from the right to the left (as viewed from the character)
  • the sub motion M1-2 is a motion that swings the sword from the left to the right.
  • the sub motion M2-1 is a motion that swings the sword from the right to the left
  • the sub motion M2-2 is a motion that swings the sword from the left to the right.
  • the position of the arm of the character at the end of the submotion M1-1 and the position of the arm of the character at the start of the submotion M1-2 are both on the same side (left side) as viewed from the character. is there.
  • the character arm position at the end of the submotion M2-1 and the character arm position at the start of the submotion M2-2 are both on the same side (left side) as viewed from the character.
  • the lottery (initial lottery) after the initial touch is randomly determined from the motion MM1 or MM2, and the determined motion is reproduced.
  • the motion MM1 is determined and reproduced in the initial lottery.
  • the submotion M1-1 is reproduced from the initial touch to the first touch (the moment when the timing index 1 returns to the initial touch position), and the submotion M1-2 is reproduced after the motion M1-1 is reproduced. It is played back until the second touch (the moment when the timing index 2 returns to the initial touch position).
  • the playback start / end timing, playback ratio, and the like of the submotions 1-1 and 1-2 can be changed as appropriate.
  • the second series of processes is started. That is, immediately after the end of the second touch that defines the end point of the first series of index processes, a lottery of motions reproduced in the second series of index processes is performed.
  • the motion MM2 is drawn.
  • the sub-motion M2-1 is played between the initial touch and the first touch, and the sub-motion M2-2 is played between the second touch after the motion M2-1 is played.
  • the posture (for example, arm position) of the character at the end of motion MM1 (at the end of submotion M1-2) and the start of motion MM2 (at the start of submotion 2-1) The character's posture (for example, arm position) is almost the same. Therefore, even when the first index process and the second index process are continuously performed, the movement of the character can be displayed as a natural movement.
  • the number of timing indices used for the first series of index processes is the same as the number of timing indices used for the second series of index processes. (See FIGS. 7 and 11).
  • the third embodiment relates to a combination of these. By changing the number of timing indices for each series of index processes, an operation with a higher difficulty level is required, and the development of the game becomes interesting.
  • a lottery of “number of timing indicators” is additionally performed at the start of a series of indicator processes. Specifically, as shown in FIG. 13, when an initial touch position is detected on the touch panel (step S1301), a lottery of the number of timing indicators is performed (step S1302). In the present embodiment, whether to display one timing index (see FIG. 5) or two timing indices (see FIG. 10) is selected. When the number of timing indicators is determined by lottery, a lottery of motion is performed (step S1303). For example, when there is one timing index, one of the motions M1 to M4 shown in FIG. 8 is selected, and when there are two timing indices, either the motion MM1 or MM2 shown in FIG. 12 is selected.
  • step S1304 it is determined whether or not the motion reproduced immediately before is present.
  • the lottery motion is played back as it is (step S1306).
  • the end posture and lottery of the motion played back immediately before it is determined whether or not the motion start posture is the same (or similar) (step S1305). At this time, for example, when the last motion is paid to the left, the last played motion ends, such as when the lottery motion is a motion that swings down from the top.
  • step S1303 If the posture and the starting posture of the selected motion are not the same, the lottery of motion (step S1303) is performed again. On the other hand, when the end posture of the motion reproduced immediately before and the start posture of the lottery motion are the same, the lottery motion is reproduced as it is (step S1306). Then, when it is detected that the next touch input has been performed (if the touch input has been performed appropriately: see step S712 in FIG. 6), the number of timing indicators is drawn (step S1302), and the next If it is detected that touch input has not been performed or has not been performed properly, the processing is terminated.
  • FIG. 14 shows a case where two timing indicators are drawn in the first series of index processing after the initial touch, and one timing indicator is drawn in the subsequent second series of index processing.
  • the two timing indicators each return from the initial position to the initial position through a predetermined position.
  • the motion MM1 is selected as a result of the lottery, and the sub-motions M1-1 and M1-2 are reproduced.
  • a second series of processes is started.
  • one with one timing index is selected by lottery.
  • the character's arm is on the right side. Therefore, in the second series of index processing, lottery is repeated until the motion M1 or M3 in which the arm of the character starts from the right side is selected from the motions when the timing index is one (see FIG. 8).
  • the image processing unit 320 can include a display object processing unit 322.
  • the display object processing unit 322 detects another operation (stop operation) on the display object, for example, a swipe operation, after the previous touch input is detected and before the timing index returns to the initial touch position, it is detected.
  • a display object for example, the central girl character shown in FIGS. 10A to 10C
  • a display object can be moved and displayed on the display 104.
  • the user moves the display object in an arbitrary direction between the time when the previous touch input is detected and the timing index returns to the initial touch position, for example, during the attack action in the game, for example, the enemy character (for example, An attack on the display object by the upper right dinosaur character shown in FIGS. 10A to 10C can be avoided.
  • the swipe operation is not limited to avoiding an attack, and can simply cause the display character to perform an operation such as making the display character walk in the swipe direction and distance, or run.
  • the user can increase the evaluation value for the next touch input.
  • the user by accepting another operation between touch inputs, the user can continue to raise the evaluation value for the touch input while performing other operations on the display object.
  • the motion adjustment unit interrupts and reproduces the motion of the character corresponding to the other operations described above by interrupting the motion of the character.
  • the fifth embodiment of the present invention is a modification of “other operations” according to the above-described fourth embodiment.
  • the timing indicator 406 moved from the initial touch position is reversed at the predetermined position 404 and returned to the initial touch position again, when the user presses and holds down, the timing indicator 406 remains at the initial touch position (hold operation).
  • the finger is slid while being in contact with the touch panel, the character is controlled to move in the screen according to the direction of the slide operation.
  • the timing index starts moving from the initial touch position toward the predetermined position again.
  • the “other operation” in the present embodiment is not limited to the long press operation, and may be, for example, repeated hitting on the touch panel (operation for performing a plurality of touch operations within a predetermined time).
  • the sixth embodiment of the present invention continues to move toward an enemy character (target) while a series of index processing is repeatedly performed (that is, while the appropriate timing of the touch operation is maintained). Is.
  • the user can continue to raise the evaluation value by defeating the enemy character without being interrupted by the moving operation.
  • the character C automatically moves toward the nearest enemy character E1.
  • the enemy character E2 After defeating the enemy character E1, it automatically moves toward the enemy character E2 in the next closest position.
  • the control is performed so as to move to the nearest enemy character in the shortest distance according to the distance between the character C and the enemy character.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明のディスプレイとタッチパネルとを備えた端末上で実行されるプログラムは、プロセッサに対し、最初のタッチ入力による初期タッチ位置を検出するタッチ入力検出ステップと、弾性オブジェクトを初期タッチ位置において表示させるステップと、弾性オブジェクトを初期タッチ位置から所定の位置に引っ張られるように引き延ばして変形表示させるステップと、所定の位置からの引っ張りが解除され初期タッチ位置へ戻る弾性オブジェクトを表示させると共に、所定の位置から初期タッチ位置へ移動するタイミング指標を表示させるステップと、を実行させ、タイミング指標が初期タッチ位置に戻るとき、初期タッチ位置に対する次のタッチ入力が検出されたかを検出するタイミング一致検出ステップを実行させる。

Description

モーション表示プログラム
 本発明はユーザによるタッチ入力により進行するゲームらおける、キャラクタモーションの表示を制御するモーション表示プログラムに関する。
 近年、キーボードなどを有さず、タッチ入力のみを受け付けるタッチパネルを備えた端末が広まっている。そして、特許文献1に記載のように、例えば、タッチパネルを備えた端末上で、ディスプレイに表示されるオブジェクトが音楽に合わせて移動するタイミングを参考にしながら、ゲームを行う携帯型ゲーム装置がある。特許文献1の携帯型ゲーム装置は、ディスプレイに表示されるオブジェクトを音楽に合わせて移動させ、ユーザはオブジェクトがタイミング標識と重なるタイミングを計って、オブジェクトを表示しているものと別のディスプレイをタッチ入力することによりゲームを進行する。
特開2013-386号公報
 しかしながら、単に音楽に合わせてタッチする操作は、ユーザにとっては入力操作が単調であり、かつゲーム内容の展開がないためユーザは一定のレベルに達するとゲームに飽きてしまう。
 本発明は、上記に鑑みてなされたものであり、より趣向性の高いタイミングゲームを提供することを目的とする。
 本発明によれば、
 ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えたコンピュータ上で実行されるモーション表示プログラムであって、
 ユーザ操作を促す指標を表示する表示ステップと、
 前記ユーザ操作が適切に行われたか否かを検出する検出ステップと、
 前記検出ステップにおいて、前記ユーザ操作が所定の基準を満たして行われていたことが検出された場合に、キャラクタに所定のモーションを再生する再生ステップと、
 前記再生ステップにおいて、前記ユーザ操作が所定の基準を満たして行われていたことが検出された場合に、前記表示ステップ、前記検出ステップ及び前記再生ステップを繰り返す繰返しステップと、
  をコンピュータに実行させる、モーション表示プログラムであって、
 前記再生ステップにおいて、直前に再生されたモーションに応じて次に再生すべきモーションを決定する決定ステップを前記コンピュータに更に実行させる
モーション表示プログラムが得られる。
 本発明によれば、より趣向性の高いタイミングゲームを提供することができる。
本発明の一実施例に従った、端末の外観図を示す。 本発明の一実施例に従った、端末のハードウェア構成図を示す。 本発明の一実施例に従った、端末のブロック図を示す。 本発明の一実施例に従った、弾性オブジェクト、及びタイミング指標の表示の説明に伴う略線図である。 本発明の第1の実施の形態に従った、弾性オブジェクト、及びタイミング指標の表示の説明に伴うゲーム進行中のスクリーンショットである。 本発明の第1の実施の形態に従った、端末の処理の流れを示すフローチャート図を示す。 本発明の第1の実施の形態に従った一連の指標処理に関する、タイミング指標とモーション再生との関係について示す図である。 本発明の第1の実施の形態に従った一連の指標処理に関する、モーションの処理と、用意されている複数のモーションを示す図である。 本発明の第1の実施の形態に従った一連の指標処理に関する、情報の流れを示す図である。 本発明の第2の実施の形態に従った一連の指標処理に関する、弾性オブジェクト、及び2つのタイミング指標の表示の説明に伴うゲーム進行中のスクリーンショットである。 本発明の第2の実施の形態に従った一連の指標処理に関する、タイミング指標とモーション再生との関係について示す図である。 本発明の第1の実施の形態に従った一連の指標処理に関する、モーションの処理と、用意されている複数のモーションを示す図である。 本発明の第3の実施の形態に従った、端末の処理の流れを示すフローチャート図を示す。 本発明の第3の実施の形態に従った一連の指標処理に関する、タイミング指標とモーション再生との関係について示す図である。 本発明の第6の実施の形態に従った、キャラクタと敵キャラクタとの位置関係を示すイメージ図である。
 本発明の実施の形態によるコンピュータ・プログラムは、以下のような構成を備える。
 (構成1)
 ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えたコンピュータ上で実行されるモーション表示プログラムであって、
 ユーザ操作を促す指標を表示する表示ステップと、
 前記ユーザ操作が適切に行われたか否かを検出する検出ステップと、
 前記検出ステップにおいて、前記ユーザ操作が所定の基準を満たして行われていたことが検出された場合に、キャラクタに所定のモーションを再生する再生ステップと、
 前記再生ステップにおいて、前記ユーザ操作が所定の基準を満たして行われていたことが検出された場合に、前記表示ステップ、前記検出ステップ及び前記再生ステップを繰り返す繰返しステップと、
  をコンピュータに実行させる、モーション表示プログラムであって、
 前記再生ステップにおいて、直前に再生されたモーションに応じて次に再生すべきモーションを決定する決定ステップを前記コンピュータに更に実行させる
モーション表示プログラム。
 本構成によれば、複数のモーション同士をスムーズに連続再生することができる。
 (構成2)
 構成1のモーション表示プログラムであって、
 前記表示ステップにおいて、
  前記タッチパネル上における最初の操作入力による初期操作位置を検出する操作入力検出ステップと、
  前記初期操作位置が検出された際、前記初期操作位置から所定の位置の方向へ移動した後に前記初期タッチ位置へ戻るタイミング指標を表示する指標表示ステップと、
 を前記コンピュータに更に実行させ、
 前記検出ステップにおいて、
  前記タイミング指標が前記初期タッチ位置に戻るとき、次のタッチ入力が検出されるかを検出するタイミング一致検出ステップと、
 を前記コンピュータに更に実行させる、
モーション表示プログラム。
 本構成によれば、趣向性を高めた上で、複数のモーション同士を更にスムーズに連続再生することができる。
 (構成3)
 構成1又は構成2のモーション表示プログラムであって、
 前記モーションは再生開始時における前記キャラクタの姿勢である開始姿勢と、再生終了時における前記キャラクタの姿勢である終了姿勢とを有しており、
 前記決定ステップは、更に、前記直前に再生されたモーションの終了姿勢と比較して、より差異の少ない開始姿勢を有するモーションを前記次に再生すべきモーションとして決定する、
モーション表示プログラム。
 本構成によれば、キャラクタの具体的な姿勢を比較することにより、複数のモーション同士を更にスムーズに連続再生することができる。
 (構成4)
 構成3に記載のモーション表示プログラムであって、
 前記決定ステップは、更に、前記直前に再生されたモーションの前記終了姿勢における前記キャラクタの手の位置と、前記次に再生すべきモーションの候補となるモーションの前記開始姿勢における前記キャラクタの手の位置とを比較する、
モーション表示プログラム。
 本構成によれば、特に目立ちやすいキャラクタの手の位置を比較することにより、複数のモーション同士を更にスムーズに連続再生することができる。
 (構成5)
 構成1乃至構成4のいずれかに記載のモーション表示プログラムであって、
 前記タイミング指標に追随するように表示される弾性オブジェクトを前記ディスプレイへ表示させる弾性表示処理ステップ、を前記コンピュータに更に実行させる、モーション表示プログラム。
 本構成によれば、より趣向性を高めたゲームを提供することができる。
 (構成6)
 構成1乃至構成5のいずれかに記載のモーション表示プログラムであって、
 前記再生ステップにおいて、前記操作検出ステップにおいて、前記ユーザ操作が適切に行われていたことが検出された場合であって、更に、所定の中止操作がユーザにより行われた場合、前記所定のモーションの前記再生を前記所定の中止操作が終了するまで一時的に停止する再生中止ステップ、を前記コンピュータに更に実行させる、モーション表示プログラム。
 本構成によれば、より趣向性を高めたゲームを提供することができる。
 (構成7)
 構成1乃至構成6のいずれかに記載のモーション表示プログラムであって、
 前記繰返しステップが行われている間に、前記キャラクタを所定のターゲットに向けて移動させる移動制御ステップ、を前記コンピュータに更に実行させる、モーション表示プログラム。
 本構成によれば、より趣向性を高めたゲームを提供することができる。
(第1の実施の形態)
 以下、本発明の第1の実施の形態について説明する。図1は、一実施例に係る端末の外観図である。同図に示す端末100は、画面表示機能を兼ね備えたタッチパネル102を備えている。本出願書類中では、タッチパネル102の画面表示機能を発揮させるものをディスプレイ104と称する。さらに、この端末は、スピーカ(図示せず)を備えることができる。タッチパネル102はプロセッサの制御のもと、ユーザによる接触操作を検出する。ディスプレイ104は、ユーザによるタッチパネルに対する接触操作に対応するグラフィックを表示する。端末100は、図3に示される機能を実現するための装置である。なお、該端末は、スマートフォン、PDA、タブレット型コンピュータ等のデバイス等タッチパネルを備える端末であれば実行可能である。
 図2に示されるように、端末100は、プロセッサ202、メモリ204、表示部206、入力部208、出力部210、通信部212を備えることができ、これらがバスにより相互にデータ通信可能に接続されている。端末100のメモリ204には、本発明の一実施形態によるインタフェース・プログラム、ゲームプログラム及びゲームデータが格納されており、これらプログラムがプロセッサにより実行されて、ユーザは端末100のタッチパネル102を用いてゲームを楽しむことができる。なお、メモリには、プロセッサがインタフェース・プログラムに従って動作している間に生成したデータやプロセッサによって利用されるデータも一時的に格納される。表示部206はディスプレイ104に相当し、入力部208は、タッチパネル102に相当し、出力部210はスピーカ等(図示せず)に相当する。通信部212はプロセッサの制御により端末100とネットワークとの接続を確立する。端末100の通信部212により通信ネットワークを介して遠隔地からインタフェース・プログラム、ゲームプログラムやゲームデータを端末100に供給するようにしてもよい。
 図3は、本発明の実施の形態に従った端末100のブロック図である。端末100は、タッチ入力検出部310と、画像処理部320と、タイミング一致検出部330、タッチ入力評価部340、モーション調整部350の全て、またはこれらの一部を備える、処理部300を備えることができる。画像処理部320はさらに表示オブジェクト処理部322を備えることができる。タッチパネル102は、プロセッサの制御のもとユーザによる接触操作を検出する。処理部300はタッチパネル102により検出されたユーザによる接触操作に基づいてグラフィックを生成してディスプレイ104に出力したり、タッチパネル102により検出されたユーザによる接触操作に基づいて音階の違う音を生成してスピーカ106へ出力したりすることができる。なお、図3において、様々な処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、プロセッサ、メモリ、その他の集積回路で構成することができ、ソフトウェア的には、メモリにロードされた各種プログラムなどによって実現される。したがって、これらの機能ブロックがハードウェア、ソフトウェア、又はそれらの組み合わせによって実現できることは当業者に理解されるであろう。
 以下、図3に示される処理部300に備えられる各機能部の動作について詳細に説明する。タッチ入力検出部310は、ユーザのタッチパネルに対するユーザの指などによる操作に基づくさまざまな操作情報、例えば、短時間の接触であるタップ操作によるタッチ位置を検出することができる。具体的には、タッチセンサがタッチパネルに対するユーザ指などによる短時間の接触によるタップ操作を検知すると、タッチ入力検出部310は、該タップ操作によるタッチ入力の座標位置を検出する。タッチ入力検出部310は、最初のタップ操作によるタッチ入力の座標位置を初期タッチ位置として検出する。初期タッチ位置は、ディスプレイ104上の任意の位置でよい。なお、タッチ入力検出部310は、タッチ面を叩くといった短時間の接触によるタップ操作の検出だけではなく、タッチパネルにユーザの指が接触したまま指が接触面を移動するスワイプ操作の検出を行うことができる。なお、以下では、ユーザの指による操作を例示して説明するが、ユーザの指による操作には限定されずスタイラス等を用いても良い。
 画像処理部320は、タッチ入力検出部310によりタップ操作による初期タッチ位置が検出されると、初期タッチ位置にタイミング指標と、初期形状の弾性オブジェクトとを表示する。タイミング指標は、所定の位置の方向へ移動した後に再度初期タッチ位置へ戻るように制御され、弾性オブジェクトは当該タイミング指標に追随するように変形する。詳しくは、画像処理部320は、弾性オブジェクトがタイミング指標に追随しつつ初期形状からその一部が所定の位置まで弾性的に延びた後に、再度初期形状に戻るように弾性変形して表示されるよう、また、弾性オブジェクトの動きに連動してタイミング指標が表示されるよう、ディスプレイ104へ表示させる。弾性オブジェクトとは、タッチパネル上におけるユーザのタップ操作に応じて、ディスプレイ上に弾性体として挙動するものである。前記所定の位置は、ディスプレイ104上の任意の位置であり、画像処理部320によりユーザのタッチ入力毎にランダムに指定される。所定の位置と初期タッチ位置との間の距離が長いほど、弾性オブジェクトが初期タッチ位置から所定の位置まで引き延ばされて再度初期タッチ位置に戻るまでの時間を長くすることができる。即ち、前回のタッチ入力から、次のタッチ入力をユーザに対し要求するまでの時間を長くすることができる。
 以下、図4A~Cを参照しながら、画像処理部320の処理の流れを説明する。初期タッチ位置404が検出されると、画像処理部320は該検出された初期タッチ位置404を中心として、円形状のタイミング指標400と初期形状の弾性オブジェクト402とを重ねてディスプレイ104へ表示させる(第1の表示処理)。そして、画像処理部320は、弾性オブジェクトが最も引き延ばされる位置である所定の位置404をディスプレイ104上の任意の位置にランダムに決定する。弾性オブジェクト402の初期形状は、例えば図4Aに示されるように円形状である。図4Aにおいて所定の位置は、例えばディスプレイ104の右上の位置である。なお、図4Aにおいて、所定の位置404は、図4A~Cにおいて変化していないことを示すために例示的に表示されているが、所定の位置404を表示しなくてもよい。
 次に、画像処理部320は、図4Bに示すように、タイミング指標を所定の位置404に向けて移動すると共に、該弾性オブジェクト402を初期タッチ位置からタイミング指標に追随するように(タイミング指標406を弾性オブジェクト402の先端に位置させるようにして)徐々に所定の位置404まで引っ張られるように引き延ばしてディスプレイ104へ表示させる。図4Bはタイミング指標400及び弾性オブジェクト402の先端部が所定の位置に到達する前の形状を示す。その後、図4Cに示すように、弾性オブジェクト402の先端部408が所定の位置404に到達すると、画像処理部320は、タイミング指標406と弾性オブジェクト402の先端部408を所定の位置404に重ねてディスプレイ104へ表示させる(第2の表示処理)。弾性オブジェクト402は、初期タッチ位置に固定された基部412と、先端部408と、該基部と該先端部408との間を接続する接続部410とで構成することができる。弾性オブジェクト402は、基部412が初期タッチ位置400に固定されたまま、その先端部408が所定の位置に引っ張られるように変形を伴いながら所定の速度で徐々に移動するので、ディスプレイ104上であたかも弾性変形しているように表示される。
 次に、画像処理部320は、タイミング指標406を、所定の位置404から初期タッチ位置400へ移動させてディスプレイ104へ表示させる。この際、弾性オブジェクト402に対する所定の位置からの引っ張りを解除して、所定の速度で弾性オブジェクト402をその復元力に従って初期形状にあたかも弾性変形するように戻しつつ、初期タッチ位置400へ戻すようディスプレイ104へ表示させる(第3の表示処理)。このとき、画像処理部320は、タイミング指標406を、弾性オブジェクト402の先端部408の動きに連動させて、所定の位置から初期タッチ位置へ移動させてディスプレイへ表示させる(第3の表示処理)。このように、タイミング指標406は、弾性オブジェクト402の先端部408の動きと連動させて、タッチ入力に対応して初期タッチ位置400から所定の位置404まで移動表示させ、さらに初期タッチ位置400まで移動表示させる。なお、弾性オブジェクト402の先端部408が所定の位置404から初期タッチ位置400まで戻ってくる途中から移動表示させてもよい。
 上述したように、タイミング指標は、ユーザに対しタップ操作を要求するタイミングを明示するためのものであるので、弾性オブジェクトが初期形状に戻る直前で表示させてしまうと、ユーザはタイミング指標に基づいてタッチ入力するタイミングを推し量ることができない。従って、画像処理部320は、ユーザがタッチ入力のタイミングを推し量ることができる程度の期間に亘ってタイミング指標を表示させるよう構成することが好ましい。
 以降、画像処理部320は、ユーザによるタッチパネルに対するタッチ入力が検出される度に、所定の位置404をディスプレイ上の任意の位置にランダムに指定し、初期タッチ位置402から新たに指定された所定の位置404まで弾性変形し、再度初期タッチ位置402へ戻る弾性オブジェクトと、該弾性オブジェクトの動きに連動してタイミング指標406をディスプレイ104へ表示させる処理(以下「一連の指標処理」と呼ぶ)を繰り返す。なお、画像処理部320は、前回のタッチ入力から、次のタッチ入力を要求するまでの期間を任意に決定することができるが、該期間が短すぎるとユーザ操作が難しく、長すぎるとユーザは、例えば敵キャラクタに対する攻撃を短時間に数多く行いたい攻撃アクションを十分に楽しむことができない。
 本実施形態においては、タイミング指標の動きと連動させて弾性オブジェクトを表示することにより、初期タッチ位置からタイミング指標までの距離や方向をユーザはより視覚的に得ることができる。本実施形態においては、弾性オブジェクトを、敵キャラクタの攻撃に用いることにより、ユーザは、スマートフォンを用いて行われる攻撃があたかも弾性を有しているかのような疑似体験をすることができる。さらに、ユーザは、タイミング指標の動きに合わせてタイミング良くタッチ入力を行い、敵キャラクタを攻撃して倒すことにより、ゲーム内容を展開させることができる。図5A~Cは、本発明の一実施例によるインタフェース・プログラムを備えたプログラムが実施された場合のスクリーンショットである。図5Aは、検出された初期タッチ位置における初期形状の弾性オブジェクト402を示す。図5Bは、タイミング指標406と弾性オブジェクトとを初期タッチ位置から所定の位置404に引っ張られるように引き延ばして変形し、変形した弾性オブジェクト402を示すと共に、所定の位置404におけるタイミング指標406を示す。図5Cは所定の位置404からの引っ張りが解除され、初期形状に戻り初期タッチ位置へ戻る弾性オブジェクト402を示すと共に、弾性オブジェクトと共に所定の位置から初期タッチ位置へ移動したタイミング指標406を示す。
 タイミング一致検出部330は、タイミング指標406が初期タッチ位置に戻るとき、次のタッチ入力が検出されたかを検出する。より詳細には、タイミング一致検出部330は、タッチ入力検出部310から、ユーザによる次のタッチ入力の検出情報を取得する。また、タイミング一致検出部330は、画像処理部320により、タイミング指標が初期タッチ位置に戻る時間を取得する。タイミング一致検出部330は、タイミング指標が前記初期タッチ位置に戻るときに次のタッチ入力が行われたか、次のタッチ入力が初期タッチ位置に対して行われたか否かを判定する。なお、次のタッチ入力が初期タッチ位置に対して行われたか否かを判定しなくてもよい。タイミング指標が初期タッチ位置に戻るまでの間に、例えば敵キャラクタが移動し、敵キャラクタが初期タッチ位置に重なっていることがあるからである。
 タッチ入力評価部340は、タイミング一致検出部330により、タイミング指標が初期タッチ位置に戻るとき、初期タッチ位置に対する次のタッチ入力が検出されると、次のタッチ入力に対する評価値を上げることができる。より具体的には、例えば、最初のタッチ入力(第1のタッチ入力)により敵キャラクタを攻撃する際に、敵キャラクタへ与えられるダメージ(評価値)を10とする。タイミング指標が初期タッチ位置に戻ってきたときにタイミング良く次のタッチ入力(第2のタッチ入力)が行われたことを検知すると、第2のタッチ入力によるタッチ入力評価部340は敵キャラクタへ与えられるダメージを20とすることができる。さらに、タイミング指標が初期タッチ位置に戻ってきたときにタイミング良く次のタッチ入力(第3のタッチ入力)を行うと、タッチ入力評価部340は第3のタッチ入力による敵キャラクタへ与えられるダメージを30とすることができる。従って、ユーザはタイミング指標が初期タッチ位置に戻るときに、初期タッチ値に対する次のタッチ入力を行わないと、次のタッチ入力に対する評価値を上げることができない。なお、タッチ入力評価部340は、タッチ入力に対する評価値が上がる度に、タイミング指標の色、形を変えたり、点滅させたりするなど、表示の仕方を変化させることができる。また、決定されたタッチ入力に対する評価値に関連する値を、画像処理部320はディスプレイ104へ表示させることができる。例えば、画像処理部320は敵キャラクタへ与えられるダメージを表示させたり、該攻撃力によって攻撃された敵キャラクタの残存能力を表示させたり、タッチ入力がタイミング良くなされたことを示す文字、例えば図5A~Cに示すように「COMBO」を表示させたりすることができる。本発明において、ユーザは、ディスプレイに表示されるタイミング指標に合わせてタッチすることで、キャラクタの攻撃力を上げるなど戦闘ゲームの展開に変化を持たせることができるため、より趣向性の高いゲームを進行することができる。
 図6を参照して、上述した一連の指標処理の流れを説明する。まず、タッチ入力検出部310はタッチパネルにおける初期タッチ位置を検出する(ステップS702)。次に、画像処理部320は、タッチ入力検出部310によりタップ操作による初期タッチ位置が検出されると、初期タッチ位置を中心として初期形状の弾性オブジェクトをディスプレイ104へ表示させる。そして、画像処理部320は、弾性オブジェクトが引き延ばされる位置である所定の位置をディスプレイ上の任意の位置にランダムに指定する。(ステップS704)。次に、画像処理部320は、弾性オブジェクトが初期形状からその先端部が所定の位置まで弾性的に引き延ばして弾性表示させると共に、弾性オブジェクトの先端部が所定の位置に到達したときにタイミング指標を表示させる(ステップS706)。次に、弾性オブジェクトに対する所定の位置からの引っ張りを解除して、所定の速度で弾性オブジェクトをその復元力に従って初期形状に弾性変形して初期タッチ位置へ戻すよう弾性表示させると共に、弾性オブジェクトの先端部の動きに連動させてタイミング指標を表示させる(ステップS708)。次に、タッチ入力検出部310が次のタッチ入力を検出したか否かを判定する(ステップS710)。次のタッチ入力が検出された場合に、タイミング一致検出部330は、タイミング指標が初期タッチ位置に戻るとき、初期タッチ位置402に対する次のタッチ入力が検出されたかを検出する(ステップS712)。次のタッチ入力が、タイミング指標が初期タッチ位置に戻るときにタイミング良くなされた場合に、タッチ入力評価部340は次のタッチ入力に対する評価値を上げ(ステップS714)、ステップS704へ戻る。一方、次のタッチ入力が、タイミング指標が初期タッチ位置に戻るときにタイミング良くなされなかった場合、次のタッチ入力に対する評価値を上げることなく、ステップS704へ戻る。その後、ステップS704から714を次のタッチ入力が検出される毎に繰り返し実行し、次のタッチ入力が検出されなくなると処理を終了する。
 モーション調整部350は、上述した一連の指標処理(図5A乃至図5C)が行われている間、並行して所定のモーションを再生する。詳しくは、タッチ入力が初期タッチ位置に対して行われたと判定した場合に、キャラクタに攻撃モーションを行うように制御する。詳しくは、図7に示されるように、初期タッチ入力が初期タッチ位置にされると、タイミング指標は初期タッチ位置(図の「初期位置」)から所定の位置に移動が行われ所定の位置から初期タッチ位置へ戻ってくる。モーション再生に関しては、まず再生するモーションを抽選により決定する。本実施の形態においては、図8に示されるように、4パターンのモーションが用意されている。即ち、モーションM1は(キャラクタから見て)右から左に剣を振り払うモーションであり、モーションM2は左から右に剣を振り払うモーションであり、モーションM3は右下から左上に剣を振り払うモーションであり、モーションM4は右上から左下に剣を振り払うモーションである。図7を再び参照して、初期タッチ入力後の抽選(初回抽選)は、モーションM1~M4からランダムで決定され、決定されたモーションが再生される。図示されている例においては、初回抽選でモーションM2が決定され再生されている。次に、タイミング指標が所定位置から初期位置に戻ってきたタイミングで次のタッチ入力を行うと(即ち、タイミング指標に合わせたタッチ入力が成功すると)、次に再生されるべきモーションの抽選がされる。この抽選の際、直前に再生されていたモーションの終了時のキャラクタ姿勢が考慮される。より詳しくは、直前に再生されたモーションM2(図8参照)の終了時においてはキャラクタの保持している剣がキャラクタの右側に位置している。この場合、次に再生されるべきモーションとしては、右側から剣が振り払われるものでなければ自然な動きとならない。図8を参照すると、右側から剣が振り払われるモーションとしては、モーションM1(右から左に剣を振り払う)及びモーションM3(右下から左上に剣を振り払う)とがある。よって、モーションM2に続いて再生すべきモーションはこれらのどちらかひとつに抽選されて決定される。このように、本実施の形態によれば、次に再生されるべきモーションが直前に再生されたモーションとスムーズに(自然に)つなげることができる。
 続いて、一連の指標処理フローを図9を参照しつつ説明する。タッチ入力検出部(タッチパネル)310においてユーザの初期タッチが検出されると、当該初期タッチに関する操作情報が表示オブジェクト処理部322及びモーション調整部350に送信される(SQ101、SQ102)。表示オブジェクト処理部322においては、タイミング指標及び弾性オブジェクトの表示(図4及び図5参照)が行われる。モーション調整部350では、モーションの抽選(初回抽選:図7参照)が行われた後に決定されたモーションが表示される。ユーザによる2回目のタッチが行われると当該操作情報はタイミング一致検出部330に送信される(SQ201)。タイミング一致検出部330において、2回目のタッチが適切に行われている(即ち、タイミング指標が所定位置から初期位置に戻ってきたタイミングで次のタッチ入力が行われている)と判断された場合、タイミング一致検出部330は、表示オブジェクト処理部322及びモーション調整部350に対して開始要求(SQ202、SQ203)を送信する。表示オブジェクト処理部322においてはタイミング指標及び弾性オブジェクトの表示(図4及び図5参照)が行われ、モーション調整部350においてはモーションの抽選(初回抽選:図7参照)が行われた後に決定されたモーションが表示される。更に、タッチ入力検出部において、3回目のタッチが検出されると、当該操作情報はタイミング一致検出部330に送信され(SQ204)、タイミング一致検出部330において、3回目のタッチが適切に行われていると判断された場合、表示オブジェクト処理部322及びモーション調整部350に対して開始要求(SQ205、SQ206)を送信する。
(第2の実施の形態)
 上述した第1の実施の形態においては、一連の指標処理(図5A乃至図5C)において使用されているタイミング指標は1つであったが、本発明のさらなる実施形態においては、当該タイミング指標の数を増加してもよい。タイミング指標の数が増加するにつれ、複数のタイミング指標それぞれについてユーザはタッチ入力をタイミングよく行う必要が生じるため、より難易度の高い操作が必要となり、ゲームの展開に面白さがでてくる。さらにタイミング指標の数が増加するにつれ、一回のタッチ入力による敵キャラクタに対する攻撃の回数を増加することができる。
 以下、図10A~Cを参照しながら、タイミング指標の数が増加する場合の処理の流れを説明する。図10A~Cは、本発明の一実施例によるタイミング指標の数が増加する処理が実施された場合のスクリーンショットである。初期タッチ位置に対するタッチ入力が検出されると、画像処理部320はタイミング指標の数を増加、例えば1つから2つへ増加する。そして、画像処理部320は、初期タッチ位置からの距離、方向のそれぞれ異なる2つの所定の位置、例えば、第2の所定の位置、第3の所定の位置をそれぞれのタイミング指標毎に決定する。次に、画像処理部320は、2つのタイミングオブジェクト602、604及びそれに追随する弾性オブジェクトを表示し、第2の所定の位置、第3の所定の位置に向けて移動させる。タイミング一致検出部330は、2つのタイミング指標がそれぞれ初期タッチ位置に戻ってきたときにタイミングよく、それぞれのタイミング指標に対するタッチ入力(第3及び第4のタッチ入力)を検出する。
 例えば、図10Aは、タイミング一致検出部330において、検出された初回のタッチ入力(初期タッチ)に対応してタイミング指標が初期タッチ位置400に戻るときに、初期タッチ位置400に対するタッチ入力が既に1回検出(1COMBO)され、タイミング指標が2つに増加した場合のグラフィックである。図10Aにおいて、2つのタイミング指標(602、604)は第2及び第3の所定の位置に示され、各弾性オブジェクトは、その先端部が各タイミング指標に重なるように夫々のタイミング指標に追随して表示されている。各タイミング指標の移動先に対応する第2及び第3の所定の位置は、夫々初期タッチ位置から異なる距離としてもよいし、等距離としてもよいが、初期タッチ位置に戻ってくるタイミングは異なるように構成される。即ち、初期タッチ位置から第2及び第3の所定の位置までの距離が夫々異なる場合は、初期タッチ位置からの距離がより短いタイミング指標の方が先に初期タッチ位置に戻ってくる。一方、初期タッチ位置から第2及び第3の所定の位置までの距離が同一の場合は、タイミング指標の移動速度を変更することにより、夫々のタイミング指標が初期タッチ位置へ戻ってくる時期をずらせばよい。図10Bは、タイミング指標602が初期タッチ位置に戻るときに、初期タッチ位置に対する次のタッチ入力(第2タッチ)が既に検出(2COMBO)されており、残りのタイミング指標604が初期タッチ位置へ戻る途中のグラフィックを示す。図10Cは、その後にタイミング指標604が初期タッチ位置へ戻ったときのグラフィックを示す。図10Cにおいてタイミング指標604が初期タッチ位置に戻ってきたときにユーザがタイミングよくタッチ入力を行うと、タイミング指標が例えば3つに増加する。本発明においては、ディスプレイに表示されるタイミング指標に合わせてタッチ入力がタイミング良くなされると、ユーザはタイミング指標を増やすことができるため、一回のタッチ入力による敵キャラクタに対する攻撃の回数を増やすことができる。そのため、ユーザはより趣向性の高いゲームを展開することができる。
 本実施の形態によるモーション調整部350は、本実施の形態による一連の指標処理(図10A乃至図10C)が行われている間、並行して所定のモーションを再生する。詳しくは、タッチ入力が初期タッチ位置に対して行われたと判定した場合に、キャラクタに攻撃モーションを行うように制御する。詳しくは、図10A乃至C及び図11に示されるように、初期タッチが初期タッチ位置にされると、タイミング指標1(図10におけるタイミング指標602)及びタイミング指標2(図10におけるタイミング指標604)はほぼ同時に初期タッチ位置(図11の「初期位置」)から夫々の第2及び第3の所定の位置に移動が行われ初期タッチ位置へ戻ってくる。この際、タイミング指標1が先に初期タッチ位置に戻り、タイミング指標2が後に初期タッチ位置に戻る。モーション再生に関しては、まず第1の実施の形態と同様に再生するモーションを抽選により決定する。本実施の形態においては、図12に示されるように、2種類のモーションMM1、MM2が用意されている。モーションMM1はサブモーションM1-1及びM1-2で構成されており、モーションMM2は、サブモーションM2-1及び2-2で構成されている。サブモーションM1-1は(キャラクタから見て)右から左に剣を振り払うモーションであり、サブモーションM1-2は左から右に剣を振り払うモーションである。また、サブモーションM2-1右から左に剣を振り払うモーションであり、サブモーションM2-2は左から右に剣を振り払うモーションである。図より理解されるように、サブモーションM1-1の終了時点におけるキャラクタの腕の位置とサブモーションM1-2の開始時点におけるキャラクタの腕の位置とは共にキャラクタから見て同じ側(左側)である。また、サブモーションM2-1の終了時点におけるキャラクタの腕の位置とサブモーションM2-2の開始時点におけるキャラクタの腕の位置とは共にキャラクタから見て同じ側(左側)である。これにより、連続してサブモーションを再生した場合にキャラクタの動きが自然に見える。
 図11を再び参照して、初期タッチ後の抽選(初回抽選)は、モーションMM1又はMM2からランダムで決定され、決定されたモーションが再生される。図示されている例においては、初回抽選でモーションMM1が決定され再生されている。サブモーションM1-1は、初期タッチから第1タッチ(タイミング指標1が初期タッチ位置に戻ってきた瞬間)までの間に再生され、サブモーションM1-2は、モーションM1-1が再生された後第2タッチ(タイミング指標2が初期タッチ位置に戻ってきた瞬間)までの間に再生される。なお、サブモーション1-1、1-2の再生開始・終了のタイミングや、再生比率等については適宜変更可能である。
 初期タッチから第2タッチまでの処理(第1の一連の指標処理)が終了すると、第2の一連の処理が開始される。即ち、第1の一連の指標処理の終了時点を規定する第2タッチが終了した直後に、第2の一連の指標処理にて再生されるモーションの抽選が行われる。図示されている例においては、モーションMM2が抽選されている。サブモーションM2-1は、初期タッチから第1タッチまでの間に再生され、サブモーションM2-2は、モーションM2-1が再生された後第2タッチまでの間に再生される。
 本実施の形態においては、モーションMM1の終了時(サブモーションM1-2の終了時)のキャラクタの姿勢(例えば、腕の位置)と、モーションMM2の開始時(サブモーション2-1の開始時)のキャラクタの姿勢(例えば、腕の位置)とはほぼ同じである。従って、第1の指標処理と第2の指標処理が連続して行われた場合でも、キャラクタの動きは自然な動きとして表示することができる。
(第3の実施の形態)
 上述した第1及び第2の実施の形態においては、第1の一連の指標処理に使用されるタイミング指標の数と、第2の一連の指標処理に使用されるタイミング指標の数とは同一であった(図7及び図11参照)。第3の実施の形態は、これらの組み合わせに関するものである。タイミング指標の数を一連の指標処理毎に変更することにより、より難易度の高い操作が必要となり、ゲームの展開に面白さがでてくる。
 本実施の形態においては、一連の指標処理の開始時に「タイミング指標の数」の抽選が追加で行われる。具体的には、図13に示されるように、タッチパネルにおいて初期タッチ位置が検出されると(ステップS1301)、タイミング指標の数の抽選が行われる(ステップS1302)。本実施の形態においては、タイミング指標を1つ表示(図5参照)するのか、タイミング指標を2つ表示するのか(図10参照)を抽選する。タイミング指標の個数が抽選によって決定されると、モーションの抽選が行われる(ステップS1303)。例えば、タイミング指標が1つの場合は図8に示されるモーションM1乃至M4のいずれかが抽選され、タイミング指標が2つの場合は図12に示されるモーションMM1又はMM2のいずれかが抽選される。このとき、直前に再生されたモーションが存在しているか否かが判定される(ステップS1304)。直前に再生されたモーションがない場合(即ち、検出されたタッチが初期タッチの場合:第1の一連の指標処理、図7等参照)、抽選されたモーションがそのまま再生される(ステップS1306)。一方、直前に再生されたモーションがある場合(即ち、検出されたタッチが初期タッチではない場合:第2の一連の指標処理、図7等参照)、直前に再生されたモーションの終了姿勢と抽選されたモーションの開始姿勢とが同じ(若しくは似ている)か否かを判定する(ステップS1305)。このとき、例えば、直前のモーションが左に払い終わって終了しているモーションにもかかわらず抽選されたモーションが上から振り下ろすようなモーションである場合のように、直前に再生されたモーションの終了姿勢と抽選されたモーションの開始姿勢とが同じではない場合、再度モーションの抽選(ステップS1303)が行われる。一方、直前に再生されたモーションの終了姿勢と抽選されたモーションの開始姿勢とが同じである場合には、抽選されたモーションがそのまま再生される(ステップS1306)。そして、次のタッチ入力が行われたことを検出した場合(当該タッチ入力が適切に行われていた場合:図6ステップS712参照)タイミング指標の数の抽選が行われ(ステップS1302)、次のタッチ入力が行われなかったか又は適切に行われなかったことを検出した場合処理を終了する。
 図14は、初期タッチ後の第1の一連の指標処理においてタイミング指標の数が2つのものが抽選され、続く第2の一連の指標処理においてタイミング指標の数が1つのものが抽選された場合の例を示す。図においては、初期タッチが行われた後に2つのタイミング指標が夫々初期位置から所定位置を経て再び初期位置に戻ってくる。同時に、抽選の結果モーションMM1が選ばれ、サブモーションM1-1及びM1-2が再生される。第1タッチ及び第2タッチが適切なタイミングで受け付けられると、第2の一連の処理が開始される。図示された例では、タイミング指標が1つのものが抽選で選ばれている。ここで、第1の一連の指標処理において再生されたモーションMM1の終了時点においてはキャラクタの腕が右側にある。従って、第2の一連の指標処理においては、タイミング指標が1つの場合におけるモーション(図8参照)のうち、キャラクタの腕が右側から始まるモーションM1またはM3が選択されるまで抽選が繰り返される。
(第4の実施の形態)
 本発明のさらなる実施形態においては、画像処理部320は、表示オブジェクト処理部322を備えることができる。表示オブジェクト処理部322は、前回のタッチ入力が検出されてからタイミング指標が初期タッチ位置へ戻るまでの間に、表示オブジェクトに対する他の操作(中止操作)、例えばスワイプ操作を検出すると、検出されたスワイプ操作の方向と距離に応じて、ディスプレイ104に対し表示オブジェクト(例えば、図10A~Cに示される中央の女の子のキャラクタ)を移動表示させることができる。ユーザは、前回のタッチ入力が検出されてからタイミング指標が初期タッチ位置へ戻るまでの間に、任意の方向に表示オブジェクトを移動させることにより、例えば、ゲームにおいて攻撃アクション中に敵キャラクタ(例えば、図10A~Cに示される右上の恐竜キャラクタ)による表示オブジェクトに対する攻撃を回避することができる。なお、スワイプ操作は、攻撃の回避に限定されず、単に表示キャラクタに対しスワイプ方向、距離に歩かせる、走らせる等の動作を行わせることができる。上述したように、タイミング指標が初期タッチ位置に戻るときにユーザがタイミング良く次のタッチ入力を行えば、ユーザは次のタッチ入力に対する評価値を上げることができる。本発明によれば、タッチ入力の合間に他の操作を受け付けることにより、ユーザは表示オブジェクトに対して他の操作を行いつつも、タッチ入力に対する評価値を上げ続けることができる。
 この際、モーション調整部は、キャラクタのモーションを中断させ、上述した他の操作に相当するキャラクタのモーションを割り込み再生する。
(第5の実施の形態)
 本発明の第5の実施の形態は、上述した第4の実施の形態による「他の操作」の変形例である。図15に示されるように。初期タッチ位置から移動したタイミング指標406が所定の位置404で反転し再び初期タッチ位置に戻ってきた際にユーザが長押しした場合、タイミング指標406は当該初期タッチ位置に留まる(ホールド操作)。この際、指をタッチパネルに接触させたままスライドさせると当該スライド操作の方向に応じてキャラクタは画面内を移動するように制御される。ユーザが指を離すとタイミング指標は再度初期タッチ位置から所定位置に向けて移動を始める。このように、タイミング指標をホールドしたまま、キャラクタを移動操作等させることができるため、評価値を維持することができる。なお、本実施の形態における「他の操作」は、長押し操作に限らず、例えば、タッチパネル上を連打(所定時間内に複数回のタッチ操作を行う操作)としてもよい。
(第6の実施の形態)
 本発明の第6の実施の形態は、一連の指標処理が繰り返し行われている間(即ち、タッチ操作の適切なタイミングが維持されている間)、敵キャラクタ(ターゲット)に向けて移動させ続けるものである。これによりユーザは、移動操作によって中断されることなく、敵キャラクタを倒して評価値を上げ続けることができる。例えば、図15に示されるように、ユーザによるタッチ操作が継続されている間、キャラクタCは最も近い敵キャラクタE1に向けて自動で移動する。敵キャラクタE1を倒した後は次に近い位置にいる敵キャラクタE2に向けて自動で移動する。以降、仮想空間内に敵キャラクタが存在する限り、キャラクタCと敵キャラクタとの距離に応じて最も近い敵キャラクタに向けて最短距離で移動するように制御される。
 以上、本発明の一実施形態につき説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施態様の変更がなされうることを当業者は理解するであろう。
 100    端末
 102    タッチパネル
 104    ディスプレイ
 202    プロセッサ
 204    メモリ
 206    表示部
 208    入力部
 210    出力部
 212    通信部
 310    タッチ入力検出部
 320    画像処理部
 330    タイミング一致検出部
 322    表示オブジェクト処理部
 340    タッチ入力評価部
 350    モーション調整部
 404    初期タッチ位置
 402    弾性オブジェクト
 404    所定の位置
 406、602、604    タイミング指標
 412    基部
 408    先端部
 410    接続部

Claims (7)

  1.  ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えたコンピュータ上で実行されるモーション表示プログラムであって、
     ユーザ操作を促す指標を表示する表示ステップと、
     前記ユーザ操作が適切に行われたか否かを検出する検出ステップと、
     前記検出ステップにおいて、前記ユーザ操作が所定の基準を満たして行われていたことが検出された場合に、キャラクタに所定のモーションを再生する再生ステップと、
     前記再生ステップにおいて、前記ユーザ操作が所定の基準を満たして行われていたことが検出された場合に、前記表示ステップ、前記検出ステップ及び前記再生ステップを繰り返す繰返しステップと、
      をコンピュータに実行させる、モーション表示プログラムであって、
     前記再生ステップにおいて、直前に再生されたモーションに応じて次に再生すべきモーションを決定する決定ステップを前記コンピュータに更に実行させる
    モーション表示プログラム。
  2.  請求項1に記載のモーション表示プログラムであって、
     前記表示ステップにおいて、
      前記タッチパネル上における最初の操作入力による初期操作位置を検出する操作入力検出ステップと、
      前記初期操作位置が検出された際、前記初期操作位置から所定の位置の方向へ移動した後に前記初期タッチ位置へ戻るタイミング指標を表示する指標表示ステップと、
     を前記コンピュータに更に実行させ、
     前記検出ステップにおいて、
      前記タイミング指標が前記初期タッチ位置に戻るとき、次のタッチ入力が検出されるかを検出するタイミング一致検出ステップと、
     を前記コンピュータに更に実行させる、
    モーション表示プログラム。
  3.  請求項1又は請求項2に記載のモーション表示プログラムであって、
     前記モーションは再生開始時における前記キャラクタの姿勢である開始姿勢と、再生終了時における前記キャラクタの姿勢である終了姿勢とを有しており、
     前記決定ステップは、更に、前記直前に再生されたモーションの終了姿勢と比較して、より差異の少ない開始姿勢を有するモーションを前記次に再生すべきモーションとして決定する、
    モーション表示プログラム。
  4.  請求項3に記載のモーション表示プログラムであって、
     前記決定ステップは、更に、前記直前に再生されたモーションの前記終了姿勢における前記キャラクタの手の位置と、前記次に再生すべきモーションの候補となるモーションの前記開始姿勢における前記キャラクタの手の位置とを比較する、
    モーション表示プログラム。
  5.  請求項1乃至請求項4のいずれかに記載のモーション表示プログラムであって、
     前記タイミング指標に追随するように表示される弾性オブジェクトを前記ディスプレイへ表示させる弾性表示処理ステップ、を前記コンピュータに更に実行させる、モーション表示プログラム。
  6.  請求項1乃至請求項5のいずれかに記載のモーション表示プログラムであって、
     前記再生ステップにおいて、前記操作検出ステップにおいて、前記ユーザ操作が適切に行われていたことが検出された場合であって、更に、所定の中止操作がユーザにより行われた場合、前記所定のモーションの前記再生を前記所定の中止操作が終了するまで一時的に停止する再生中止ステップ、を前記コンピュータに更に実行させる、モーション表示プログラム。
  7.  請求項1乃至請求項6のいずれかに記載のモーション表示プログラムであって、
     前記繰返しステップが行われている間に、前記キャラクタを所定のターゲットに向けて移動させる移動制御ステップ、を前記コンピュータに更に実行させる、モーション表示プログラム。
PCT/JP2016/065840 2015-06-26 2016-05-27 モーション表示プログラム WO2016208325A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015129245A JP5838281B1 (ja) 2015-06-26 2015-06-26 モーション表示プログラム
JP2015-129245 2015-06-26

Publications (1)

Publication Number Publication Date
WO2016208325A1 true WO2016208325A1 (ja) 2016-12-29

Family

ID=55069220

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/065840 WO2016208325A1 (ja) 2015-06-26 2016-05-27 モーション表示プログラム

Country Status (2)

Country Link
JP (1) JP5838281B1 (ja)
WO (1) WO2016208325A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6122161B1 (ja) * 2016-01-22 2017-04-26 株式会社コロプラ ゲームプログラム
JP6774245B2 (ja) * 2016-07-22 2020-10-21 株式会社ユニバーサルエンターテインメント 遊技機
JP2018011874A (ja) * 2016-07-22 2018-01-25 株式会社ユニバーサルエンターテインメント 遊技機
CN107694085A (zh) * 2017-10-24 2018-02-16 网易(杭州)网络有限公司 游戏角色和装备的控制方法及装置、触摸设备、存储介质
JP6704670B2 (ja) * 2019-08-30 2020-06-03 株式会社ユニバーサルエンターテインメント 遊技機

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318196A (ja) * 2005-05-12 2006-11-24 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2011062469A (ja) * 2009-09-18 2011-03-31 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318196A (ja) * 2005-05-12 2006-11-24 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2011062469A (ja) * 2009-09-18 2011-03-31 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Shironeko Project no Punikon te Nanno koto?", SHIRONEKO PROJECT KORYAKU MANUAL, 16 March 2015 (2015-03-16), Retrieved from the Internet <URL:http://web.archive.org/web/20150316120517/ http://riis.jp/categoryl/entryl3.html> [retrieved on 20150920] *
JIZEN TOROKU: "Live2D de Onnanoko ga Nurunuru Ugoku Action RPG 'Battle Girl High School' o Senko shite Play shite Kita", FAMITSU APP, 30 January 2015 (2015-01-30), Retrieved from the Internet <URL:http://app.famitsu.com/ 20150130 486670> [retrieved on 20150929] *
KUNIAKI OTSUKA: "Super Famikon Final Fight Tough Koryaku Guigebook", RENZOKU WAZA, 10 February 1996 (1996-02-10), pages 4 - 5 *
TETSUYA INAMOTO: "Card Shushu ya Ikusei Yoso o Sonaeta Action RPG 'Battle Girl High School' de, Joshi Seitotachi o Sodatete Chikyu o Sukuo", 4GAMER.NET, 17 February 2015 (2015-02-17), Retrieved from the Internet <URL:http://www. 4gamer.net/games/285/G028545/20150205062> [retrieved on 20150929] *

Also Published As

Publication number Publication date
JP2017012247A (ja) 2017-01-19
JP5838281B1 (ja) 2016-01-06

Similar Documents

Publication Publication Date Title
WO2016208325A1 (ja) モーション表示プログラム
JP6185123B1 (ja) プログラム、制御方法、及び情報処理装置
US9072968B2 (en) Game device, game control method, and game control program for controlling game on the basis of a position input received via touch panel
JP5815143B1 (ja) タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末
JP2015217006A (ja) ユーザインターフェースプログラム及び当該プログラムを備えたゲームプログラム
US11759702B2 (en) Game system, processing method, and information storage medium
JP2018027238A (ja) ゲームプログラム、方法および情報処理装置
JP2017012619A (ja) タッチ操作によりゲームを進行するコンピュータプログラム
JP2017023697A (ja) コンピュータプログラム及びタッチ操作によりゲームを進行するゲームプログラム
JP6641041B2 (ja) 表示制御プログラム、表示制御方法、及び表示制御システム
JP2015123109A (ja) プログラム及びサーバ
JP6788644B2 (ja) ゲームプログラム、方法、および情報処理装置
JP5938501B1 (ja) コンピュータプログラム及びタッチ操作によりゲームを進行するゲームプログラム
JP6073432B2 (ja) タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末
JP5941202B1 (ja) インタフェース・プログラム及びコンピュータ
JP5854495B2 (ja) ゲーム装置、及びゲームプログラム
JP6480520B2 (ja) プログラム、制御方法、及び情報処理装置
JP5968510B1 (ja) インタフェース・プログラム及びコンピュータ
JP2017012618A (ja) タッチ操作によりゲームを進行するコンピュータプログラム
JP2017086941A (ja) タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末
JP6201004B1 (ja) ユーザインターフェースプログラム
JP6450297B2 (ja) ゲームプログラムおよびゲーム装置
JP6450299B2 (ja) ゲームプログラムおよびゲーム装置
JP2016179027A (ja) タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末
JP2021020108A (ja) ゲームプログラム、方法、および情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16814096

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16814096

Country of ref document: EP

Kind code of ref document: A1