WO2016114247A1 - タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末 - Google Patents

タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末 Download PDF

Info

Publication number
WO2016114247A1
WO2016114247A1 PCT/JP2016/050630 JP2016050630W WO2016114247A1 WO 2016114247 A1 WO2016114247 A1 WO 2016114247A1 JP 2016050630 W JP2016050630 W JP 2016050630W WO 2016114247 A1 WO2016114247 A1 WO 2016114247A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
initial
input
touch
timing
Prior art date
Application number
PCT/JP2016/050630
Other languages
English (en)
French (fr)
Inventor
功淳 馬場
Original Assignee
株式会社コロプラ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コロプラ filed Critical 株式会社コロプラ
Priority to US15/542,971 priority Critical patent/US10099118B2/en
Publication of WO2016114247A1 publication Critical patent/WO2016114247A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Definitions

  • FIG. 3 shows an external view of a terminal according to one embodiment of the present disclosure.
  • FIG. 3 shows a hardware configuration diagram of a terminal according to an embodiment of the present disclosure.
  • FIG. 3 shows a block diagram of a terminal according to one embodiment of the present disclosure.
  • FIG. 6 is a schematic diagram for explaining display of an elastic object and a timing index according to an embodiment of the present disclosure;
  • FIG. 6 is a schematic diagram for explaining display of an elastic object and a timing index according to an embodiment of the present disclosure.
  • FIG. 6 is a schematic diagram for explaining display of an elastic object and a timing index according to an embodiment of the present disclosure;
  • 6 is a screenshot of a game in progress with an explanation of the display of elastic objects and timing indicators according to one embodiment of the present disclosure.
  • 6 is a screenshot of a game in progress with an explanation of the display of elastic objects and timing indicators according to one embodiment of the present disclosure.
  • 6 is a screenshot of a game in progress with an explanation of the display of elastic objects and timing indicators according to one embodiment of the present disclosure.
  • 6 is a screenshot of a game in progress with an explanation of the display of an elastic object and two timing indicators, according to one embodiment of the present disclosure.
  • 6 is a screenshot of a game in progress with an explanation of the display of an elastic object and two timing indicators, according to one embodiment of the present disclosure.
  • 6 is a screenshot of a game in progress with an explanation of the display of an elastic object and two timing indicators, according to one embodiment of the present disclosure.
  • FIG. 6 shows a flowchart diagram illustrating a process flow of a terminal according to an embodiment of the present disclosure.
  • each element described as a functional block for performing various processes can be configured with a processor, a memory, and other integrated circuits in hardware, and loaded into the memory in software. This is realized by various programs. Therefore, those skilled in the art will understand that these functional blocks can be realized by hardware, software, or a combination thereof.
  • the touch input detection unit 310 can detect various operation information based on an operation with a user's finger or the like on the user's touch panel, for example, a touch position by a tap operation that is a short-time contact. Specifically, when the touch sensor detects a tap operation by a short-time contact with a user finger or the like on the touch panel, the touch input detection unit 310 detects a coordinate position of the touch input by the tap operation. The touch input detection unit 310 detects the coordinate position of the touch input by the first tap operation as the initial touch position.
  • the initial touch position may be an arbitrary position on the display 104.
  • the image processing unit 320 causes the display 104 to display an elastic object having an initial shape around the initial touch position. Thereafter, the image processing unit 320 displays the elastic object so that the elastic object is elastically deformed so that the elastic object returns to the initial shape again after partially extending from the initial shape to a predetermined position.
  • the display 104 is displayed so that the timing index is displayed in conjunction with the movement.
  • the elastic object behaves as an elastic body on the display in response to a user tap operation on the touch panel.
  • the predetermined position is an arbitrary position on the display 104 and is randomly designated by the image processing unit 320 for each touch input by the user.
  • the image processing unit 320 extends the elastic object 402 so as to be gradually pulled from the initial touch position to a predetermined position 404 and causes the display 104 to display the elastic object 402 so as to extend with elastic deformation.
  • FIG. 4B shows a shape before the tip of the elastic object reaches a predetermined position.
  • the image processing unit 320 causes the display 104 to display the timing index 406 on the tip 408 of the elastic object. (Second display process).
  • the elastic object can be composed of a base portion 412 fixed at the initial touch position, a tip portion 408, and a connection portion 410 that connects between the base portion and the tip portion.
  • the elastic object gradually moves at a predetermined speed while being deformed so that the tip portion is pulled to a predetermined position while the base portion is fixed at the initial touch position. Is displayed.
  • FIG. 4C when the elastic object 402 is extended to a predetermined position 404, for example, the user can attack the enemy character.
  • the timing indicator indicates, for example, the timing at which an enemy character is attacked, or requests the user to perform a tap operation when the tip of the elastic object returns to the initial touch position and assumes the initial shape. It is an index for clearly indicating the timing to perform.
  • the timing indicator 406 is illustratively a circular icon in FIG. 4C, but may be another shape.
  • the elastic object may be moved and displayed in the middle of returning from the predetermined position to the initial touch position.
  • the timing index is for clearly indicating the timing of requesting the user to perform a tap operation. Therefore, if the elastic object is displayed immediately before it returns to the initial shape, the user is based on the timing index. The timing for touch input cannot be estimated. Therefore, the image processing unit 320 displays the timing index over a period that allows the user to estimate the timing of touch input.
  • FIG. 5B shows the elastic object 402 that has been deformed by being stretched so as to be pulled from the initial touch position to the predetermined position 404, and a timing index 406 at the predetermined position 404.
  • FIG. 5C shows the elastic object 402 that is released from the predetermined position 404 and returns to the initial shape and returns to the initial touch position, and the timing index 406 that has moved from the predetermined position to the initial touch position together with the elastic object.
  • the image processing unit 320 displays the damage given to the enemy character, displays the remaining ability of the enemy character attacked by the attack power, or indicates characters that indicate that the touch input has been made with good timing, for example, FIG. “COMBO” can be displayed as shown in FIG.
  • the user can change the development of the battle game such as increasing the attack power of the character by touching according to the timing index displayed on the display. Can proceed.
  • the image processing unit 320 displays the elasticity object and the timing index at a predetermined position (first predetermined position) related to the first touch input, so that the second and third predetermined positions are displayed. For each, an elastic object and a timing index are displayed on the display 104.
  • the timing coincidence detection unit 330 detects the touch input (third and fourth touch inputs) for each timing index with good timing when the two timing indices return to the initial touch position, respectively.
  • the image processing unit 320 can set the number of timing indexes to three, for example.
  • FIG. 6A shows that when the timing match detection unit 330 detects that the timing index returns to the initial touch position corresponding to the detected first touch input, the touch input (second touch input) for the initial touch position is performed.
  • This is a graphic when the timing index has already been detected once (1COMBO) and the timing index has increased to two.
  • two timing indicators (602, 604) are shown at the second and third predetermined positions, and the two elastic objects are displayed with their tips overlapped with the timing indicators. Since the second and third predetermined positions corresponding to each timing index have different distances from the initial touch position, each timing index returns to the initial touch position at a different timing.
  • FIG. 6B shows that when the timing index whose distance from the initial touch position is shorter returns to the initial touch position, the next touch input (third touch input) to the initial touch position has already been detected (2COMBO).
  • the timing indicator whose distance from the touch position is longer shows a graphic in the middle of returning to the initial touch position.
  • FIG. 6C shows a graphic when the timing index whose distance from the initial touch position is longer then returns to the initial touch position.
  • the timing index increases to, for example, three.
  • the touch input is made in time with the timing index displayed on the display, the user can increase the timing index, and thus increase the number of attacks on the enemy character by one touch input. Can do. Therefore, the user can develop a more interesting game.
  • swipe operation is not limited to avoiding an attack, and can simply cause the display character to perform an operation such as making the display character walk in the swipe direction and distance, or run.
  • the user can increase the evaluation value for the next touch input.
  • the user can continue to raise the evaluation value for the touch input while performing other operations on the display object.
  • the touch input detection unit 310 detects an initial touch position on the touch panel (step 702).
  • the image processing unit 320 causes the display 104 to display an elastic object having an initial shape centering on the initial touch position.
  • the image processing unit 320 randomly designates a predetermined position, which is a position where the elastic object is extended, as an arbitrary position on the display. (Step 704).
  • the image processing unit 320 elastically displays the elastic object by extending its tip from the initial shape to a predetermined position, and displays a timing index when the tip of the elastic object reaches the predetermined position. It is displayed (step 706).
  • the tension from the predetermined position with respect to the elastic object is released, the elastic object is elastically deformed to the initial shape according to its restoring force at a predetermined speed, and elastically displayed to return to the initial touch position.
  • the timing index is displayed in conjunction with the movement of the part (step 708).
  • it is determined whether or not the touch input detection unit 310 has detected the next touch input (step 710).
  • One embodiment of the present disclosure is an interface program executed on a terminal including a display and a touch panel provided in association with the display, the processor of the terminal including: A touch input detection step of detecting an initial touch position by the first touch input on the touch panel; When the initial touch position is detected, A first display processing step of displaying an elastic object on the display at the detected initial touch position; A second display processing step in which the elastic object is stretched and deformed so as to be pulled from the initial touch position to a predetermined position, and the deformed elastic object is displayed on the display; A third display processing step for causing the display to display an elastic object that is released from the predetermined position and returned to the initial touch position, and to display a timing index for moving from the predetermined position to the initial touch position; A timing match detection step for detecting whether the next touch input is detected when the timing index returns to the initial touch position;
  • a touch input detection step of detecting an initial touch position by the first touch input on the touch panel
  • a first display processing step of displaying an elastic object on the display at the detected initial touch
  • each time a next touch input is detected Determining a predetermined position as a random position; For the predetermined position determined for the next touch input, the first display processing step, the second display processing step, the third display processing step, and the timing coincidence detection step are repeatedly executed.
  • the first display processing step, the second display processing step, the third display processing step, and the timing coincidence detection step are repeatedly executed.
  • the timing match detection step when the next touch input is detected when the timing index returns to the initial touch position, the evaluation value for the next touch input is increased.
  • An interface program characterized by causing a processor of a terminal to execute steps.
  • the terminal processor includes: In the timing coincidence detection step, when the next touch input is detected when the timing indicator returns to the initial touch position, the number of timing indicators is increased, and each of the predetermined positions corresponding to each of the increased timing indicators is detected. In response, a first display processing step, a second display processing step, a third display processing step, A timing coincidence detection step for detecting whether a touch input is detected when each of the increased timing indicators returns to the initial touch position; It is characterized by an interface program.
  • the terminal processor includes: If a swipe operation on a display object is detected between the time when the previous touch input is detected and the timing index related to the previous touch input is moved to the initial touch position, the swipe operation direction and distance are detected.
  • the interface program is characterized by further executing a display object processing step for moving and displaying the display object.
  • a terminal including a display and a touch panel provided in association with the display, A touch input detection unit for detecting an initial touch position by the first touch input on the touch panel; When the initial touch position is detected, A first display processing unit for displaying an elastic object on the display at the detected initial touch position; A second display processing unit that stretches and deforms the elastic object so as to be pulled from the initial touch position to a predetermined position, and displays the deformed elastic object on the display; A third display processing unit that displays on the display an elastic object that is released from the predetermined position and returns to the initial touch position, and displays a timing index for moving from the predetermined position to the initial touch position on the display; A timing coincidence detector that detects whether the next touch input is detected when the timing index returns to the initial touch position; A terminal is characterized by comprising:

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末 ディスプレイとタッチパネルとを備えた端末上で実行されるインタフェース・プログラムは、プロセッサに対し、最初のタッチ入力による初期タッチ位置を検出するタッチ入力検出ステップと、弾性オブジェクトを初期タッチ位置において表示させるステップと、弾性オブジェクトを初期タッチ位置から所定の位置に引っ張られるように引き延ばして変形表示させるステップと、所定の位置からの引っ張りが解除され初期タッチ位置へ戻る弾性オブジェクトを表示させると共に、所定の位置から初期タッチ位置へ移動するタイミング指標を表示させるステップと、を実行させ、タイミング指標が初期タッチ位置に戻るとき、初期タッチ位置に対する次のタッチ入力が検出されたかを検出するタイミング一致検出ステップを実行させる。

Description

タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末
 本開示はユーザによるタッチ入力によりゲームを進行するインタフェース・プログラム、及び端末に関する。
 近年、キーボードなどを有さず、タッチ入力のみを受け付けるタッチパネルを備えた端末が広まっている。そして、特許文献1に記載のように、例えば、タッチパネルを備えた端末上で、ディスプレイに表示されるオブジェクトが音楽に合わせて移動するタイミングを参考にしながら、ゲームを行う携帯型ゲーム装置がある。特許文献1の携帯型ゲーム装置は、ディスプレイに表示されるオブジェクトを音楽に合わせて移動させ、ユーザはオブジェクトがタイミング標識と重なるタイミングを計って、オブジェクトを表示しているものと別のディスプレイをタッチ入力することによりゲームを進行する。
特開2013-386号
 しかしながら、特許文献1の技術では、オブジェクト表示ディスプレイとは別に新たなディスプレイを有する専用の端末を必要とする。また、表示ディスプレイとは別のディスプレイを単に音楽に合わせてタッチする操作は、ユーザにとっては入力操作が単調であり、かつゲーム内容の展開がないためユーザは一定のレベルに達するとゲームに飽きてしまう。
 本開示は、上記に鑑みてなされたものであり、より趣向性の高いタイミングゲームを提供する。即ち、本開示は、
(1)ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えた端末で実行されるプログラムであって、前記端末に、
前記タッチパネルに対する最初のタッチ入力が入力された初期タッチ位置を検出するステップと、
前記初期タッチ位置から前記ディスプレイにおける所定位置まで移動した後に、前記所定位置から前記初期タッチ位置まで移動するタイミング指標を前記ディスプレイに表示させるステップと、
前記タイミング指標が前記初期タッチ位置に移動するとき、次のタッチ入力が入力されたかを検出するステップと、を実行させる、プログラムに関係する。
(2)また、本開示は、
ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えた端末で実行されるプログラムであって、前記端末に、
前記タッチパネルに対する最初のタッチ入力が入力された初期タッチ位置を検出するステップと、
前記初期タッチ位置に初期形状の弾性オブジェクトを前記ディスプレイに表示させるステップと、
前記弾性オブジェクトを、前記初期形状から前記ディスプレイにおける所定位置まで延びる先端部を形成するように変形させるとともに、タイミング指標を前記先端部に重ねて前記ディスプレイに表示させるステップと、
前記タイミング指標を前記初期タッチ位置まで移動させるステップと、
前記タイミング指標が前記初期タッチ位置に移動するとき、次のタッチ入力が入力されたかを検出するステップと、を実行させる、プログラムに関係する。
(3)また、本開示は、
ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えた端末で実行されるプログラムであって、前記端末に、
前記タッチパネルに対する最初のタッチ入力が入力された初期タッチ位置を検出するステップと、
前記初期タッチ位置に初期形状の弾性オブジェクトを前記ディスプレイに表示させるステップと、
前記弾性オブジェクトを、前記初期形状から前記ディスプレイにおける所定位置まで延びるように変形させた後に、前記所定位置から前記初期タッチ位置まで戻るように前記ディスプレイに表示させるステップと、を実行させる、プログラムに関係する。
 この開示の上記の、及び他の特徴及び利点は、この発明の実施例の以下のより特定的な説明、添付の図面、及び請求の範囲から明らかになるであろう。
 本開示によれば、より趣向性の高いタイミングゲームを提供することができる。
本開示の一実施例に従った、端末の外観図を示す。 本開示の一実施例に従った、端末のハードウェア構成図を示す。 本開示の一実施例に従った、端末のブロック図を示す。 本開示の一実施例に従った、弾性オブジェクト、及びタイミング指標の表示の説明に伴う略線図である。 本開示の一実施例に従った、弾性オブジェクト、及びタイミング指標の表示の説明に伴う略線図である。 本開示の一実施例に従った、弾性オブジェクト、及びタイミング指標の表示の説明に伴う略線図である。 本開示の一実施例に従った、弾性オブジェクト、及びタイミング指標の表示の説明に伴うゲーム進行中のスクリーンショットである。 本開示の一実施例に従った、弾性オブジェクト、及びタイミング指標の表示の説明に伴うゲーム進行中のスクリーンショットである。 本開示の一実施例に従った、弾性オブジェクト、及びタイミング指標の表示の説明に伴うゲーム進行中のスクリーンショットである。 本開示の一実施例に従った、弾性オブジェクト、及び2つのタイミング指標の表示の説明に伴うゲーム進行中のスクリーンショットである。 本開示の一実施例に従った、弾性オブジェクト、及び2つのタイミング指標の表示の説明に伴うゲーム進行中のスクリーンショットである。 本開示の一実施例に従った、弾性オブジェクト、及び2つのタイミング指標の表示の説明に伴うゲーム進行中のスクリーンショットである。 本開示の一実施例に従った、端末の処理の流れを示すフローチャート図を示す。
 以下、本開示の一実施形態について説明する。図1は、一実施例に係る端末の外観図である。同図に示す端末100は、画面表示機能を兼ね備えたタッチパネル102を備えている。本出願書類中では、タッチパネル102の画面表示機能を発揮させるものをディスプレイ104と称する。さらに、この端末は、スピーカ106(図示せず)を備えることができる。タッチパネル102はプロセッサの制御のもと、ユーザによる接触操作を検出する。ディスプレイ104は、ユーザによるタッチパネルに対する接触操作に対応するグラフィックを表示する。端末100は、図3に示される機能を実現するための装置である。なお、該端末は、スマートフォン、PDA、タブレット型コンピュータ等のデバイス等タッチパネルを備える端末であれば実行可能である。
 図2に示されるように、端末100は、プロセッサ202、メモリ204、表示部206、入力部208、出力部210、通信部212を備えることができ、これらがバスにより相互にデータ通信可能に接続されている。端末100のメモリ204には、本開示の一実施形態によるインタフェース・プログラム、ゲームプログラム及びゲームデータが格納されており、これらプログラムがプロセッサにより実行されて、ユーザは端末100のタッチパネル102を用いてゲームを楽しむことができる。なお、メモリには、プロセッサがインタフェース・プログラムに従って動作している間に生成したデータやプロセッサによって利用されるデータも一時的に格納される。表示部206はディスプレイ104に相当し、入力部208は、タッチパネル102に相当し、出力部210はスピーカ106に相当する。通信部212はプロセッサの制御により端末100とネットワークとの接続を確立する。端末100の通信部212により通信ネットワークを介して遠隔地からインタフェース・プログラム、ゲームプログラムやゲームデータを端末100に供給するようにしてもよい。
 図3は、本開示の一実施例に従った端末100のブロック図である。端末100は、タッチ入力検出部310と、画像処理部320と、タイミング一致検出部330、タッチ入力評価部340、音階調整部350の全て、またはこれらの一部を備える、処理部300を備えることができる。画像処理部320はさらに表示オブジェクト処理部322を備えることができる。タッチパネル102は、プロセッサの制御のもとユーザによる接触操作を検出する。処理部300はタッチパネル102により検出されたユーザによる接触操作に基づいてグラフィックを生成してディスプレイ104に出力したり、タッチパネル102により検出されたユーザによる接触操作に基づいて音階の違う音を生成してスピーカ106へ出力したりすることができる。なお、図3において、様々な処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、プロセッサ、メモリ、その他の集積回路で構成することができ、ソフトウェア的には、メモリにロードされた各種プログラムなどによって実現される。したがって、これらの機能ブロックがハードウェア、ソフトウェア、又はそれらの組み合わせによって実現できることは当業者に理解されるであろう。
 以下、図3に示される処理部300に備えられる各機能部の動作について詳細に説明する。タッチ入力検出部310は、ユーザのタッチパネルに対するユーザの指などによる操作に基づくさまざまな操作情報、例えば、短時間の接触であるタップ操作によるタッチ位置を検出することができる。具体的には、タッチセンサがタッチパネルに対するユーザ指などによる短時間の接触によるタップ操作を検知すると、タッチ入力検出部310は、該タップ操作によるタッチ入力の座標位置を検出する。タッチ入力検出部310は、最初のタップ操作によるタッチ入力の座標位置を初期タッチ位置として検出する。初期タッチ位置は、ディスプレイ104上の任意の位置でよい。なお、タッチ入力検出部310は、タッチ面を叩くと言った短時間の接触によるタップ操作の検出だけではなく、タッチパネルにユーザの指が接触したまま指が接触面を移動するスワイプ操作の検出を行うことができる。なお、以下では、ユーザ指による操作を例示して説明するが、ユーザ指による操作には限定されずスタイラス等を用いても良い。
 画像処理部320は、タッチ入力検出部310によりタップ操作による初期タッチ位置が検出されると、初期タッチ位置を中心として初期形状の弾性オブジェクトをディスプレイ104へ表示させる。その後、画像処理部320は、弾性オブジェクトが初期形状からその一部が所定の位置まで弾性的に延びた後に、再度初期形状に戻るように弾性変形して表示されるよう、また、弾性オブジェクトの動きに連動してタイミング指標が表示されるよう、ディスプレイ104へ表示させる。弾性オブジェクトとは、タッチパネル上におけるユーザのタップ操作に応じて、ディスプレイ上に弾性体として挙動するものである。前記所定の位置は、ディスプレイ104上の任意の位置であり、画像処理部320によりユーザのタッチ入力毎にランダムに指定される。所定の位置と初期タッチ位置との間の距離が長いほど、弾性オブジェクトが初期タッチ位置から所定の位置まで引き延ばされて再度初期タッチ位置に戻るまでの時間を長くすることができる。即ち、前回のタッチ入力から、次のタッチ入力をユーザに対し要求するまでの時間を長くすることができる。
 以下、図4A~Cを参照しながら、画像処理部320の処理の流れを説明する。初期タッチ位置が検出されると、画像処理部320は該検出された初期タッチ位置を中心として初期形状の弾性オブジェクト402をディスプレイ104へ表示させる(第1の表示処理)。そして、画像処理部320は、弾性オブジェクトが最も引き延ばされる位置である所定の位置をディスプレイ上の任意の位置にランダムに決定する。弾性オブジェクト402の初期形状は、例えば図4Aに示されるように円形状である。図4Aにおいて所定の位置は、例えば404の位置である。なお、図4Aにおいて、所定の位置404は、図4A~Cにおいて変化していないことを示すために例示的に表示されているが、所定の位置404を表示しなくてもよい。
 次に、画像処理部320は、図4Bに示すように該弾性オブジェクト402を初期タッチ位置から徐々に所定の位置404まで引っ張られるように引き延ばして弾性変形を伴いながら延びるようにディスプレイ104へ表示させる(第2の表示処理)。図4Bは弾性オブジェクトの先端部が所定の位置に到達する前の形状を示す。その後、図4Cに示すように、弾性オブジェクト402の先端部408が所定の位置404に到達すると、画像処理部320は、タイミング指標406を弾性オブジェクトの先端部408に重ねてディスプレイ104へ表示させることができる(第2の表示処理)。弾性オブジェクトは、初期タッチ位置に固定された基部412と、先端部408と、該基部と該先端部との間を接続する接続部410とで構成することができる。弾性オブジェクトは、基部が初期タッチ位置に固定されたまま、その先端部が所定の位置に引っ張られるように変形を伴いながら所定の速度で徐々に移動するので、ディスプレイ104上であたかも弾性変形しているように表示される。図4Cに示すように弾性オブジェクト402が、所定の位置404まで引き延ばされているときに、例えばユーザは敵キャラクタに対して攻撃を行うことができる。タイミング指標とは、例えば、敵キャラクタに対して攻撃を行っているタイミングを明示したり、弾性オブジェクトの先端部が初期タッチ位置に戻ってきて初期形状になった際にユーザに対しタップ操作を要求するタイミングを明示したりするための指標である。タイミング指標406は、図4Cにおいては例示的に円形状のアイコンであるが、他の形状であっても良い。
 次に、画像処理部320は、弾性オブジェクトに対する所定の位置からの引っ張りを解除して、所定の速度で弾性オブジェクトをその復元力に従って初期形状にあたかも弾性変形するように戻しつつ、初期タッチ位置へ戻すようディスプレイ104へ表示させる(第3の表示処理)。また、画像処理部320は、タイミング指標を、弾性オブジェクトの先端部の動きに連動させて、所定の位置から初期タッチ位置へ移動させてディスプレイへ表示させることができる(第3の表示処理)。なお、タイミング指標は、弾性オブジェクトの先端部の動きと連動させて、タッチ入力に対応して初期タッチ位置402から所定の位置404まで移動表示させ、さらに初期タッチ位置まで移動表示させても良いし、弾性オブジェクトの先端部が所定の位置から初期タッチ位置まで戻ってくる途中から移動表示させても良い。上述したように、タイミング指標は、ユーザに対しタップ操作を要求するタイミングを明示するためのものであるので、弾性オブジェクトが初期形状に戻る直前で表示させてしまうと、ユーザはタイミング指標に基づいてタッチ入力するタイミングを推し量ることができない。従って、画像処理部320は、ユーザがタッチ入力のタイミングを推し量ることができる程度の期間に亘ってタイミング指標を表示させる。
 以降、画像処理部320は、ユーザによるタッチパネルに対するタッチ入力が検出される度に、所定の位置404をディスプレイ上の任意の位置にランダムに指定し、初期タッチ位置402から新たに指定された所定の位置404まで弾性変形し、再度初期タッチ位置402へ戻る弾性オブジェクトと、該弾性オブジェクトの動きに連動してタイミング指標406をディスプレイ104へ表示させる処理を繰り返す。なお、画像処理部320は、前回のタッチ入力から、次のタッチ入力を要求するまでの期間を任意に決定することができるが、該期間が短すぎるとユーザ操作が難しく、長すぎるとユーザは、例えば敵キャラクタに対する攻撃を短時間に数多く行いたい攻撃アクションを十分に楽しむことができない。
 本実施例においては、タイミング指標の動きと連動させて弾性オブジェクトを表示することにより、初期タッチ位置からタイミング指標までの距離や方向をユーザはより視覚的に得ることができる。本実施例においては、弾性オブジェクトを、敵キャラクタの攻撃に用いることにより、ユーザは、スマートフォンを用いて行われる攻撃があたかも弾性を有しているかのような疑似体験をすることができる。さらに、ユーザは、タイミング指標の動きに合わせてタイミング良くタッチ入力を行い、敵キャラクタを攻撃して倒すことにより、ゲーム内容を展開させることができる。図5A~Cは、本開示の一実施例によるインタフェース・プログラムを備えたプログラムが実施された場合のスクリーンショットである。図5Aは、検出された初期タッチ位置における初期形状の弾性オブジェクト402を示す。図5Bは、弾性オブジェクトを初期タッチ位置から所定の位置404に引っ張られるように引き延ばして変形し、変形した弾性オブジェクト402を示すと共に、所定の位置404におけるタイミング指標406を示す。図5Cは所定の位置404からの引っ張りが解除され、初期形状に戻り初期タッチ位置へ戻る弾性オブジェクト402を示すと共に、弾性オブジェクトと共に所定の位置から初期タッチ位置へ移動したタイミング指標406を示す。
 タイミング一致検出部330は、タイミング指標406が初期タッチ位置に戻るとき、次のタッチ入力が検出されたかを検出する。より詳細には、タイミング一致検出部330は、タッチ入力検出部310から、ユーザによる次のタッチ入力の検出情報を取得する。また、タイミング一致検出部330は、画像処理部320により、タイミング指標が初期タッチ位置に戻る時間を取得する。タイミング一致検出部330は、タイミング指標が前記初期タッチ位置に戻るときに次のタッチ入力が行われたか、次のタッチ入力が初期タッチ位置に対して行われたか否かを判定する。なお、次のタッチ入力が初期タッチ位置に対して行われたか否かを判定しなくてもよい。タイミング指標が初期タッチ位置に戻るまでの間に、例えば敵キャラクタが移動し、敵キャラクタが初期タッチ位置に重なっていることがあるからである。
 タッチ入力評価部340は、タイミング一致検出部330により、タイミング指標が初期タッチ位置に戻るとき、初期タッチ位置に対する次のタッチ入力が検出されると、次のタッチ入力に対する評価値を上げることができる。より具体的には、例えば、最初のタッチ入力(第1のタッチ入力)により敵キャラクタを攻撃する際に、敵キャラクタへ与えられるダメージ(評価値)を10とする。タイミング指標が初期タッチ位置に戻ってきたときにタイミング良く次のタッチ入力(第2のタッチ入力)が行われたことを検知すると、第2のタッチ入力によるタッチ入力評価部340は敵キャラクタへ与えられるダメージを20とすることができる。さらに、タイミング指標が初期タッチ位置に戻ってきたときにタイミング良く次のタッチ入力(第3のタッチ入力)を行うと、タッチ入力評価部340は第3のタッチ入力による敵キャラクタへ与えられるダメージを30とすることができる。従って、ユーザはタイミング指標が初期タッチ位置に戻るときに、初期タッチ値に対する次のタッチ入力を行わないと、次のタッチ入力に対する評価値を上げることができない。なお、タッチ入力評価部340は、タッチ入力に対する評価値が上がる度に、タイミング指標の色、形を変えたり、点滅させたりするなど、表示の仕方を変化させることができる。また、決定されたタッチ入力に対する評価値に関連する値を、画像処理部320はディスプレイ104へ表示させることができる。例えば、画像処理部320は敵キャラクタへ与えられるダメージを表示させたり、該攻撃力によって攻撃された敵キャラクタの残存能力を表示させたり、タッチ入力がタイミング良くなされたことを示す文字、例えば図6A~Cに示すように「COMBO」を表示させたりすることができる。本開示において、ユーザは、ディスプレイに表示されるタイミング指標に合わせてタッチすることで、キャラクタの攻撃力を上げるなど戦闘ゲームの展開に変化を持たせることができるため、より趣向性の高いゲームを進行することができる。
 音階調整部350は、タイミング一致検出部330により、タイミング指標が初期タッチ位置に戻るとき、タイミング良く初期タッチ位置に対する次のタッチ入力(第2のタッチ入力)が検出されると、第1音階の音、例えば「ドの音」をスピーカ106へ出力させ、さらにタイミング一致検出部330において、タイミング良く次のタッチ入力(第3のタッチ入力)が検出されると、第2音階の音、例えば「レの音」をスピーカ106へ出力させる。第2音階の音を第1音階の音よりも高く設定することができる。即ち、音階調整部350は、ユーザによりタイミング良く次のタッチ入力が検出される度に、異なる音階の音をスピーカ106へ出力させる。ユーザは、ディスプレイに表示されるタイミング指標に合わせてタッチ入力がタイミング良くなされたことを、ゲームのプレイ中に聴覚的に理解することができるため、より趣向性の高いゲームを展開することができる。
 本開示のさらなる実施例においては、タイミング一致検出部330においてタイミング指標が初期タッチ位置に戻るとき、初期タッチ位置に対する次のタッチ入力が検出されると、タイミング指標の数を増加していくことができる。タイミング指標の数が増加するにつれ、複数のタイミング指標それぞれについてユーザはタッチ入力をタイミング良く行う必要が生じるため、より難易度の高い操作が必要となり、ゲームの展開に面白さがでてくる。さらにタイミング指標の数が増加するにつれ、一回のタッチ入力による敵キャラクタに対する攻撃の回数を増加することができる。
 以下、図6A~Cを参照しながら、タイミング指標の数が増加する場合の処理の流れを説明する。図6A~Cは、本開示の一実施例によるタイミング指標の数が増加する処理が実施された場合のスクリーンショットである。前回のタッチ入力が検出され、該前回のタッチ入力に対応して、タイミング一致検出部330においてタイミング指標が初期タッチ位置に戻るとき、初期タッチ位置に対する次のタッチ入力(第2のタッチ入力)が検出されると、画像処理部320はタイミング指標の数を増加、例えば1つから2つへ増加する。そして、画像処理部320は、初期タッチ位置からの距離、方向のそれぞれ異なる2つの所定の位置、例えば、第2の所定の位置、第3の所定の位置をそれぞれのタイミング指標毎に決定する。次に、画像処理部320は、第1のタッチ入力に関する所定の位置(第1の所定の位置)に対して弾性オブジェクト及びタイミング指標を表示したように、第2及び第3の所定の位置のそれぞれに対して、弾性オブジェクト及びタイミング指標をディスプレイ104へ表示させる。次に、タイミング一致検出部330において、2つのタイミング指標がそれぞれ初期タッチ位置に戻ってきたときにタイミング良く、それぞれのタイミング指標に対するタッチ入力(第3及び第4のタッチ入力)が検出されると、画像処理部320はタイミング指標の数を例えば3つにすることができる。
 例えば、図6Aは、タイミング一致検出部330において、検出された第1のタッチ入力に対応してタイミング指標が初期タッチ位置に戻るときに、初期タッチ位置に対するタッチ入力(第2のタッチ入力)が既に1回検出(1COMBO)され、タイミング指標が2つに増加した場合のグラフィックである。図6Aにおいて、2つのタイミング指標(602、604)は第2及び第3の所定の位置に示され、2つの弾性オブジェクトは、その先端部が各タイミング指標に重ねて表示されている。各タイミング指標に対応する第2及び第3の所定の位置はそれぞれ初期タッチ位置からの距離が異なるため、各タイミング指標は異なるタイミングで初期タッチ位置へ戻る。図6Bは、初期タッチ位置からの距離がより短いタイミング指標が初期タッチ位置に戻るときに、初期タッチ位置に対する次のタッチ入力(第3のタッチ入力)が既に検出(2COMBO)されており、初期タッチ位置からの距離がより長いタイミング指標が初期タッチ位置へ戻る途中のグラフィックを示す。図6Cは、その後に初期タッチ位置からの距離がより長いタイミング指標が初期タッチ位置へ戻ったときのグラフィックを示す。図6Cにおいてユーザがタイミング良く初期タッチ位置に対してタッチ入力を行うと、タイミング指標が例えば3つに増加する。本開示においては、ディスプレイに表示されるタイミング指標に合わせてタッチ入力がタイミング良くなされると、ユーザはタイミング指標を増やすことができるため、一回のタッチ入力による敵キャラクタに対する攻撃の回数を増やすことができる。そのため、ユーザはより趣向性の高いゲームを展開することができる。
 本開示のさらなる実施例においては、画像処理部320は、表示オブジェクト処理部322を備えることができる。表示オブジェクト処理部322は、前回のタッチ入力が検出されてからタイミング指標が初期タッチ位置へ戻るまでの間に、表示オブジェクトに対する他の操作、例えばスワイプ操作を検出すると、検出されたスワイプ操作の方向と距離に応じて、ディスプレイ104に対し表示オブジェクト(例えば、図6A~Cに示される中央の女の子のキャラクタ)を移動表示させることができる。ユーザは、前回のタッチ入力が検出されてからタイミング指標が初期タッチ位置へ戻るまでの間に、任意の方向に表示オブジェクトを移動させることにより、例えば、ゲームにおいて攻撃アクション中に敵キャラクタ(例えば、図6A~Cに示される右上の恐竜キャラクタ)による表示オブジェクトに対する攻撃を回避することができる。なお、スワイプ操作は、攻撃の回避に限定されず、単に表示キャラクタに対しスワイプ方向、距離に歩かせる、走らせる等の動作を行わせることができる。上述したように、タイミング指標が初期タッチ位置に戻るときにユーザがタイミング良く次のタッチ入力を行えば、ユーザは次のタッチ入力に対する評価値を上げることができる。本開示によれば、タッチ入力の合間に他の操作を受け付けることにより、ユーザは表示オブジェクトに対して他の操作を行いつつも、タッチ入力に対する評価値を上げ続けることができる。
 次に、図7を参照して、本開示の一実施の形態による一連の処理の流れを説明する。まず、タッチ入力検出部310はタッチパネルにおける初期タッチ位置を検出する(ステップ702)。次に、画像処理部320は、タッチ入力検出部310によりタップ操作による初期タッチ位置が検出されると、初期タッチ位置を中心として初期形状の弾性オブジェクトをディスプレイ104へ表示させる。そして、画像処理部320は、弾性オブジェクトが引き延ばされる位置である所定の位置をディスプレイ上の任意の位置にランダムに指定する。(ステップ704)。次に、画像処理部320は、弾性オブジェクトが初期形状からその先端部が所定の位置まで弾性的に引き延ばして弾性表示させると共に、弾性オブジェクトの先端部が所定の位置に到達したときにタイミング指標を表示させる(ステップ706)。次に、弾性オブジェクトに対する所定の位置からの引っ張りを解除して、所定の速度で弾性オブジェクトをその復元力に従って初期形状に弾性変形して初期タッチ位置へ戻すよう弾性表示させると共に、弾性オブジェクトの先端部の動きに連動させてタイミング指標を表示させる(ステップ708)。次に、タッチ入力検出部310が次のタッチ入力を検出したか否かを判定する(ステップ710)。次のタッチ入力が検出された場合に、タイミング一致検出部330は、タイミング指標が初期タッチ位置に戻るとき、初期タッチ位置402に対する次のタッチ入力が検出されたかを検出する(ステップ712)。次のタッチ入力が、タイミング指標が初期タッチ位置に戻るときにタイミング良くなされた場合に、タッチ入力評価部340は次のタッチ入力に対する評価値を上げ(ステップ714)、ステップ704へ戻る。一方、次のタッチ入力が、タイミング指標が初期タッチ位置に戻るときにタイミング良くなされなかった場合、次のタッチ入力に対する評価値を上げることなく、ステップ704へ戻る。その後、ステップ704から714を次のタッチ入力が検出される毎に繰り返し実行し、次のタッチ入力が検出されなくなると処理を終了する。
 本実施形態について、以下を付記する。
(付記1)
 本開示の一実施形態は、ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えた端末上で実行されるインタフェース・プログラムであって、前記端末のプロセッサに、
 タッチパネル上における最初のタッチ入力による初期タッチ位置を検出するタッチ入力検出ステップと、
 初期タッチ位置が検出されると、
  検出された初期タッチ位置において弾性オブジェクトをディスプレイへ表示させる第1の表示処理ステップと、
  弾性オブジェクトを初期タッチ位置から所定の位置に引っ張られるように引き延ばして変形し、変形した弾性オブジェクトをディスプレイへ表示させる第2の表示処理ステップと、
  所定の位置からの引っ張りが解除され初期タッチ位置へ戻る弾性オブジェクトをディスプレイへ表示させると共に、所定の位置から初期タッチ位置へ移動するタイミング指標をディスプレイへ表示させる第3の表示処理ステップと、
  タイミング指標が初期タッチ位置に戻るとき、次のタッチ入力が検出されるか検出するタイミング一致検出ステップと、
  を実行させる、インタフェース・プログラムに関係する。
(付記2)
 本開示の他の実施形態によれば、次のタッチ入力が検出される度に、端末のプロセッサに、
 所定の位置をランダムな位置に決定させるステップと、
 次のタッチ入力に対して決定された所定の位置に関して、第1の表示処理ステップと、第2の表示処理ステップと、第3の表示処理ステップと、タイミング一致検出ステップと
 を繰り返し実行させることを特徴とする、インタフェース・プログラムを特徴とする。
(付記3)
 本開示の他の実施形態によれば、タイミング一致検出ステップにおいて、タイミング指標が初期タッチ位置に戻るとき、次のタッチ入力が検出されると、次のタッチ入力に対する評価値を上げる、タッチ入力評価ステップを端末のプロセッサに実行させることを特徴とする、インタフェース・プログラムを特徴とする。
(付記4)
 本開示の他の実施形態によれば、端末はさらにスピーカを備えており、端末のプロセッサに、
 タイミング一致検出ステップにおいて、タイミング指標が初期タッチ位置に戻るとき、次のタッチ入力が検出されると、スピーカに第1音階の音を出力させ、次のタイミング一致検出ステップにおいて、タイミング指標が初期タッチ位置に再度戻るとき、さらに次のタッチ入力が検出されると、スピーカに第2音階の音を出力させる、音階調整ステップを実行させることを特徴とする、インタフェース・プログラムを特徴とする。
(付記5)
 本開示の他の実施形態によれば、端末のプロセッサに、
 タイミング一致検出ステップにおいて、タイミング指標が初期タッチ位置に戻るとき、次のタッチ入力が検出されると、タイミング指標の数を増加させ、増加されたタイミング指標のそれぞれに対応する所定の位置のそれぞれに応じて、第1の表示処理ステップと、第2の表示処理ステップと、第3の表示処理ステップと、
 増加されたタイミング指標がそれぞれ初期タッチ位置に戻るとき、タッチ入力がそれぞれ検出されるかを検出するタイミング一致検出ステップと、
を実行させることを特徴とする、インタフェース・プログラムを特徴とする。
(付記6)
 本開示の他の実施形態によれば、端末のプロセッサに、
 前回のタッチ入力が検出されてから、前回のタッチ入力に関連するタイミング指標が初期タッチ位置へ移動するまでの間に、表示オブジェクトに対するスワイプ操作を検出すると、検出したスワイプ操作の方向と距離に応じて、表示オブジェクトを移動表示させる表示オブジェクト処理ステップをさらに実行させることを特徴とする、インタフェース・プログラムを特徴とする。
(付記7)
本開示の他の実施形態によれば、ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えた端末であって、
 タッチパネル上における最初のタッチ入力による初期タッチ位置を検出するタッチ入力検出部と、
 初期タッチ位置が検出されると、
  検出された初期タッチ位置において弾性オブジェクトをディスプレイへ表示させる第1の表示処理部と、
  弾性オブジェクトを初期タッチ位置から所定の位置に引っ張られるように引き延ばして変形し、変形した弾性オブジェクトをディスプレイへ表示させる第2の表示処理部と、
  所定の位置からの引っ張りが解除され初期タッチ位置へ戻る弾性オブジェクトをディスプレイへ表示させると共に、所定の位置から初期タッチ位置へ移動するタイミング指標をディスプレイへ表示させる第3の表示処理部と、
  タイミング指標が初期タッチ位置に戻るとき、次のタッチ入力が検出されるかを検出するタイミング一致検出部と、
  を備えることを特徴とする、端末を特徴とする。
 以上、本開示の一実施形態につき説明したが、本開示は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施態様の変更がなされうることを当業者は理解するであろう。

Claims (18)

  1.  ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えた端末で実行されるプログラムであって、前記端末に、
    前記タッチパネルに対する最初のタッチ入力が入力された初期タッチ位置を検出するステップと、
    前記初期タッチ位置から前記ディスプレイにおける所定位置まで移動した後に、前記所定位置から前記初期タッチ位置まで移動するタイミング指標を前記ディスプレイに表示させるステップと、
    前記タイミング指標が前記初期タッチ位置に移動するとき、次のタッチ入力が入力されたかを検出するステップと、
    を実行させる、プログラム。
  2.  前記次のタッチ入力が入力されると、前記タイミング指標を再度移動させるステップを、前記端末にさらに実行させる、請求項1のプログラム。
  3.  前記次のタッチ入力が入力されると、複数の前記タイミング指標を移動させる、請求項2のプログラム。
  4.  複数の前記タイミング指標は、移動する方向がそれぞれ異なる、請求項3のプログラム。
  5.  複数の前記タイミング指標は、前記所定位置の前記初期タッチ位置からの距離が互いに異なる、請求項3または4のプログラム。
  6.  前記初期タッチ位置に初期形状の弾性オブジェクトを前記ディスプレイに表示させるステップと、
     前記弾性オブジェクトを、前記初期形状から前記所定位置まで延びる先端部を形成するように変形させるとともに、前記タイミング指標を前記先端部に重ねて前記ディスプレイに表示させるステップと、
    を前記端末にさらに実行させる、請求項1~5のいずれかのプログラム。
  7.  前記タイミング指標が前記初期タッチ位置に移動するとき、前記次のタッチ入力が入力されたことが検出されると、前記次のタッチ入力に対する評価値を上げるステップを、
    前記端末にさらに実行させる、請求項1~6のいずれかのプログラム。
  8.  前回のタッチ入力が検出されてから、前記タイミング指標が初期タッチ位置へ移動するまでの間に、表示オブジェクトを移動させる他の操作を検出するステップを、前記端末にさらに実行させ、
     前記タイミング指標が前記初期タッチ位置に移動するときに前記次のタッチ入力が入力された場合には、前記次のタッチ入力に対する評価値を上げる、請求項7のプログラム。
  9.  前記端末はさらにスピーカを備えており、
     前記タイミング指標が前記初期タッチ位置に戻るとき、前記次のタッチ入力が検出されると、前記スピーカに第1音階の音を出力させるステップと、
     前記タイミング指標が前記初期タッチ位置に再度戻るとき、さらに次のタッチ入力が検出されると、前記スピーカに第2音階の音を出力させるステップと、
    を前記端末にさらに実行させる、請求項1~8のいずれかのプログラム。
  10.  ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えた端末で実行されるプログラムであって、前記端末に、
     前記タッチパネルに対する最初のタッチ入力が入力された初期タッチ位置を検出するステップと、
     前記初期タッチ位置に初期形状の弾性オブジェクトを前記ディスプレイに表示させるステップと、
     前記弾性オブジェクトを、前記初期形状から前記ディスプレイにおける所定位置まで延びる先端部を形成するように変形させるとともに、タイミング指標を前記先端部に重ねて前記ディスプレイに表示させるステップと、
    前記タイミング指標を前記初期タッチ位置まで移動させるステップと、
     前記タイミング指標が前記初期タッチ位置に移動するとき、次のタッチ入力が入力されたかを検出するステップと、
    を実行させる、プログラム。
  11.  前記次のタッチ入力が入力されると、前記弾性オブジェクトを再度変形させるステップを、
    前記端末にさらに実行させる、請求項10のプログラム。
  12.  前記次のタッチ入力が入力されると、複数の前記弾性オブジェクトを変形させる、請求項11のプログラム。
  13.  複数の前記弾性オブジェクトは、変形される方向がそれぞれ異なる、請求項12のプログラム。
  14.  複数の前記弾性オブジェクトは、前記所定位置の前記初期タッチ位置からの距離が互いに異なる、請求項12または13のプログラム。
  15.  ディスプレイと該ディスプレイに関連して設けられたタッチパネルとを備えた端末で実行されるプログラムであって、前記端末に、
     前記タッチパネルに対する最初のタッチ入力が入力された初期タッチ位置を検出するステップと、
     前記初期タッチ位置に初期形状の弾性オブジェクトを前記ディスプレイに表示させるステップと、
     前記弾性オブジェクトを、前記初期形状から前記ディスプレイにおける所定位置まで延びるように変形させた後に、前記所定位置から前記初期タッチ位置まで戻るように前記ディスプレイに表示させるステップと、
    を実行させる、プログラム。
  16.  前記弾性オブジェクトが前記初期タッチ位置まで戻るとき、次のタッチ入力が入力されると、前記弾性オブジェクトを再度変形させるステップを、前記端末にさらに実行させる、請求項15のプログラム。
  17.  前記次のタッチ入力が入力されると、複数の前記弾性オブジェクトを変形させる、請求項16のプログラム。
  18.  複数の前記弾性オブジェクトは、変形される方向がそれぞれ異なる、請求項17のプログラム。
PCT/JP2016/050630 2015-01-14 2016-01-12 タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末 WO2016114247A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/542,971 US10099118B2 (en) 2015-01-14 2016-01-12 Interface for advancing game by touch input, and terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-004872 2015-01-14
JP2015004872A JP5815143B1 (ja) 2015-01-14 2015-01-14 タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末

Publications (1)

Publication Number Publication Date
WO2016114247A1 true WO2016114247A1 (ja) 2016-07-21

Family

ID=54595915

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/050630 WO2016114247A1 (ja) 2015-01-14 2016-01-12 タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末

Country Status (4)

Country Link
US (1) US10099118B2 (ja)
JP (1) JP5815143B1 (ja)
TW (1) TWI607789B (ja)
WO (1) WO2016114247A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6034945B1 (ja) * 2015-12-10 2016-11-30 株式会社コロプラ ゲームプログラム
CN110069147B (zh) * 2018-01-23 2023-02-03 可赛尔内存股份有限公司 操控装置及其控制方法
JP6621553B1 (ja) * 2019-01-31 2019-12-18 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
US11071906B2 (en) 2019-10-08 2021-07-27 Zynga Inc. Touchscreen game user interface
US11745101B2 (en) * 2021-09-11 2023-09-05 Sony Interactive Entertainment Inc. Touch magnitude identification as input to game

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009240620A (ja) * 2008-03-31 2009-10-22 Sega Corp オブジェクト表示制御方法、オブジェクト表示制御装置、記録媒体、及びプログラム
JP2011189011A (ja) * 2010-03-15 2011-09-29 Konami Digital Entertainment Co Ltd ゲームシステム、それに用いる制御方法及び、コンピュータプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4832826B2 (ja) * 2005-07-26 2011-12-07 任天堂株式会社 オブジェクト制御プログラムおよび情報処理装置
JP2013000386A (ja) 2011-06-17 2013-01-07 Square Enix Co Ltd 携帯型ゲーム装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009240620A (ja) * 2008-03-31 2009-10-22 Sega Corp オブジェクト表示制御方法、オブジェクト表示制御装置、記録媒体、及びプログラム
JP2011189011A (ja) * 2010-03-15 2011-09-29 Konami Digital Entertainment Co Ltd ゲームシステム、それに用いる制御方法及び、コンピュータプログラム

Also Published As

Publication number Publication date
TWI607789B (zh) 2017-12-11
JP5815143B1 (ja) 2015-11-17
TW201636081A (zh) 2016-10-16
US20180021672A1 (en) 2018-01-25
JP2016129591A (ja) 2016-07-21
US10099118B2 (en) 2018-10-16

Similar Documents

Publication Publication Date Title
JP6697120B2 (ja) ユーザインターフェースプログラムおよびゲームプログラム
WO2016114247A1 (ja) タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末
CN107656620B (zh) 虚拟对象控制方法、装置、电子设备及存储介质
JP2016197284A (ja) 電子機器、制御方法および制御プログラム
JP5676036B1 (ja) ユーザインターフェースプログラム及び当該プログラムを備えたゲームプログラム
WO2016208325A1 (ja) モーション表示プログラム
JP2016134052A (ja) インターフェースプログラム及びゲームプログラム
JP2016220847A (ja) メッセージ送信機能を備えたゲームプログラム、メッセージ送信方法及びメッセージ送信機能付きコンピュータ端末
JP2017023697A (ja) コンピュータプログラム及びタッチ操作によりゲームを進行するゲームプログラム
JP2017012619A (ja) タッチ操作によりゲームを進行するコンピュータプログラム
JP6073432B2 (ja) タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末
JP2017086941A (ja) タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末
JP5938501B1 (ja) コンピュータプログラム及びタッチ操作によりゲームを進行するゲームプログラム
JP2016137194A (ja) タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末
JP5968510B1 (ja) インタフェース・プログラム及びコンピュータ
JP2017055825A (ja) タッチ入力によりゲームを進行する方法、インタフェース・プログラム、及び端末
JP5941202B1 (ja) インタフェース・プログラム及びコンピュータ
JP2016179027A (ja) タッチ入力によりゲームを進行するインタフェース・プログラム、及び端末
JP5260694B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP6201004B1 (ja) ユーザインターフェースプログラム
JP5854495B2 (ja) ゲーム装置、及びゲームプログラム
JP2017038914A (ja) インタフェース・プログラム及びコンピュータ
JP2017012618A (ja) タッチ操作によりゲームを進行するコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16737318

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15542971

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16737318

Country of ref document: EP

Kind code of ref document: A1