WO2018088408A1 - 情報処理プログラム、情報処理方法、及び情報処理装置 - Google Patents

情報処理プログラム、情報処理方法、及び情報処理装置 Download PDF

Info

Publication number
WO2018088408A1
WO2018088408A1 PCT/JP2017/040156 JP2017040156W WO2018088408A1 WO 2018088408 A1 WO2018088408 A1 WO 2018088408A1 JP 2017040156 W JP2017040156 W JP 2017040156W WO 2018088408 A1 WO2018088408 A1 WO 2018088408A1
Authority
WO
WIPO (PCT)
Prior art keywords
instruction
state
skill
display medium
touch operation
Prior art date
Application number
PCT/JP2017/040156
Other languages
English (en)
French (fr)
Inventor
顕介 中原
Original Assignee
株式会社Cygames
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Cygames filed Critical 株式会社Cygames
Priority to KR1020197012947A priority Critical patent/KR102232032B1/ko
Priority to CN201780069195.7A priority patent/CN109982756B/zh
Publication of WO2018088408A1 publication Critical patent/WO2018088408A1/ja
Priority to US16/406,753 priority patent/US10990274B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to an information processing program, an information processing method, and an information processing apparatus.
  • the present invention has been made in view of such a situation, and realizes an operation with a higher degree of freedom for a game player.
  • a computer that executes control for displaying an image including a virtual space and a moving object movable in the virtual space on a display medium, A detection step of detecting a contact or proximity operation of one or more objects to the display medium; Based on both the management state of the number of the one or more objects that are in contact with or close to the display medium and the respective positions of the number of objects in the display medium, the moving object in the virtual space A determination step of determining whether to accept a first instruction that is an instruction related to movement or an instruction that is related to the moving object and includes at least a type selection and a direction designation; An accepting step of accepting the first instruction or the second instruction in accordance with a determination result of the determining step; Control process including In the detection step, as an operation accepted as the second instruction, among the one or more objects to the display medium, a contact or proximity of the object for the second instruction specified from the management state and the position is detected.
  • the accepting step accepts a selection of a predetermined type from one or more types according to the position of the object for the second instruction when the first state is detected, and from the second state to the third state
  • the designation of a predetermined direction is accepted in accordance with the moving direction of the object at the time of transition to the state, and execution of the second instruction in the predetermined direction for the predetermined type at a predetermined timing after the detection of the third state Including the step of accepting Execute information processing.
  • Each of the information processing method and the information processing apparatus corresponding to the information processing program of one aspect of the present invention is also provided as each of the information processing method and information processing apparatus of one aspect of the present invention.
  • FIG. 4 is a diagram illustrating an example of a result of a game execution process executed on the player terminal of FIG. 2, and an example different from FIG. 3.
  • FIG. 4 is a diagram illustrating an example of a result of a game execution process executed on the player terminal of FIG. 2, and an example different from FIG. 3.
  • FIG. 8 is a diagram illustrating an example of a result of a game execution process executed on the player terminal in FIG. 2, and an example different from FIGS. 3 and 7.
  • FIG. 8 is a diagram illustrating an example of a result of a game execution process executed on the player terminal in FIG. 2, and an example different from FIGS. 3 and 7.
  • the “moving image” includes an image displayed by each of the following first to third processes.
  • the first process refers to a process in which a series of still images composed of a plurality of images are continuously switched and displayed over time for each movement of an object (for example, a game character) in a planar image (2D image).
  • an object for example, a game character
  • 2D image planar image
  • two-dimensional animation so-called flip-flopping processing, corresponds to the first processing.
  • the second process refers to a process in which motions corresponding to respective actions of an object (for example, a game character) in a stereoscopic image (3D model image) are set and the motions are changed and displayed over time.
  • a three-dimensional animation corresponds to the second process.
  • the third process refers to a process in which videos (that is, moving images) corresponding to respective actions of an object (for example, a game character) are prepared and the video is played over time.
  • FIG. 1 is a block diagram showing a hardware configuration of a player terminal 1 according to an embodiment of the present invention.
  • the player terminal 1 is composed of a smartphone or the like.
  • the player terminal 1 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, a bus 24, an input / output interface 25, a touch operation input unit 26, a display Unit 27, input unit 28, storage unit 29, communication unit 30, and drive 31.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 21 executes various processes according to a program recorded in the ROM 22 or a program loaded from the storage unit 29 to the RAM 23.
  • the RAM 23 appropriately stores data necessary for the CPU 21 to execute various processes.
  • the CPU 21, ROM 22, and RAM 23 are connected to each other via a bus 24.
  • An input / output interface 25 is also connected to the bus 24.
  • a touch operation input unit 26, a display unit 27, an input unit 28, a storage unit 29, a communication unit 30, and a drive 31 are connected to the input / output interface 25.
  • the touch operation input unit 26 includes, for example, a capacitance type or resistance film type (pressure sensitive) position input sensor stacked on the display unit 27, and detects the coordinates of the position where the touch operation is performed.
  • the touch operation refers to an operation of touching or approaching an object with respect to the touch operation input unit 26.
  • the object that contacts or approaches the touch operation input unit 26 is, for example, a player's finger or a touch pen.
  • touch position the position where the touch operation is performed
  • touch coordinates of the touch position are referred to as “touch coordinates”.
  • a plurality of touch operations may be performed at the same time, for example, the next touch operation is performed before the first touch operation is completed.
  • the touch operation input unit 26 of the present embodiment can support multi-touch.
  • the display unit 27 includes a display such as a liquid crystal display, and displays various images such as an image related to a game.
  • the touch operation input unit 26 and the display unit 27 constitute a touch panel.
  • the display part 27 is not simply meant but the "touch panel” comprised from the touch operation input part 26 and the display part 27 is meant.
  • swipes and flicks exist as types of touch operations on the touch panel, for example.
  • both the swipe and the flick are changed from the first state in which contact or proximity of the object to the display medium is started to the second state in which contact or proximity to the display medium is maintained and the position of the object changes.
  • the point is a series of operations up to the third state in which the contact or proximity of the object to is released. Therefore, in this specification, such a series of operations will be collectively referred to as “swipe”.
  • the “swipe” in the present specification is a broad concept including the above-described flicks in addition to the commonly called swipe.
  • the input unit 28 is configured with various hardware buttons and the like, and inputs various information according to the player's instruction operation.
  • the storage unit 29 is configured by a DRAM (Dynamic Random Access Memory) or the like and stores various data.
  • the communication unit 30 controls communication performed with another device (a server (not shown) or another player terminal (not shown)) via a network including the Internet (not shown).
  • the drive 31 is provided as necessary.
  • a removable medium 32 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 31.
  • the program read from the removable medium 32 by the drive 31 is installed in the storage unit 29 as necessary.
  • the removable medium 32 can also store various data stored in the storage unit 29 in the same manner as the storage unit 29.
  • FIG. 2 is a functional block diagram showing an example of a functional configuration of the player terminal 1 of FIG.
  • a user interface control unit 51 As shown in FIG. 2, in the CPU 21 of the player terminal 1, a user interface control unit 51, a reception unit 52, and a display image generation unit 53 function. Although not shown, as a premise, a functional block (game execution unit) for executing the game according to the present embodiment functions in the CPU 21.
  • the user interface control unit 51 controls the user interface on the touch panel during game execution.
  • the user interface control unit 51 is provided with a touch operation management unit 61 and a display control unit 62.
  • the touch operation management unit 61 detects the presence or absence of a touch operation on the touch operation input unit 26 at predetermined time intervals, and detects the touch position (touch coordinates) when there is a touch operation.
  • the touch operation input unit 26 can handle a touch operation with a plurality of fingers or the like, that is, multi-touch. For this reason, when a plurality of touch operations are detected, the touch operation management unit 61 independently manages the contents of the detected plurality of touch operations. Specifically, for example, every time a touch operation is detected, the touch operation management unit 61 determines the type and assigns a management number. In this way, the touch operation management unit 61 manages the determined type and the assigned management number in association with each of the plurality of touch operations.
  • the touch position is sequentially detected at every “predetermined time interval”.
  • the plurality of touch positions detected in this way calculate the change direction and the change amount of the touch position for the one touch operation (one touch operation uniquely specified by the management number). Used to do. That is, the “predetermined time interval” for detecting the touch position is not particularly limited as long as these calculations are possible. However, in this embodiment, it is assumed that the touch position is detected every time a frame is displayed on the touch panel, and the “predetermined time interval” is a time interval between two frames that are displayed in succession. .
  • the change direction of the touch position includes the touch position in the latest frame (hereinafter referred to as “latest frame touch position”) and the touch position in the frame immediately before the latest frame (hereinafter, “ It is determined on the basis of the difference from the “previous frame touch position”.
  • the touch operation management unit 61 is provided with a state detection unit 71.
  • the state detection unit 71 functions when the touch operation detected by the touch operation management unit 61 is a swipe, and detects various swipe states (any one of the first to third states).
  • the display control unit 62 performs control to display an image including the content of the game being executed (hereinafter referred to as “game image”) on the display medium.
  • the accepting unit 52 accepts various touch operations detected by the touch operation managing unit 61 as in-game instructions.
  • the game handled in the present embodiment includes a virtual three-dimensional space (hereinafter simply referred to as “virtual space”) constructed in a predetermined global coordinate system, and an object (movable) in the virtual space. It is assumed that a game character that is an object) is included.
  • the player can give an instruction regarding the movement of the game character (hereinafter referred to as “movement instruction”) by performing a predetermined touch operation.
  • the player performs another predetermined touch operation (swipe in the present embodiment as will be described later) to select an arbitrary type of skill from among one or more types of skills, and as the direction of activation of the skill.
  • a predetermined direction in the virtual space can be designated and a series of instructions (hereinafter referred to as “skill-related instructions”) until the skill is activated can be given.
  • the skill refers to various actions expressed using objects corresponding to the game character and other objects, for example, attack with a sword, continuous attack with a sword, shooting with a bow and arrow, It refers to actions different from mere movement of the game character, such as continuous shooting, releasing a magic attack, continuously releasing a magic attack, holding a shield, hitting with a shield, and the like.
  • the CPU 21 controls the computer in cooperation with the game program to express a plurality of types of skills in the game, but controls the computer to perform different processes according to the skills to be expressed.
  • selecting a skill corresponds to selecting one of a plurality of types of control.
  • the reception unit 52 has a movement instruction reception unit 81 that receives a touch operation indicating a movement instruction of the game character, and a skill instruction that receives a touch operation (swipe) indicating a skill-related instruction of the game character.
  • a reception unit 82 is provided.
  • the skill instruction receiving unit 82 selects one or more types of skills according to the touch position when the touch operation is first detected (hereinafter referred to as “touch start point”), the order of the touch operations, and the like. Accept a certain type of selection from the inside.
  • touch start point a specific area
  • skill selection area for receiving the start of the skill-related instruction is defined for each of one or more types of skills.
  • the first skill selection area is associated with the first type of skill
  • the second skill selection area is associated with the second type of skill.
  • the first skill selection area includes the touch position when the first swipe state is detected, the first type is selected as the predetermined type of skill.
  • the second type is selected as the predetermined type of skill.
  • the skill instruction accepting unit 82 accepts designation of a predetermined direction according to the moving direction of the touch position when the swipe transitions from the second state to the third state.
  • the predetermined direction means the direction in which the skill is activated.
  • the skill instruction accepting unit 82 touches the frame displayed when the swipe is shifted to the third state (latest frame touch position) and the touch position of the immediately preceding frame (previous frame).
  • the direction of change in the touch position is calculated from the difference from the touch position), and the direction of the change in the touch position is set as a predetermined direction, and an instruction in the predetermined direction is received.
  • the skill instruction accepting unit 82 accepts an instruction to activate the skill in the predetermined direction received for the predetermined type previously received at a predetermined timing after the detection of the third state of the swipe.
  • the display image generation unit 53 generates game image data including a game image to be displayed on the display unit 27 of the player terminal 1, for example, a virtual space and a game character movable in the virtual space in the present embodiment.
  • a software button hereinafter referred to as a “movement button” for operating a game character movement instruction and a game character skill-related instruction operation (swipe) are performed on the game image.
  • Software buttons hereinafter referred to as “skill buttons”).
  • a skill button is provided for each type of skill, and the initial position until the operation (swipe) of the skill-related instruction of the game character is performed with the initial position within the skill selection area associated with each type. It is arranged to stick to a certain extent.
  • the skill button is not necessarily displayed from the beginning, and may be displayed when the first swipe state is detected. .
  • the skill button indicating the type of the selected skill is arranged at the touch position in the second swipe state. That is, in the second state of swipe, the touch position moves, so the skill button also moves in conjunction with the touch position. These points are the same even for the movement buttons.
  • the skill button (hereinafter referred to as “previous position”
  • the button is called “button” and is not erased but remains thin on the game image. That is, as described above, in the game image when the swipe state transitions from the second state to the third state, the direction from the previous position button to the skill button is the skill activation direction (predetermined direction). It is received by the instruction receiving unit 82.
  • FIG. 3 is a diagram illustrating an example of a result of game processing executed on the player terminal 1.
  • moving objects having various three-dimensional shapes are used in the game, but each moving object has its own local coordinate system, and the coordinates of each local coordinate system are the coordinates of the global coordinate system. Converted into a virtual space.
  • a character C1 representing a game character to be operated by the player and a character C2 representing a game character to be attacked are arranged in a virtual space.
  • the movement of the character C1 means that the coordinates of the character C1 in the global coordinate system (that is, in the virtual space) change.
  • the touch operation management unit 61 in this embodiment determines at least three types of operation types a, operation types b, and operation types c as types of touch operations (hereinafter referred to as “operation types” as appropriate).
  • the operation type a touch operation is a type indicating a touch operation related to a movement instruction of the character C1.
  • the touch operation of the operation type b is a skill of the character C1 having a touch start point in an area other than the skill selection area (for example, an area other than the above-described skill button display area, hereinafter referred to as a “free processing area”).
  • This type indicates a touch operation related to a related instruction.
  • the touch operation of the operation type c is a type indicating a touch operation related to the skill-related instruction of the character C1 with the touch start point in the skill selection area (for example, the area where the above-described skill button is displayed). That is, when one touch operation is detected, the touch operation management unit 61 first determines which of the operation types a to c is the touch operation type. The touch operation for which the operation type has been determined is managed together with the management number assigned by the touch operation management unit 61 until the touch operation is completed. In this embodiment, in order to distinguish a movement instruction to the character C1 from another type of instruction, an instruction for an action (control different from movement control) different from the movement of the character C1 is given for convenience. Comprehensive definition with skill-related instructions.
  • the touch operations of the operation type b and the operation type c are both touch operations corresponding to skill-related instructions, different types of skills are associated with each other. That is, the process controlled by the operation type b and the process controlled by the operation type c can be said to be the same type of process in that they are not movement processes, but the process contents themselves are different processes of different types. .
  • a movement button MP is adopted as a virtual controller for inputting a movement instruction for the character C1.
  • One or more amounts related to the moving direction of the character C1 change according to a predetermined touch operation of the player with respect to the moving button MP.
  • the type of the amount to be changed is not particularly limited as long as it relates to movement, but in this embodiment, the change in the global coordinate system of the character C1 in the virtual space, that is, the movement amount and the movement direction of the character C1. , And moving speed are assumed.
  • the method of a predetermined instruction from the player with respect to the movement button MP is not particularly limited as long as it is a touch operation, but swipe is adopted in this embodiment.
  • the skill button AP, skill button BP, and skill button HP shown in FIGS. 3A to 3D are for inputting different skill-related instructions for each of the three skills of the character C1. It is a virtual controller. Note that the immediately preceding position button TP is lightly displayed at the immediately preceding touch position of the movement button MP, the skill button AP, the skill button BP, and the skill button HP that is to be swiped.
  • FIG. 3A shows a situation in which the character C1 in the game moves.
  • a skill button AP As a user interface displayed to the player, a skill button AP, a skill button BP, and a skill button HP are arranged in the game image.
  • the free processing area is an area other than the skill selection area.
  • the skill selection area is an area where an operation element displayed on the game screen for skill activation is displayed.
  • the skill button AP the skill button BP
  • skill button HP the area where each of these is displayed.
  • the touch operation management unit 61 determines whether or not the touch operation type is the operation type c based on the touch start point of the touch operation.
  • the touch operation management unit 61 determines whether the touch operation indicates a movement instruction or a skill-related instruction based on the order and timing of the touch operations performed by the player.
  • the touch operation management unit 61 confirms whether or not there is a touch operation that has already been managed (another touch operation assigned with a management number) when the touch operation by the player is detected.
  • the touch operation management unit 61 confirms that no other touch operation is managed, the touch operation management unit 61 starts the management with the detected touch operation as the management number 1.
  • the touch operation on the free process area managed as the management number 1 in this way is the touch operation of the operation type a.
  • the movement instruction receiving unit 81 receives a touch operation of operation type a as a movement instruction. Note that the processing in the case where a touch operation that has already been managed when touch operation is detected by the touch operation management unit 61 will be described later. In this example, the movement button MP is displayed at the touch position.
  • the player can perform an operation of moving freely with the finger H while the movement button MP is in contact (that is, a movement instruction in the second state of swipe).
  • a movement instruction in the second state of swipe As described above, since the touch position is detected at each predetermined time interval, the movement button MP is displayed at the detection position of the touch position. Therefore, if the touch position changes sequentially, the player visually recognizes that the movement button MP moves along the changing touch position.
  • This change in touch position is also given as an instruction of the moving direction for the character C1, and the character C1 moves according to the instruction. That is, the movement of the movement button MP that moves in accordance with the change in the touch position of the finger H in the second swipe state is linked to the movement of the character C1.
  • the direction of the character C1 can be instructed at the same time.
  • the direction of the character C1 is a direction in which the front side of the 3D object forming the character C1 is considered to be the front, but in this embodiment, the direction of the character C1 is controlled. Is performed by rotation control around the center of the 3D object forming the character C1.
  • the direction of the character C1 is also linked to the direction in which the skill is activated.
  • the skill-related instruction When a skill-related instruction is given together with or independently of the movement instruction, the skill-related instruction is prioritized, and the direction of the character C1 varies based on the swipe corresponding to the skill-related instruction.
  • the movement instruction receiving unit 81 receives the movement instruction of the character C1
  • the direction of the character C1 is controlled based on the content of the swipe corresponding to the movement instruction.
  • the skill-related instruction is accepted by 82, the direction of the character C1 is controlled based on the content of the swipe corresponding to the skill-related instruction.
  • FIG. 3B shows a situation where the character C1 in the game activates the skill.
  • the operation of FIG. 3A is continuously performed as a premise, and the touch operation management unit 61 performs the touch operation of the management number 1 (to the character C1 of the operation type a). It is assumed that a touch operation indicating a movement instruction is managed.
  • the touch operation management unit 61 determines whether the type of the touch operation is the operation type c based on the touch start point of the touch operation. In the example of FIG. 3B, since the touch start point is in the free processing area, the touch operation is not a touch operation of the operation type c. Therefore, it is confirmed whether or not there is a touch operation that is already managed at the time when the touch operation by the player is detected.
  • the touch operation management unit 61 starts the management with the detected touch operation as the management number 2.
  • the touch operation on the free processing area managed as the management number 2 is the touch operation of the operation type b.
  • the touch operation in FIG. 3B is received as a skill-related instruction by the skill instruction receiving unit 82.
  • the skill instruction receiving unit 82 receives the touch operation of the operation type b as a skill related instruction. Note that when the touch operation being managed is related to a skill-related instruction, since the acceptance of the skill-related instruction is deactivated, the skill instruction receiving unit 82 does not receive the skill-related instruction.
  • “deactivation” means temporarily disabling a skill-related instruction among instructions related to a touch operation only while the skill is activated.
  • a skill button AMP for activating the skill A is displayed.
  • the player operates the skill button AMP to give a skill-related instruction for skill A. That is, when the player touches the finger H within the skill selection area of skill A (excluding the position where the skill button AP is arranged), the swipe state shifts to the first state, and the skill button is moved to the contact position of the finger H. AMP is displayed, and skill A is selected as the skill to be activated. The player moves the skill button AMP while keeping the finger H in contact. As a result, the second state of swipe is entered.
  • FIG. 3B when the player starts the touch operation, a skill button AMP for activating the skill A is displayed.
  • the player operates the skill button AMP to give a skill-related instruction for skill A. That is, when the player touches the finger H within the skill selection area of skill A (excluding the position where the skill button AP is arranged), the swipe state shifts to the first state, and the skill button is moved to the contact position of the finger H. AMP is displayed,
  • the player moves the skill button AMP in a predetermined direction while maintaining the contact state of the finger H, and releases the finger H from the touch panel at a predetermined position. That is, the swipe state shifts from the second state to the third state. From the touch position of the finger H immediately before this transition time (the previous frame touch position, the position of the previous position button TP), the touch position of the finger H at this transition time (the latest frame touch position, the position of the skill button AMP) ) Is set as the skill activation direction. As a result, the character C1 activates the skill A toward the character C2 existing in the activation direction.
  • the skill-related instruction of the character C1 is given based on the swipe instruction in the right direction. Based on the direction of the right swipe, the “direction” of the character C1 can be controlled at the same time.
  • the direction of the character C1 is also linked to the direction in which the skill is activated. Therefore, when a skill-related instruction is given together with or independently of the movement instruction, the skill-related instruction takes precedence.
  • the direction of C1 varies. Accordingly, the player can easily determine in which direction the skill is activated regardless of the direction in which the character C1 moves in the global coordinate system.
  • FIG. 3C shows an example in which the character C1 in the game activates the same type of skill as FIG. 3B, but performs a different operation.
  • the player wants to activate the skill A to the character C1 in the game and performs a touch operation in the skill activation area (for example, the skill button AP in FIG. 3) of any skill, that is, the above operation type A case where the touch operation c is performed will be described.
  • the touch operation management unit 61 when the touch operation management unit 61 first detects a touch operation by the player, the touch operation management unit 61 determines whether or not the touch operation type is the operation type c based on the touch start point of the touch operation.
  • the touch operation management unit 61 determines whether or not the touch operation type is the operation type c based on the touch start point of the touch operation. In the example of FIG.
  • the touch operation management unit 61 confirms whether or not there is a touch operation that has already been managed when the touch operation by the player is detected. If the touch operation that has already been managed does not relate to the skill-related instruction, the touch operation management unit 61 manages the detected touch operation as having the management number 1 or 2.
  • the skill instruction receiving unit 82 receives the touch operation as a skill related instruction.
  • the skill instruction receiving unit 82 does not accept the touch operation as a skill-related instruction.
  • the player operates the skill button AP in order to give a skill-related instruction of skill A to the character C1. That is, the player touches the skill button AP sticked to the initial position with the finger H (touches the skill button AP). Thereby, it transfers to the 1st state of a swipe and the skill A is selected as a skill of activation object. The player moves the skill button AP while keeping the finger H in contact. As a result, the second state of swipe is entered.
  • the player moves the skill button AP while maintaining the contact state of the finger H, and releases the finger H from the touch panel at a predetermined position. That is, the swipe state shifts from the second state to the third state. From the touch position of the finger H immediately before this transition time (the previous frame touch position, not shown in FIG. 3C, but the position of the previous position button TP), the touch position of the finger H at this transition time (latest frame) The direction toward the touch position and the position of the skill button AMP) is set as the skill activation direction. As a result, the character C1 activates the skill A toward the character C2 existing in the activation direction.
  • the fluorescent region around the skill button HP indicates the time until the special technique is activated. If the fluorescent region increases with time and the entire area around the skill button HP becomes a fluorescent region, it means that a special technique can be activated at any time.
  • FIG. 3 (d) shows that the character C1 can activate the special move at any time.
  • the cool time can be set after the skill or the special technique is activated, and the player can be notified of the period (time) until the skill is activated as appropriate.
  • the means for notifying the player of the time until the skill can be activated may be any method and is not limited.
  • FIG. 4 is a flowchart for explaining an example of the flow of the game execution process.
  • step S1 the display control unit 62 of the user interface control unit 51 causes the display unit 27 to display a game image.
  • step S2 the touch operation management unit 61 determines whether a touch operation of the operation type a or the operation type c is detected. If touch operations of both operation type a and operation type c are not detected, it is determined as NO in step S2, the process is returned to S2, and the determination process of step S2 is repeated. If the touch operation of operation type a or operation type c is detected while the determination process of step S2 is repeated, it is determined as YES in the next step S2, and the process proceeds to step S3.
  • step S3 the touch operation management unit 61 determines whether or not the type of touch operation detected in step S2 is the operation type a. If it is a touch operation of the operation type c, it is determined as NO in Step S3, and the process proceeds to Step S8. The processing after step S8 will be described later. On the other hand, if the touch operation is operation type a, it is determined as YES in step S3, and the process proceeds to step S4.
  • step S4 the movement instruction receiving unit 81 receives the touch operation detected in step S2 as a movement instruction, and starts the movement process. Details of the movement process will be described later with reference to FIG.
  • step S5 the touch operation management unit 61 determines whether or not the newly detected touch operation type is the operation type b. If the newly detected touch operation type is operation type b, it is determined as YES in step S5, and the process proceeds to step S6.
  • step S6 the skill instruction accepting unit 82 accepts the touch operation newly detected in step S5 as a skill-related instruction, newly displays a skill button, etc., and activates the skill for the free processing area. , Start the skill activation process. Details of the skill activation process will be described later with reference to FIG.
  • step S7 the skill instruction accepting unit 82 accepts the touch operation newly detected in step S5 as a skill-related instruction, and activates a skill for a skill selection area (a different type of skill from step S6). Start the activation process. Details of the skill activation process will be described later with reference to FIG. Thus, when the process of step S6 or S7 is completed, the process returns to step S2, and the subsequent processes are repeated.
  • step S8 the skill instruction accepting unit 82 accepts the touch operation detected in step S2 as a skill-related instruction, and starts skill activation processing to activate the skill selection skill. Details of the skill activation process will be described later with reference to FIG.
  • step S9 the touch operation management unit 61 determines whether or not the newly detected touch operation type is the operation type a. If it is a touch operation of operation type a, it is determined as YES in step S9, and the process proceeds to step S10.
  • step S10 the movement instruction receiving unit 81 receives the touch operation newly detected in step S9 as a movement instruction, and starts the movement process. Details of the movement process will be described later with reference to FIG.
  • step S11 the skill instruction accepting unit 82 does not accept the skill related instruction related to the touch operation newly detected in step S9 because the acceptance of the skill related instruction is deactivated. Thus, when the process of step S10 or S11 is completed, the process returns to step S2, and the subsequent processes are repeated.
  • FIG. 5 is a flowchart for explaining an example of the flow of movement processing.
  • the movement instruction receiving unit 81 determines whether or not a movement instruction by the game execution process of FIG. 4 has been received. If the movement instruction receiving unit 81 has not received the movement instruction, it is determined as NO in Step S21, and the process returns to S21. On the other hand, when the movement instruction reception part 81 has received the movement instruction, it determines with YES in step S21, and a process progresses to step S22.
  • step S ⁇ b> 22 the movement instruction receiving unit 81 determines whether or not the touch position of the touch operation indicating the movement instruction has changed based on the detection result of the state detection unit 71. If the change of the touch position is not detected by the state detection unit 71, it is determined as NO in Step S22, and the process returns to Step S21. On the other hand, if the change of the touch position is detected by the state detection unit 71, it is determined as YES in Step S22, and the process proceeds to Step S23.
  • step S23 the display image generation unit 53 generates game image data such that the game character in the game moves in accordance with the change in the touch position, and the display control unit 62 displays the game image on the display unit 27. Display.
  • FIG. 6 is a flowchart for explaining an example of the flow of skill activation processing.
  • the skill instruction receiving unit 82 determines whether or not a skill-related instruction by the game execution process of FIG. 4 has been received. If the skill instruction receiving unit 82 has not received a skill-related instruction, it is determined as NO in step S41, and the process returns to S41. On the other hand, if the skill instruction accepting unit 82 accepts the movement instruction, it is determined as YES in Step S41, and the process proceeds to Step S42.
  • step S ⁇ b> 42 the skill instruction receiving unit 82 determines whether or not the skill instruction touch position has changed based on the detection result of the state detection unit 71. If the change of the touch position is not detected by the state detection unit 71, it is determined as NO in Step S42, and the process returns to Step S41. On the other hand, if the change of the touch position is detected by the state detection unit 71, it is determined as YES in Step S22, and the process proceeds to Step S43.
  • step S43 the skill instruction accepting unit 82 accepts designation of a predetermined direction according to the moving direction of the touch position when the touch operation is released, and activates the skill in the predetermined direction.
  • the method of movement instruction and skill-related instruction is not particularly limited to the above-described embodiment. Accordingly, some other embodiments in which a method different from the above-described embodiment is adopted will be described below with reference to FIGS. 7 to 9.
  • FIG. 7 is a diagram showing an example of the result of the game execution process executed on the player terminal 1 of FIG. 2 and an example different from FIG.
  • the character GC as the game character in the game is in a standby state.
  • the area on the left half of the display surface of the touch panel is defined as the free processing area, and the area on the right half (excluding the areas where the skill button SA1 and skill button SA2 are arranged in advance) is the skill. It is defined as a skill selection area of A or skill A2.
  • the type of the touch operation is determined based on the position and order in which the touch operation is detected, whereas in the example of FIG. 4, only the position where the touch operation is detected is determined.
  • the type of touch operation is determined based on this.
  • the touch operation management unit 61 detects a touch operation by the player, the touch operation management unit 61 determines from the information on the position at which the touch operation is detected what kind of property the touch operation is (for example, a touch operation related to movement or a skill related to skill). The touch operation is determined), and management of each of these touch operations is performed. From this state, when the player's finger or the like touches the touch panel, the swipe state shifts to the first state.
  • the detected touch operation is a movement instruction operation
  • the swipe is accepted as a movement instruction.
  • the swipe is accepted as a skill-related instruction.
  • FIGS. 8 and 9 are diagrams showing an example of the result of the game execution process executed on the player terminal 1 in FIG. 2 and showing an example different from those in FIGS. 3 and 7.
  • an operation element MB for receiving a movement instruction hereinafter referred to as “movement button MB” is displayed at a predetermined reference position regardless of the presence or absence of a touch operation from the player.
  • the touch operation management unit 61 determines that the touch operation is a touch operation for a movement instruction, and the movement instruction reception unit 81 receives the touch operation as a movement instruction.
  • the player can freely give a movement instruction to the character GC by continuously swiping the touch (touch) state of the movement button MB. In other words, the player can freely give a movement instruction to the character GC in the virtual space by linking the movement of the movement button MB whose position changes according to the change direction of the player's touch position and the character GC. It can be done.
  • the player who wants to give an instruction to activate skill A2 touches skill button SA2 arranged at initial position IP in FIG.
  • the first state is detected as the swipe state.
  • the skill button SA2 is a skill button for giving a skill-related instruction of the skill A2, and its initial position IP is in the skill selection area of the skill A2. Therefore, in this case, a skill-related instruction for skill A2 is accepted. Then, as in the case described above, acceptance of skill-related instructions is deactivated.
  • the player moves the skill button SA2 while maintaining finger contact.
  • the second state of swipe is entered.
  • the player moves the skill button SA2 while maintaining the contact state of the finger, and releases the finger from the touch panel at a predetermined position NT. That is, the swipe state shifts from the second state to the third state.
  • the finger touch position (the latest frame touch position, the position NT of the skill button SA2) at this transition time ) Is set as the activation direction of skill A2.
  • the character GC activates the skill A2 in the activation direction.
  • a touch operation on the movement selection area is defined as an operation indicating a movement instruction
  • a touch operation on the skill selection area is defined as an operation indicating a skill-related instruction.
  • the operation instruction defined by the touch operation on each area is not necessarily limited to the movement instruction or the skill related instruction.
  • the area to be defined is not limited to the movement selection area and the skill selection area, and can be classified into a plurality of areas of three or more to correspond to the operation instructions.
  • the game image may be classified into three operation areas, upper, middle, and lower, and three different instructions may be associated with these three areas to provide a condition for the player to give an operation instruction.
  • the movement button (for example, the movement button MP in FIG. 3A) is displayed on the user interface only after the player's touch operation is detected. It may be displayed on the user interface from the beginning regardless of whether or not the player performs a touch operation. In this case, only the area where the movement button is displayed (sticked) may be the movement selection area, and all other areas may be the skill selection area. Further, in the above-described embodiment, the skill button is arranged to stick to the initial position to a certain extent. However, the present invention is not particularly limited to this. For example, the skill button is displayed only after the player's touch operation is detected. Also good.
  • the player changes each swipe state (specifically, the state from the third swipe state to the skill activation instruction) by releasing the finger (or touch pen, etc.).
  • each swipe state specifically, the state from the third swipe state to the skill activation instruction
  • the condition for transitioning between swipe states is not limited to this.
  • each state may be changed when there is no update of the touch operation for a certain time (timeout) or when there is some situation change in the game.
  • the direction of the movement instruction and the direction of the skill-related instruction are instructed at the same timing is not mentioned.
  • the direction of the game character is given priority over the direction of the skill-related instruction. It is good also as controlling. This allows the user to clearly determine in which direction the skill will be activated.
  • the skill-related instruction when a touch operation indicating a skill-related instruction is duplicated, the skill-related instruction is deactivated and the skill-related instruction is not accepted.
  • Touch operation processing may be accepted as a skill-related instruction, or not only a skill-related instruction but also a movement instruction may be deactivated.
  • the touch operation management unit 61 manages the order of each touch operation and the like when the above-described multi-tap is performed by the player.
  • the management state of the number of the objects that are in contact with or close to the display medium means the management state of the touch operation managed by the touch operation management unit 61.
  • the touch operation management unit 61 determines whether to accept a movement instruction to the game character or a skill-related instruction based on such a management state and a position where the touch operation is performed.
  • the method for determining the instruction to be accepted is not limited to the method described above. For example, it can be freely changed as in the embodiment shown in FIGS.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the information processing system has a function capable of executing the above-described series of processes as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG. Further, the location of the functional block is not particularly limited to that shown in FIG. In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.
  • a program constituting the software is installed on a computer or the like from a network or a recording medium.
  • the computer may be a computer incorporated in dedicated hardware.
  • the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or personal computer other than a server.
  • the recording medium including such a program is not only constituted by a removable medium (not shown) distributed separately from the apparatus main body in order to provide the program to the player, but is also provided to the player in a state of being preinstalled in the apparatus main body. It is composed of a provided recording medium or the like.
  • the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually.
  • the process to be executed is also included.
  • the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.
  • an information processing program to which the present invention is applied can take various embodiments having the following configurations, including the information processing system as the embodiment of FIG. 2 described above. That is, an information processing program to which the present invention is applied is A computer that executes control for displaying an image including a virtual space and a moving object movable in the virtual space on a display medium, A detection step (for example, step S2 in FIG.
  • a determination step of determining whether to accept a first instruction that is an instruction relating to movement or an instruction relating to the moving object that includes at least a type selection and a direction designation for example, step S21 in FIG. 5.
  • a reception step for example, step S22 in FIG. 5 and step S42 in FIG.
  • Control process including In the detection step, as an operation accepted as the second instruction, among the one or more objects to the display medium, a contact or proximity of the object for the second instruction specified from the management state and the position is detected.
  • the third state in which the form of contact or proximity of the object to the display medium changes from the started first state through the second state in which the object moves while maintaining contact or proximity to the display medium.
  • the accepting step accepts a selection of a predetermined type from one or more types according to the position of the object for the second instruction when the first state is detected, and from the second state to the third state
  • the designation of a predetermined direction is accepted in accordance with the moving direction of the object at the time of transition to the state, and execution of the second instruction in the predetermined direction for the predetermined type at a predetermined timing after the detection of the third state Any information processing program that includes the step of accepting the instruction to execute information processing is sufficient.
  • the accepting step can deactivate accepting the selection of the type during the second state. Accordingly, for example, acceptance of a new skill-related instruction during the skill activation is deactivated, so that a duplicate instruction is not given for the skill activation.
  • the information processing program displays a first operator that performs the first instruction on the display medium, and executes a control for displaying the second operator that performs the second instruction on the display medium. Can further be included.
  • the player can easily and easily give instructions to the game character.
  • the display control step displays the second operator at a current first position of the object and a second position at a predetermined timing before the second state during the second state.
  • the accepting step recognizes the direction from the second position to the first position when shifting from the second state to the third state as the predetermined direction, and the recognized predetermined direction.
  • the step of accepting the designation can be included. Thereby, the player can give various operation instructions with a single swipe operation, such as the game character activating the skill in a predetermined direction while moving.
  • the information processing program to which the present invention is applied can take various embodiments having the following configuration, including the information processing system as the embodiment of FIG. 2 described above. That is, an information processing apparatus to which the present invention is applied An information processing apparatus that executes control for displaying an image including a virtual space and a moving object movable in the virtual space on a display medium, Detection means (for example, touch operation management unit 61 in FIG.
  • the moving object in the virtual space Determining means for determining whether to accept a first instruction that is an instruction relating to movement or an instruction relating to the moving object that includes at least a type selection and a direction designation (for example, a touch operation in FIG. 2) Manager 61), According to the determination result of the determination means, receiving means for receiving the first instruction or the second instruction (for example, the movement instruction receiving part 81 and the skill instruction receiving part 82 in FIG.
  • the detection means may include a contact or proximity of an object for the second instruction identified from the management state and the position among the one or more objects to the display medium.
  • the third state in which the form of contact or proximity of the object to the display medium changes from the started first state through the second state in which the object moves while maintaining contact or proximity to the display medium.
  • Means for detecting a series of operations up to for example, the state detection unit 71 of FIG.
  • the accepting means accepts a selection of a predetermined type from one or more types according to the position of the object for the second instruction when the first state is detected, and from the second state to the third state
  • the designation of a predetermined direction is accepted in accordance with the moving direction of the object at the time of transition to the state, and execution of the second instruction in the predetermined direction for the predetermined type at a predetermined timing after the detection of the third state Having means (for example, a movement instruction receiving unit 81 and a skill instruction receiving unit 82 in FIG. 2), An information processing device is sufficient.

Abstract

ゲームのプレイヤーに対して、より自由度の高い操作を実現する技術を提供する。 タッチ操作管理部61は、所定の時間間隔毎に、タッチ操作入力部26におけるタッチ操作の有無を検出し、タッチ操作を管理する。状態検出部71は、プレイヤーが行うスワイプ操作の各種状態を検出する。移動指示受付部81は、タッチ操作管理部61で管理された各種タッチ操作のうち、移動指示を受け付ける。スキル指示受付部82は、タッチ操作管理部61で検出した各種タッチ操作のうち、スキル関連指示を受け付ける。またスキル指示受付部82は、スワイプの第2状態から第3状態に移行する際のタッチ位置の移動方向に応じて、所定方向の指定を受付ける。表示画像生成部53は、各種操作子を表示するための表示画像の生成を行う。表示制御部62は、各種ゲームの表示画像を表示部27に表示するための制御を行う。

Description

情報処理プログラム、情報処理方法、及び情報処理装置
 本発明は、情報処理プログラム、情報処理方法、及び情報処理装置に関する。
 近年、スマートフォン等の携帯端末で実行されるゲームのうち、携帯端末に表示される画像は、ゲームの人気を左右する重要な要因の1つである。
 そのため、プレイヤーに提示されるGUI(Grafical User Interface)の操作性を向上させるための技術としては、様々な試みがなされてきた。
 そのための技術の1つとして、タッチパネルの操作時に、あたかも弾性体として挙動するオブジェクトを表示し、プレイヤーが弾性を有するスマートフォンを操作しているかのようなユーザインターフェイスを提供する技術(例えば、特許文献1参照)等が存在する。
 上述の技術では、タッチ操作中にタッチパネルから指を離すことなく、複数の動作指示(例えば、ゲームキャラクタの移動とスキルの発動等)を実行することが出来る。
特開2016-48571号公報
 しかしながら、上述の技術では、タッチ操作中にタッチパネルから指を離すことなく、複数の動作指示を実行することができるに過ぎず、その複数の動作指示が独立して実行されるものではなかった。
 具体的に換言すれば、上述の技術を含む従来の技術は、複数の動作を同時に実行するような指示(例えば、「移動中に剣から弓に持ち替えて、斜め45度に向けてスキルを打ち出す」というような複合的な動作)を実行することは困難であった。
 特に、アクションゲーム等の分野では、リアルタイムでゲームが進行することも珍しくなく、ゲームのプレイヤーからは、スマートフォン等においても短時間で実行可能なシンプルな操作のみで、より自由度の高い操作が可能となるユーザインターフェイス開発が望まれていた。
 本発明は、このような状況に鑑みてなされたものであり、ゲームのプレイヤーに対して、より自由度の高い操作を実現するものである。
 上記目的を達成するため、本発明の一態様の情報処理プログラムは、
 仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行するコンピュータに、
 前記表示媒体への1以上の物体の接触又は近接の操作を検出する検出ステップと、
 前記表示媒体へ接触又は近接している前記1以上の物体の個数の管理状態と当該個数分の物体の前記表示媒体における夫々の位置との双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定ステップと、
 前記判定ステップの判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付ステップと、
 を含む制御処理を実行させ、
 前記検出ステップは、前記第2指示として受付けられる操作として、前記表示媒体への前記1以上の物体のうち、前記管理状態及び前記位置から特定される当該第2指示用の物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて当該物体が移動する第2状態を経て、前記表示媒体への当該物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出するステップを含み、
 前記受付ステップは、前記第1状態が検出された際の前記第2指示用の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の当該物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付けるステップを含む、
 情報処理を実行させる。
 本発明の一態様の上記情報処理プログラムに対応する情報処理方法及び情報処理装置の夫々も、本発明の一態様の情報処理方法及び情報処理装置の夫々として提供される。
 本発明によれば、ゲームのプレイヤーに対して、より自由度の高い操作を実現する技術を提供することが出来る。
本発明の一実施形態に係るプレイヤー端末のハードウェア構成の一例を示すブロック図である。 図1のプレイヤー端末の機能的構成の一例を示す機能ブロック図である。 図2のプレイヤー端末で実行されるゲーム実行処理の結果の一例を示す図である。 図2のプレイヤー端末で実行されるゲーム実行処理の流れを示すフローチャートである。 図2のプレイヤー端末で実行される移動処理の流れを示すフローチャートである。 図2のプレイヤー端末で実行されるスキル発動処理の流れを示すフローチャートである。 図2のプレイヤー端末で実行されるゲーム実行処理の結果の一例であって、図3とは異なる例を示す図である。 図2のプレイヤー端末で実行されるゲーム実行処理の結果の一例であって、図3や図7とは異なる例を示す図である。 図2のプレイヤー端末で実行されるゲーム実行処理の結果の一例であって、図3や図7とは異なる例を示す図である。
 以下、本発明の実施形態について、図面を用いて説明する。
 なお、以下において、単に「画像」と呼ぶ場合には、「動画像」と「静止画像」との両方を含むものとする。
 また、「動画像」には、次の第1処理乃至第3処理の夫々により表示される画像を含むものとする。
 第1処理とは、平面画像(2D画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対して、複数枚からなる一連の静止画像を時間経過とともに連続的に切り替えて表示させる処理をいう。具体的には例えば、2次元アニメーション、いわゆるパラパラ漫画的な処理が第1処理に該当する。
 第2処理とは、立体画像(3Dモデルの画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対応するモーションを設定しておき、時間経過とともに当該モーションを変化させて表示させる処理をいう。具体的には例えば、3次元アニメーションが第2処理に該当する。
 第3処理とは、オブジェクト(例えばゲームキャラクタ)の夫々の動作に対応した映像(即ち動画)を準備しておき、時間経過とともに当該映像を流していく処理をいう。
 図1は、本発明の一実施形態に係るプレイヤー端末1のハードウェア構成を示すブロック図である。
 プレイヤー端末1は、スマートフォン等で構成される。
 プレイヤー端末1は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、バス24と、入出力インターフェース25と、タッチ操作入力部26と、表示部27と、入力部28と、記憶部29と、通信部30と、ドライブ31と、を備えている。
 CPU21は、ROM22に記録されているプログラム、又は、記憶部29からRAM23にロードされたプログラムに従って各種の処理を実行する。
 RAM23には、CPU21が各種の処理を実行する上において必要なデータ等も適宜記憶される。
 CPU21、ROM22及びRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インターフェィス25も接続されている。入出力インターフェィス25には、タッチ操作入力部26、表示部27、入力部28、記憶部29、通信部30及びドライブ31が接続されている。
 タッチ操作入力部26は、例えば表示部27に積層される静電容量式又は抵抗膜式(感圧式)の位置入力センサにより構成され、タッチ操作がなされた位置の座標を検出する。
 ここで、タッチ操作とは、タッチ操作入力部26に対する物体の接触又は近接の操作をいう。タッチ操作入力部26に対して接触又は近接する物体は、例えばプレイヤーの指やタッチペン等である。なお、以下、タッチ操作がなされた位置を「タッチ位置」と呼び、タッチ位置の座標を「タッチ座標」と呼ぶ。
 また、初めのタッチ操作が終了しないうちに、次のタッチ操作がなされるなど、複数のタッチ操作が同時になされる場合もある。このような、同時になされた複数のタッチ操作を「マルチタッチ」と呼ぶ。本実施形態のタッチ操作入力部26は、マルチタッチに対応可能となっている。
 表示部27は、液晶等のディスプレイにより構成され、ゲームに関する画像等、各種画像を表示する。
 このように、本実施形態では、タッチ操作入力部26と表示部27とにより、タッチパネルが構成されている。
 なお、本明細書で「表示媒体」と呼ぶ場合、単に表示部27を意味せず、タッチ操作入力部26と表示部27とから構成される「タッチパネル」を意味する。
 ここで、タッチパネルにおけるタッチ操作の種類としては、例えば、スワイプとフリックが存在する。
 ただし、スワイプもフリックも、表示媒体への物体の接触又は近接が開始された第1状態から、表示媒体への接触又は近接が維持されて物体の位置が変化する第2状態を経て、表示媒体への物体の接触又は近接が解除される第3状態まで至る一連の操作である点は変わらない。そこで、本明細書では、このような一連の操作をまとめて「スワイプ」と呼ぶことにする。
 換言すると、本明細書でいう「スワイプ」は、一般的に呼ばれるスワイプの他、上述のフリック等も含まれる広義な概念である。
 入力部28は、各種ハードウェア釦等で構成され、プレイヤーの指示操作に応じて各種情報を入力する。
 記憶部29は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
 通信部30は、図示せぬインターネットを含むネットワークを介して他の装置(図示せぬサーバや図示せぬ他のプレイヤー端末)との間で行う通信を制御する。
 ドライブ31は、必要に応じて設けられる。ドライブ31には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア32が適宜装着される。ドライブ31によってリムーバブルメディア32から読み出されたプログラムは、必要に応じて記憶部29にインストールされる。また、リムーバブルメディア32は、記憶部29に記憶されている各種データも、記憶部29と同様に記憶することができる。
 このような図1のプレイヤー端末1の各種ハードウェアと各種ソフトウェアとの協働により、プレイヤー端末1で各種ゲームの実行が可能になる。
 即ち、プレイヤー端末1は、各種ゲームの実行にあたり、図2に示すような機能的構成を有する。
 図2は、図1のプレイヤー端末1の機能的構成の一例を示す機能ブロック図である。
 図2に示すように、プレイヤー端末1のCPU21においては、ユーザインターフェイス制御部51と、受付部52と、表示画像生成部53とが機能する。
 なお、図示はしないが、前提として、本実施形態に係るゲームを実行するための機能ブロック(ゲーム実行部)がCPU21において機能している。
 ユーザインターフェイス制御部51は、ゲーム実行時のタッチパネルでのユーザインターフェイスの制御を実行する。
 このユーザインターフェイス制御部51には、タッチ操作管理部61と表示制御部62とが設けられている。
 タッチ操作管理部61は、所定の時間間隔毎に、タッチ操作入力部26に対するタッチ操作の有無を検出し、タッチ操作が有った場合にはそのタッチ位置(タッチ座標)を検出する。
 ここで、上述したように、タッチ操作入力部26は、複数の指等によるタッチ操作、即ちマルチタッチに対応可能となっている。
 このため、タッチ操作管理部61は、複数のタッチ操作を検出した場合、検出した複数のタッチ操作の内容の夫々を独立して管理する。具体的には例えば、タッチ操作管理部61は、1つのタッチ操作を検出する毎に、その種類を判別し、管理番号を付与する。このようにして、タッチ操作管理部61は、複数のタッチ操作の夫々に対して、判別した種類と付与した管理番号を夫々紐付けて管理する。これにより、複数のタッチ操作について、その種類や操作の時間的順番等の管理が可能になる。
 ここで、1つのタッチ操作(管理番号で一意に特定される1のタッチ操作)については、「所定の時間間隔」毎にタッチ位置が逐次検出される。このようにして検出される複数のタッチ位置は、上述したように、当該1つのタッチ操作(管理番号で一意に特定される1つのタッチ操作)についてのタッチ位置の変化方向や変化量等を演算するために用いられる。
 即ち、タッチ位置を検出する「所定の時間間隔」は、これらの演算が可能であれば、特に限定されない。ただし、本実施形態では、タッチパネルにフレームが表示される毎にタッチ位置が検出されるものとし、「所定の時間間隔」は、連続して表示される2つのフレームの時間間隔であるものとする。
 即ち、本実施形態では、タッチ位置の変化方向とは、最新フレームにおけるタッチ位置(以下、「最新フレームタッチ位置」と呼ぶ)と、その最新フレームの1つ前のフレームにおけるタッチ位置(以下、「直前フレームタッチ位置」と呼ぶ)との差分に基づいて、決定されるものとする。
 このタッチ操作管理部61には、状態検出部71が設けられる。
 状態検出部71は、タッチ操作管理部61により検出されたタッチ操作がスワイプであった場合に機能し、スワイプの各種状態(スワイプの第1状態乃至第3状態の何れか)を検出する。
 表示制御部62は、詳細は後述するが、実行中のゲーム内容を含む画像(以下、「ゲーム画像」と呼ぶ)を表示媒体に表示させる制御を実行する。
 受付部52は、タッチ操作管理部61で検出された各種タッチ操作をゲーム内指示として受け付ける。
 ここで、本実施形態で取り扱われるゲームは、所定のグローバル座標系で構築される仮想的な3次元空間(以下、単に「仮想空間」と呼ぶ)及び当該仮想空間内で移動可能なオブジェクト(移動オブジェクト)であるゲームキャラクタを含むものとする。この場合、プレイヤーは、所定のタッチ操作をすることで、ゲームキャラクタの移動に関する指示(以下、「移動指示」と呼ぶ)をすることができる。また、プレイヤーは、別の所定のタッチ操作(後述するように本実施形態ではスワイプ)をすることで、1種類以上のスキルのうち任意の種類のスキルを選択して、そのスキルの発動方向として、仮想空間内の所定方向を指定して、そのスキルを発動させるまでの一連の指示(以下、「スキル関連指示」と呼ぶ)をすることができる。
 また、本実施形態において、スキルとは、ゲームキャラクタに対応するオブジェクト及びその他のオブジェクトを用いて表現される様々な行動を指し、例えば、剣で攻撃、剣で連続攻撃、弓矢で射撃、弓矢で連続射撃、魔法による攻撃を放つ、魔法による攻撃を連続して放つ、盾を構える、盾で打撃する等といったゲームキャラクタの単なる移動とは異なる行動を指す。CPU21は、複数種類のスキルをゲームで表現するための処理をゲームプログラムと協働してコンピュータを制御するが、表現するスキルに応じて異なった処理を行うようコンピュータを制御する。従って、スキルを選択するとは、複数種類の制御の中からいずれかの制御を選択することに相当する。
 以上の処理を制御するために、受付部52には、ゲームキャラクタの移動指示を示すタッチ操作を受付ける移動指示受付部81と、ゲームキャラクタのスキル関連指示を示すタッチ操作(スワイプ)を受付けるスキル指示受付部82とが設けられている。
 ここで、本実施形態では、ゲームキャラクタのスキル関連指示を示すタッチ操作としては、スワイプが採用されているものとする。この場合、スキル指示受付部82は、(タッチ操作が最初に検出された時のタッチ位置(以下、「タッチ始点」と呼ぶ)やタッチ操作の順番等に応じて、スキルの1以上の種類の中から所定種類の選択を受付ける。
 例えば、表示媒体の表示面において、1種類以上のスキル毎に、そのスキル関連指示の開始を受け付ける特定の領域(以下、「スキル選択領域」と呼ぶ)が夫々規定されているものとする。具体的には例えば、第1種類のスキルに対して第1スキル選択領域が対応付けられ、第2種類のスキルに対して第2スキル選択領域が対応付けられているものとする。この場合、スワイプの第1状態が検出された際のタッチ位置が第1スキル選択領域に含まれていれば、スキルの所定種類として第1種類が選択される。一方、スワイプの第1状態が検出された際のタッチ位置が第2スキル選択領域に含まれていれば、スキルの所定種類として第2種類が選択される。
 スキル指示受付部82は、スワイプの第2状態から第3状態に移行する際のタッチ位置の移動方向に応じて、所定方向の指定を受付ける。ここで、所定方向とは、スキルの発動方向を意味する。
 具体的には例えば、スキル指示受付部82は、スワイプの第3状態に移行した際に表示されていたフレームでのタッチ位置(最新フレームタッチ位置)と、その直前のフレームのタッチ位置(直前フレームタッチ位置)との差分からタッチ位置の変化の方向を算出し、そのタッチ位置の変化の方向を所定方向として、当該所定方向の指示を受付ける。
 そして、スキル指示受付部82は、スワイプの第3状態の検出以後の所定タイミングで、先に受付けた所定種類についての、先に受付けた所定方向へのスキルの発動の指示を受付ける。
 表示画像生成部53は、プレイヤー端末1の表示部27に表示されるべきゲーム画像、例えば本実施形態では仮想空間及び当該仮想空間内で移動可能なゲームキャラクタを含むゲーム画像のデータを生成する。
 本実施形態では、このゲーム画像には、ゲームキャラクタの移動指示の操作をするためのソフトウェアボタン(以下、「移動ボタン」と呼ぶ)と、ゲームキャラクタのスキル関連指示の操作(スワイプ)をするためのソフトウェアボタン(以下、「スキルボタン」と呼ぶ)とが含まれ得る。
 例えばスキルボタンは、スキルの種類毎に設けられ、夫々の種類に対応付けられたスキル選択領域内を初期位置として、ゲームキャラクタのスキル関連指示の操作(スワイプ)がなされるまでの間、初期位置に一定程度スティックするように配置される。なお、後述する図3(b)に示す様に、スキルボタンは、最初から表示されているとは限らず、スワイプの第1状態が検出された際に表示が開始されるようにしてもよい。
 選択されたスキルの種類を示すスキルボタンは、スワイプの第2状態においては、タッチ位置に配置される。つまり、スワイプの第2状態では、タッチ位置は移動していくので、スキルボタンもまたタッチ位置に連動して移動していく。
 またこれらの点については、移動ボタンであっても、同様である。
 このとき、タッチ位置の移動方向が容易に視認できるように、現在のタッチ位置(最新フレームタッチ位置)を示すスキルボタンの他に、直前フレームタッチ位置に配置されていたスキルボタン(以下「直前位置ボタン」と呼ぶ)も消去されずにゲームの画像上に薄く残される。
 即ち、上述したように、スワイプの状態が第2状態から第3状態に移行した際のゲームの画像において、直前位置ボタンからスキルボタンに向かう方向が、スキルを発動する方向(所定方向)としてスキル指示受付部82により受付けられる。
 次に、図3を用いて、図1のプレイヤー端末1が実行するゲームを進行させる一連の処理(以下、「ゲーム実行処理」と呼ぶ)の第一の実施形態について例を用いて説明する。
 図3は、プレイヤー端末1で実行されるゲーム処理の結果の一例を示す図である。
 本実施形態では、ゲームには様々な3次元形状の移動オブジェクトが用いられるが、各移動オブジェクトは、夫々個別のローカル座標系が設定されており、各ローカル座標系の座標がグローバル座標系の座標に変換されて仮想空間に配置されている。図3の例では、このような移動オブジェクトとして、プレイヤーによる操作対象のゲームキャラクタを表すキャラクタC1と、攻撃対象のゲームキャラクタを表すキャラクタC2とが仮想空間に配置されている。また、キャラクタC1が移動するとは、キャラクタC1のグローバル座標系(即ち仮想空間内)における座標が変化することを意味する。
 ここで、本実施形態におけるタッチ操作管理部61は、タッチ操作の種類(以下、「操作種類」と適宜呼ぶ)として、少なくとも操作種類a、操作種類b、及び操作種類cの3種類を判別して管理する。
 即ち、操作種類aのタッチ操作は、キャラクタC1の移動指示に関するタッチ操作を示す種類である。
 操作種類bのタッチ操作は、スキル選択領域以外の領域(例えば上述のスキルボタンが表示された領域以外の領域であり、以下「自由処理領域」と呼ぶ)をタッチ始点とした、キャラクタC1のスキル関連指示に関するタッチ操作を示す種類である。
 操作種類cのタッチ操作は、スキル選択領域(例えば上述のスキルボタンが表示された領域)の領域内をタッチ始点とした、キャラクタC1のスキル関連指示に関するタッチ操作を示す種類である。
 つまり、タッチ操作管理部61は、1つのタッチ操作を検出したとき、まず、そのタッチ操作の種類が上述の操作種類a乃至操作種類cのうちいずれにあたるかを判定する。そして、操作種類が判定されたタッチ操作は、そのタッチ操作が終了するまで、タッチ操作管理部61によって付与された管理番号とともに管理される。
 なお、本実施形態においては、キャラクタC1への移動指示と別種類の指示とを区別するために、キャラクタC1の移動とは別の動作(移動制御とは別の制御)に対する指示を、便宜上、スキル関連指示と包括して定義している。ただし、操作種類b及び操作種類cのタッチ操作は、いずれもスキル関連指示に対応したタッチ操作であるものの、夫々には互いに異なる種類のスキルが対応付けされている。即ち、操作種類bによって制御される処理と操作種類cによって制御される処理とは、移動処理ではないという点では同じ種類の処理と言えるが、処理内容そのものは互いに種類の異なる別の処理である。
 図3の例では、このキャラクタC1の移動指示を入力するための仮想的なコントローラとして、移動ボタンMPが採用されている。
 移動ボタンMPに対するプレイヤーの所定のタッチ操作に応じて、キャラクタC1の移動方向に関する1種以上の量が変化する。ここで、変化対象の量の種類は、移動に関するものであれば特に限定されないが、本実施形態では、キャラクタC1の仮想空間内におけるグローバル座標系での変化、即ちキャラクタC1の移動量、移動方向、及び移動速度等が想定される。
 また、移動ボタンMPに対するプレイヤーからの所定の指示の手法は、タッチ操作であれば特に限定されないが、本実施形態ではスワイプが採用されている。
 図3(a)から図3(d)に示すスキルボタンAP、スキルボタンBP、及びスキルボタンHPは、キャラクタC1の3種のスキルの夫々について、互いに種類の異なるスキル関連指示を入力するための仮想的なコントローラである。
 なお、直前位置ボタンTPは、移動ボタンMP、スキルボタンAP、スキルボタンBP、及びスキルボタンHPのうちスワイプの対象となっているものについての直前のタッチ位置に薄く表示される。
 図3(a)は、ゲーム内のキャラクタC1が移動する状況を示している。
 図3(a)に示すように、プレイヤーに表示されるユーザインターフェイスとしては、スキルボタンAPと、スキルボタンBPと、スキルボタンHPと、がゲーム画像に配置されている。
 まず、ゲーム中のキャラクタC1を移動させたいと考えて、プレイヤーが、表示部27(表示媒体)の表示画面上の自由処理領域に対してタッチ操作をした場合、即ち、前述の操作種類aのタッチ操作を行った場合について説明する。
 なお、自由処理領域とは、スキル選択領域以外の領域である。スキル選択領域とは、上述したように、スキル発動のためにゲーム画面上に表示される操作子の表示された領域、図3の例で言えば、スキルボタンAP、スキルボタンBP、スキルボタンHPの夫々が表示されている領域をいう。
 この場合、タッチ操作管理部61は、まずプレイヤーによるタッチ操作を検出すると、そのタッチ操作のタッチ始点に基づいて、そのタッチ操作の種類が操作種類cか否かを判定する。
 図3(a)には図示しないが、タッチ操作のタッチ始点がスキル選択領域内の場合、プレイヤーによるタッチ操作の種類は操作種類cであると判定さる。この場合、そのタッチ操作は、タッチ操作の順番やタイミングを問わずスキル関連指示を示すことになる。
 これに対して、図3(a)の例のように、タッチ操作のタッチ始点が自由処理領域内の場合、タッチ操作の種類が操作種類cではないと判定される。この場合、タッチ操作管理部61は、プレイヤーによる、タッチ操作がなされた順番やタイミングに基づいて、そのタッチ操作が移動指示を示すのか、それともスキル関連指示を示すのかを判定する。
 そして、タッチ操作管理部61は、プレイヤーによるタッチ操作が検出された時点において既に管理しているタッチ操作(管理番号が付与されている別のタッチ操作)があるか否かを確認する。
 タッチ操作管理部61は、別のタッチ操作を1つも管理していないと確認した場合には、検出したタッチ操作を管理番号1のものとして管理を開始する。このようにして管理番号1として管理される自由処理領域へのタッチ操作が、操作種類aのタッチ操作である。
 移動指示受付部81は、操作種類aのタッチ操作を移動指示として受け付ける。なお、タッチ操作管理部61のタッチ操作検出時に、既に管理されたタッチ操作が存在する場合の処理については後述する。
 また、本例ではそのタッチ位置に移動ボタンMPが表示さる。プレイヤーは、その指Hで移動ボタンMPを接触させたまま自由に移動させる操作(つまり、スワイプの第2状態での移動指示)をすることが出来る。
 上述の通り、タッチ位置は、所定の時間間隔において夫々検出されるため、そのタッチ位置の検出位置に移動ボタンMPが表示される。従って、タッチ位置が逐次変化するならば、その変化していくタッチ位置に沿って、移動ボタンMPが移動していくようにプレイヤーには視認される。
 このタッチ位置の変化は、キャラクタC1に対する移動方向の指示としても与えられ、その指示に従ってキャラクタC1が移動する。
 即ち、スワイプの第2状態における指Hのタッチ位置の変化に応じて移動する移動ボタンMPの動きと、キャラクタC1の動きとが連動する。
 また、キャラクタC1に対する移動指示を与える場合、キャラクタC1の向きも同時に指示することが出来る。
 例えば図3(a)において、プレイヤーが表示画面に向かって右の方向に対してスワイプした場合は、この右の方向に対してのスワイプによる指示に基づいてキャラクタC1の移動が制御されるとともに、この右のスワイプの方向に基づいてキャラクタC1の「向き」も同時に制御される。
 ここで、キャラクタC1の向きとは、キャラクタC1を形成する3Dオブジェクトのある面を正面と考えたとき、この正面が向いている方向であるが、本実施形態においては、キャラクタC1の向きの制御は、キャラクタC1を形成する3Dオブジェクトの中心を軸とした回転制御によって為される。
 さらに、キャラクタC1の向きは、スキルの発動方向とも連動する。そして、移動指示とともに又は独立してスキル関連指示がなされた場合には、スキル関連指示が優先されて、スキル関連指示に対応したスワイプに基づきキャラクタC1の向きが変動する。即ち、移動指示受付部81によってキャラクタC1の移動指示を受け付けている最中は、移動指示に対応するスワイプの内容に基づいてキャラクタC1の向きが制御されるが、この最中にスキル指示受付部82によってスキル関連指示が受け付けられた場合は、スキル関連指示に対応するスワイプの内容に基づいてキャラクタC1の向きが制御される。
 図3(b)は、ゲーム内のキャラクタC1がスキルを発動する状況を示している。
 図3(b)の例においては、前提として、図3(a)の操作が継続してなされており、タッチ操作管理部61は、管理番号1のタッチ操作(操作種類aのキャラクタC1への移動指示を示すタッチ操作)を管理しているものとする。
 図3(a)の状態に引き続き、ゲーム中のキャラクタC1にスキルAを発動させたいと考えて、プレイヤーが自由処理領域に対してタッチ操作をした場合、即ち、上述の操作種類bのタッチ操作を行った場合について説明する。
 タッチ操作管理部61は、まずプレイヤーによるタッチ操作を検出すると、そのタッチ操作のタッチ始点に基づいて、そのタッチ操作の種類が操作種類cか否かを判定する。
 図3(b)の例では、タッチ始点は自由処理領域内であるため、そのタッチ操作は、操作種類cのタッチ操作ではない。
 従って、プレイヤーによるタッチ操作が検出された時点において既に管理されているタッチ操作があるか否かが確認される。
 そして、既に管理されているタッチ操作が移動指示に係るものである場合には、タッチ操作管理部61は、検出したタッチ操作を管理番号2のものとして管理を開始する。この管理番号2として管理された自由処理領域へのタッチ操作が、操作種類bのタッチ操作である。
 図3(b)の例では、既に管理中のタッチ操作は移動指示の操作であるので、図3(b)におけるタッチ操作は、スキル指示受付部82において、スキル関連指示として受け付けられる。
 スキル指示受付部82は、この操作種類bのタッチ操作をスキル関連指示として受け付ける。
 なお、既に管理中のタッチ操作がスキル関連指示に係るものである場合には、スキル関連指示の受付けは非活性化しているため、スキル指示受付部82は、スキル関連指示を受付けない。ここで非活性化とは、タッチ操作に関する指示のうちスキル関連指示をスキル発動中に限り一時的に受付けなくすることである。
 上記の処理の結果、図3(b)の例においては、プレイヤーが、タッチ操作を開始すると、スキルAを発動させるためのスキルボタンAMPが表示される。
 プレイヤーは、スキルAのスキル関連指示を与えるため、スキルボタンAMPを操作する。
 即ち、プレイヤーは、スキルAのスキル選択領域内(スキルボタンAPの配置位置を除く)に指Hを接触させることにより、スワイプの状態は第1状態に移行し、指Hの接触位置にスキルボタンAMPが表示され、発動対象のスキルとしてスキルAが選択される。
 プレイヤーは、指Hの接触を保ちながらスキルボタンAMPを移動させる。これにより、スワイプの第2状態に移行する。図3(b)の例では、プレイヤーは、スワイプの第2状態において、スキルボタンAMPを、指Hの接触状態を保ちながら所定方向に移動させ、所定の位置で指Hをタッチパネルから離す。つまり、スワイプの状態が第2状態から第3状態に移行する。
 この移行時点の直前の指Hのタッチ位置(直前フレームタッチ位置であり、直前位置ボタンTPの位置)から、この移行時点の指Hのタッチ位置(最新フレームタッチ位置であり、スキルボタンAMPの位置)に向かう方向が、スキルの発動方向として設定される。その結果、キャラクタC1は、発動方向に存在するキャラクタC2に向かってスキルAを発動する。
 なお、前述の場合と同様に、プレイヤーが表示画面向かって右の方向に対してスワイプした場合は、この右の方向に対してのスワイプによる指示に基づいてキャラクタC1のスキル関連指示がされるとともに、この右のスワイプの方向に基づいてキャラクタC1の「向き」も同時に制御されることも出来る。
 また、上述の場合と同様に、キャラクタC1の向きは、スキルの発動方向とも連動するため、移動指示とともに又は独立してスキル関連指示がなされた場合には、このスキル関連指示が優先してキャラクタC1の向きが変動する。これにより、プレイヤーは、キャラクタC1がグローバル座標系において移動する方向がいずれであっても、どちらの方向にスキルが発動するのかを容易に判断できる。
 図3(c)は、ゲーム内のキャラクタC1が、図3(b)とは同一種類のスキルを発動するが、異なる操作をする場合の例を示している。
 ゲーム中のキャラクタC1にスキルAを発動させたいと考えて、プレイヤーがいずれかのスキルのスキル発動用領域(例えば図3のスキルボタンAP)でタッチ操作を行った場合、即ち、上述の操作種類cのタッチ操作を行った場合について説明する。
 上述の場合と同様に、タッチ操作管理部61は、まずプレイヤーによるタッチ操作を検出すると、そのタッチ操作のタッチ始点に基づいて、そのタッチ操作の種類が操作種類cか否かを判定する。
 図3(c)の例では、プレイヤーがタッチ操作をスキル選択領域内で行ったため、そのタッチ操作は、順番やタイミングを問わず、スキル関連指示を示す。このようにスキル選択領域内で行われたタッチ操作は、操作種類cのタッチ操作である。
 なお、この場合であっても上述の場合と同様に、タッチ操作管理部61は、プレイヤーによるタッチ操作が検出された時点において既に管理しているタッチ操作があるか否かを確認する。
 そして、既に管理しているタッチ操作がスキル関連指示に係るものでなければ、タッチ操作管理部61は、検出したタッチ操作を管理番号1又は2のものとして管理する。スキル指示受付部82は、そのタッチ操作をスキル関連指示として受け付ける。
 他方、既に管理しているタッチ操作がスキル関連指示に係るものであれば、スキル関連指示の受付けは非活性化しているため、スキル指示受付部82は、そのタッチ操作をスキル関連指示として受付けない。
 図3(c)の例では、プレイヤーは、キャラクタC1にスキルAのスキル関連指示を与えるため、スキルボタンAPを操作する。
 即ち、プレイヤーは、初期位置にスティックされたスキルボタンAPに指Hを接触させる(スキルボタンAPにタッチする)。これにより、スワイプの第1状態に移行し、発動対象のスキルとして、スキルAが選択される。
 プレイヤーは、スキルボタンAPを、指Hの接触を保ちながら移動させる。これにより、スワイプの第2状態に移行する。
 その後、プレイヤーは、スワイプの第2状態において、スキルボタンAPを、指Hの接触状態を保ちながら移動させ、所定の位置で指Hをタッチパネルから離す。つまり、スワイプの状態が第2状態から第3状態に移行する。
 この移行時点の直前の指Hのタッチ位置(直前フレームタッチ位置であり、図3(c)には図示しないが直前位置ボタンTPの位置)から、この移行時点の指Hのタッチ位置(最新フレームタッチ位置であり、スキルボタンAMPの位置)に向かう方向が、スキルの発動方向として設定される。その結果、キャラクタC1は、発動方向に存在するキャラクタC2に向かってスキルAを発動する。
 次に、図3(d)を用いて、スキルの発動不可期間について説明する。
 図3(d)の例では、各種スキルのうちスキルAが発動不可能期間(以下、「クールタイム」と呼ぶ)となっている。
 本実施形態では、一度、スキルが発動された場合、一定時間経過後でなければ再度スキルを発動することが出来ない期間、いわゆるクールタイムを設定することが出来る。
 図3(d)の例は、スキルAが発動された直後であり、スキルボタンAPには数字の9が表示されている。
 これは、スキルAのクールタイムが残り9秒であることを示しており、プレイヤーは、残り9秒間の間スキルAを発動することが出来ない(プレイヤーは、スキルボタンAPをスワイプすることが出来ない)。
 一方で、スキルボタンHPの周囲の蛍光領域(図3(d)では斜線部で表現された領域)は、必殺技が発動するまでの時間を示している。
 時間とともに蛍光領域が増加し、スキルボタンHPの周囲が全て蛍光領域となれば、いつでも必殺技の発動が可能であることを意味している。
 なお、図3(d)は、キャラクタC1がいつでも必殺技を発動可能であることを示している。
 このように、本実施形態では、スキルや必殺技発動後にクールタイムを設定することができ、スキル発動までの期間(時間)を、適宜、プレイヤーに通知することが出来る。
 さらに言えば、スキルの発動が可能となるまでの時間を、プレイヤーに通知するための手段は、いかなる方法でもよく、限定されない。
 次に、図4を参照して、図2のプレイヤー端末1が実行するゲーム実行処理について説明する。
 即ち、図4は、ゲーム実行処理の流れの一例を説明するフローチャートである。
 ステップS1において、ユーザインターフェイス制御部51の表示制御部62は、ゲーム画像を表示部27に表示させる。
 ステップS2において、タッチ操作管理部61は、操作種類a又は操作種類cのタッチ操作を検出したか否かを判定する。
 操作種類aと操作種類cの両方のタッチ操作が検出されなければ、ステップS2においてNOであると判定されて、処理はS2に戻され、ステップS2の判定処理が繰り返される。
 ステップS2の判定処理が繰り返されている際に、操作種類a又は操作種類cのタッチ操作が検出されれば、次のステップS2においてYESであると判定されて、処理はステップS3に進む。
 ステップS3において、タッチ操作管理部61は、ステップS2で検出したタッチ操作の種類が操作種類aであるか否かを判定する。
 操作種類cのタッチ操作であれば、ステップS3においてNOであると判定されて、処理はステップS8に進む。なお、ステップS8以降の処理については後述する。
 これに対して、操作種類aのタッチ操作であれば、ステップS3においてYESであると判定されて、処理はステップS4に進む。
 ステップS4において、移動指示受付部81は、ステップS2において検出されたタッチ操作を移動指示として受け付け、移動処理を開始させる。移動処理の詳細については、図5を参照して後述する。
 ステップS5において、タッチ操作管理部61は、新たに検出したタッチ操作の種類が操作種類bであるか否かを判定する。
 新たに検出したタッチ操作の種類が操作種類bであれば、ステップS5においてYESであると判定されて処理はステップS6に進む。
 ステップS6において、スキル指示受付部82は、ステップS5で新たに検出されたタッチ操作をスキル関連指示として受け付け、スキルボタンを新たに表示させる等をして、自由処理領域用のスキルを発動すべく、スキル発動処理を開始させる。スキル発動処理の詳細については図6を参照して後述する。
 これに対して、新たに検出したタッチ操作の種類が操作種類cであれば、ステップS5においてNOであると判定されて処理はステップS7に進む。
 ステップS7において、スキル指示受付部82は、ステップS5で新たに検出されたタッチ操作をスキル関連指示として受け付け、スキル選択領域用のスキル(ステップS6とは異なる種類のスキル)を発動すべく、スキル発動処理を開始させる。スキル発動処理の詳細については図6を参照して後述する。
 このようにして、ステップS6又はS7の処理が終了すると、処理はステップS2に戻され、それ以降の処理が繰り返される。
 ところで、上述したようにステップS2で検出されたタッチ操作が種類cの場合、ステップS3においてNOであると判定されて、処理はステップS8に進む。この場合、次のような一連の処理が実行される。
 即ち、ステップS8において、スキル指示受付部82は、ステップS2において検出されたタッチ操作をスキル関連指示として受け付け、スキル選択領域用のスキルを発動すべく、スキル発動処理を開始させる。スキル発動処理の詳細については図6を参照して後述する。
 ステップS9において、タッチ操作管理部61は、新たに検出されたタッチ操作の種類が操作種類aであるか否かを判定する。
 操作種類aのタッチ操作であれば、ステップS9においてYESであると判定されて、処理はステップS10に進む。
 ステップS10において、移動指示受付部81は、ステップS9で新たに検出されたタッチ操作を移動指示として受け付け、移動処理を開始させる。移動処理の詳細については図5を用いて後述する。
 これに対して、操作種類cのタッチ操作であれば、ステップS9においてNOであると判定されて、処理はステップS11に進む。
 ステップS11において、スキル指示受付部82は、スキル関連指示の受付けは非活性化されているため、ステップS9で新たに検出されたタッチ操作に係るスキル関連指示を受付けない。
 このようにして、ステップS10又はS11の処理が終了すると、処理はステップS2に戻され、それ以降の処理が繰り返される。
 次に、図5を参照して、図2のプレイヤー端末1が実行する移動処理について説明する。
 即ち、図5は、移動処理の流れの一例を説明するフローチャートである。
 ステップS21において、移動指示受付部81は、図4のゲーム実行処理による移動指示を受付けたか否かを判定する。
 移動指示受付部81が、移動指示を受付けていない場合には、ステップS21においてNOであると判定されて処理はS21に戻される。
 これに対して、移動指示受付部81が移動指示を受付けている場合には、ステップS21においてYESであると判定されて、処理はステップS22に進む。
 ステップS22において、移動指示受付部81は、移動指示を示すタッチ操作のタッチ位置が変化しているか否かを、状態検出部71の検出結果に基づいて判定する。
 状態検出部71によりタッチ位置の変化が検出されなければ、ステップS22においてNOであると判定されて処理はステップS21に戻る。
 これに対して状態検出部71によりタッチ位置の変化が検出されれば、ステップS22においてYESであると判定されて処理はステップS23に進む。
 ステップS23において、表示画像生成部53は、タッチ位置の変化に応じてゲーム中のゲームキャラクタが移動するようなゲーム画像のデータを生成し、表示制御部62は、そのゲーム画像を表示部27に表示させる。
 次に、図6を参照して、図1のプレイヤー端末1が実行するスキル発動処理について説明する。
 即ち、図6は、スキル発動処理の流れの一例を説明するフローチャートである。
 ステップS41において、スキル指示受付部82は、図4のゲーム実行処理によるスキル関連指示を受付けたか否かを判定する。
 スキル指示受付部82が、スキル関連指示を受付けていない場合には、ステップS41においてNOであると判定されて処理はS41に戻される。
 これに対して、スキル指示受付部82が移動指示を受付けている場合には、ステップS41においてYESであると判定されて、処理はステップS42に進む。
 ステップS42において、スキル指示受付部82は、スキル指示タッチ位置が変化しているか否かを、状態検出部71の検出結果に基づいて判定する。
 状態検出部71によりタッチ位置の変化が検出されなければ、ステップS42においてNOであると判定されて処理はステップS41に戻る。
 これに対して状態検出部71によりタッチ位置の変化が検出されれば、ステップS22においてYESであると判定されて処理はステップS43に進む。
 ステップS43において、スキル指示受付部82は、タッチ操作が解除された時点におけるタッチ位置の移動方向に応じて、所定方向の指定を受付け、所定方向へのスキルを発動する。
 以上本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
 例えば、移動指示やスキル関連指示の手法は、特に上述した実施形態に限定されない。そこで、以下、図7乃至図9を参照しつつ、上述の実施形態とは異なる手法が採用された他の実施形態について幾つか説明する。
 ここで図7を用いて、上述の実施形態とは別の異なる実施形態について説明する。
 図7は、図2のプレイヤー端末1で実行されるゲーム実行処理の結果の一例であって、図3とは異なる例を示す図である。
 図7の状態では、ゲーム中のゲームキャラクタとしてのキャラクタGCは待機している状態である。
 さらに図7の例では、タッチパネルの表示面の概ね左半分の領域を自由処理領域として規定し、概ね右半分の領域(スキルボタンSA1、スキルボタンSA2が予め配置されている領域を除く)がスキルA若しくはスキルA2のスキル選択領域として規定する。
 即ち、上述の実施形態では、タッチ操作が検出された位置と順番に基づいて、タッチ操作の種別を判断していたのに対して、図4の例では、タッチ操作が検出された位置のみに基づいてタッチ操作の種別を判断するのである。
 タッチ操作管理部61は、プレイヤーによるタッチ操作を検出すると、タッチ操作が検出された位置の情報から、そのタッチ操作がいかなる性質のタッチ操作であるのか(例えば、移動に関するタッチ操作なのか、スキルに関するタッチ操作なのか等を判断する)を判断し、これら夫々のこれら夫々のタッチ操作の管理を行う。
 この状態から、プレイヤーの指等がタッチパネルに接触すると、スワイプの状態は第1状態に移行する。
 ここで、検出されたタッチ操作が移動指示用の操作である場合には、当該スワイプは移動指示として受付けられる。他方、検出されたタッチ操作がスキル選択領域で開始されている場合には当該スワイプはスキル関連指示として受付けられる。
 さらに図8及び図9を用いて、上述の実施形態とも異なる実施形態について説明する。
 図8及び9は、図2のプレイヤー端末1で実行されるゲーム実行処理の結果の一例であって、図3や図7とは異なる例を示す図である。
 図8及び図9の例では、プレイヤーからのタッチ操作の有無に依らず移動指示の受付用の操作子MB(以下、「移動ボタンMB」と呼ぶ)が所定の基準位置に表示されている。
 例えば、プレイヤーが移動ボタンMBにタッチ操作を行いタッチ操作が開始された場合、即ち、タッチ操作管理部61がタッチ操作を検出した時点のタッチ位置が移動ボタンMBが表示された領域内(以下、「移動領域」と呼ぶ)である場合、タッチ操作管理部61は、このタッチ操作を移動指示のためのタッチ操作として判断し、移動指示受付部81は、このタッチ操作を移動指示として受け付ける。
 プレイヤーは、この移動ボタンMBへの接触(タッチ)状態を継続してスワイプ操作することにより、キャラクタGCに自由自在に移動指示を与えることが出来る。
 即ち、プレイヤーのタッチ位置の変化方向に応じて、位置が変化する移動ボタンMBとキャラクタGCの動きを連動させることで、プレイヤーは、仮想空間内において自由自在にキャラクタGCに移動指示を与えることが出来るのである。
 また、スキルA2の発動指示を与えようとするプレイヤーは、図9の初期位置IPに配置されていたスキルボタンSA2をタッチする。この場合、スワイプの状態として第1状態を検出する。
 ここで、スキルボタンSA2は、スキルA2のスキル関連指示を与えるためのスキルボタンであり、その初期位置IPは、スキルA2のスキル選択領域内である。従って、この場合、スキルA2のスキル関連指示が受け付けられる。
 そして、前述の場合と同様に、スキル関連指示の受付けは非活性化される。
 図9に示すように、プレイヤーは、スキルボタンSA2を、指の接触を保ちながら移動させる。これにより、スワイプの第2状態に移行する。
 その後、プレイヤーは、スワイプの第2状態において、スキルボタンSA2を、指の接触状態を保ちながら移動させ、所定の位置NTで指をタッチパネルから離す。つまり、スワイプの状態が第2状態から第3状態に移行する。
 この移行時点の直前の指のタッチ位置(直前フレームタッチ位置であり、直前位置ボタンTSA2の位置FP)から、この移行時点の指のタッチ位置(最新フレームタッチ位置であり、スキルボタンSA2の位置NT)に向かう方向が、スキルA2の発動方向として設定される。その結果、キャラクタGCは、発動方向に向かってスキルA2を発動する。
 また例えば上述の複数の実施形態では、移動指示を示す操作として移動選択領域へのタッチ操作を規定し、スキル関連指示を示す操作としてスキル選択領域へのタッチ操作を規定した。
 しかしながら、各領域へのタッチ操作が規定する動作指示は、必ずしも移動指示又はスキル関連指示に限られない。例えば、特定のアクション等(例えばジャンプ等)いかなる動作指示を規定することも可能である。
 また、上述の場合と併せて、規定する領域は移動選択領域及びスキル選択領域に限定されず、3以上の複数の領域に分類し、動作指示を対応させることが出来る。
 例えば、ゲーム画像を上中下の3つの操作領域に分類し、これらの3領域に対して、異なる3つの指示を対応付けて、プレイヤーが動作指示を与えるための条件としてもよい。
 例えば図3及び図7に示す実施形態では、プレイヤーのタッチ操作が検出されて初めて、移動ボタン(例えば図3(a)の移動ボタンMP)が、ユーザインターフェイス上に表示されることとしているが、プレイヤーのタッチ操作の有無に関わらず、初めからユーザインターフェイス上に表示されてもよい。
 この場合、移動ボタンが表示(スティック)されている領域のみを移動選択領域として、それ以外の領域全てをスキル選択領域としてもよい。
 また、上述の実施形態では、スキルボタンは初期位置に一定程度スティックするように配置されていたが、特にこれに限定されず、例えば、プレイヤーのタッチ操作が検出されて初めてスキルボタンが表示されてもよい。
 例えば上述の複数の実施形態では、プレイヤーが、指(又はタッチペン等)を離すことによりスワイプの各状態(具体的にはスワイプの第3状態からスキルの発動指示に至るまでの状態)を遷移することとしていたが、スワイプの各状態を遷移する条件はこれに限られない。
 また例えば、一定時間以上タッチ操作の更新がない(タイムアウトした)場合やゲーム内において何らかの状況変化があった場合に、各状態を遷移してもよい。
 例えば上述の複数の実施形態では、移動指示の方向とスキル関連指示の方向とが同じタイミングで指示された場合について言及していないが、例えば、スキル関連指示の方向を優先してゲームキャラクタの向きを制御することとしてもよい。
 これによって、ユーザーはどちらの方向にスキルが発動するのかを明確に判断できるようになる。
 例えば上述の複数の実施形態では、スキル関連指示を示すタッチ操作が重複してなされた場合には、スキル関連指示を非活性化し、スキル関連指示を受け付けないこととしているが、例えば、後にされたタッチ操作処理をスキル関連指示として受け付けることもよいし、スキル関連指示だけでなく移動指示を非活性化してもよい。
 ここで前述の実施形態では、タッチ操作管理部61は、プレイヤーにより、前述のマルチタップが行われた場合に、夫々のタッチ操作の順番等を管理する。
 表示媒体へ接触又は近接している前記物体の個数の管理状態とは、このようなタッチ操作管理部61によって管理されたタッチ操作の管理状態を意味する。
 タッチ操作管理部61は、このような管理状態とタッチ操作がなされた位置等に基づいて、ゲームキャラクタへの移動指示を受付けるのか、スキル関連指示を受付けるのかを判定する。
 しかし、上述の受け付ける指示の判定方法については、上述の方法に限定されない。例えば、図7乃至9に示す実施形態のように、自由に変更が可能である。
 ここで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
 換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。
 即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。また、機能ブロックの存在場所も、図2に特に限定されず、任意でよい。
 また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
 一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
 コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
 また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
 このようなプログラムを含む記録媒体は、プレイヤーにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でプレイヤーに提供される記録媒体等で構成される。
 なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
 また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
 以上を換言すると、本発明が適用される情報処理プログラムは、上述の図2の実施形態としての情報処理システムを含め、次のような構成を有する各種各様の実施形態を取ることができる。
 即ち、本発明が適用される情報処理プログラムは、
 仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行するコンピュータに、
 前記表示媒体への1以上の物体の接触又は近接の操作を検出する検出ステップ(例えば図4のステップS2)と、
 前記表示媒体へ接触又は近接している前記1以上の物体の個数の管理状態と当該個数分の物体の前記表示媒体における夫々の位置との双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定ステップ(例えば図5のステップS21と、図6のステップS41等)と、
 前記判定ステップの判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付ステップ(例えば図5のステップS22と、図6のステップS42)と、
 を含む制御処理を実行させ、
 前記検出ステップは、前記第2指示として受付けられる操作として、前記表示媒体への前記1以上の物体のうち、前記管理状態及び前記位置から特定される当該第2指示用の物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて当該物体が移動する第2状態を経て、前記表示媒体への当該物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出するステップを含み、
 前記受付ステップは、前記第1状態が検出された際の前記第2指示用の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の当該物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付けるステップを含む、情報処理を実行させる情報処理プログラムであれば足りる。
 ここで、前記受付ステップは、前記第2状態の間、前記種類の選択の受付けを非活性化することができる。
 従って、例えばスキル発動中の新たなスキル関連指示の受付けは非活性化されるため、スキルの発動について重複した指示がなされることがない。
 さらに、前記情報処理プログラムは、前記第1指示を行う第1操作子を前記表示媒体に表示させ、前記第2指示を行う第2操作子を前記表示媒体に表示させる制御を実行する表示制御ステップをさらに含むことができる。
 これにより、第1操作子及び第2操作子をユーザインターフェイス上に表示させることで、プレイヤーは、わかりやすく容易に、ゲームキャラクタへ指示を出すことが出来る。
 ここで、前記表示制御ステップは、前記第2状態の間、前記物体の現在の第1の位置と、それよりも前の所定タイミングの第2の位置に、前記第2操作子を夫々表示させる制御を実行するステップを含み、
 さらに、前記受付ステップは、前記第2状態から前記第3状態に移行する際の前記第2の位置から前記第1の位置に向かう方向を前記所定の方向として認識し、認識した前記所定の方向の指定を受付けるステップを含むことが出来る。
 これにより、ゲームキャラクタは、移動をしながら、所定の方向にスキルを発動する等、プレイヤーは、一度のスワイプ操作で多様な操作指示を与えることが可能となる。
 さらに本発明が適用される情報処理プログラムは、上述の図2の実施形態としての情報処理システムを含め、次のような構成を有する各種各様の実施形態を取ることができる。
 即ち、本発明が適用される情報処理装置は、
 仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行する情報処理装置であって、
 前記表示媒体への1以上の物体の接触又は近接の操作を検出する検出手段(例えば図2のタッチ操作管理部61)と、
 前記表示媒体へ接触又は近接している前記1以上の物体の個数の管理状態と当該個数分の物体の前記表示媒体における夫々の位置との双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定手段(例えば図2のタッチ操作管理部61)と、
 前記判定手段の判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付手段(例えば図2の移動指示受付部81と、スキル指示受付部82)と、
 を備え、
 前記検出手段は、前記第2指示として受付けられる操作として、前記表示媒体への前記1以上の物体のうち、前記管理状態及び前記位置から特定される当該第2指示用の物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて当該物体が移動する第2状態を経て、前記表示媒体への当該物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出する手段(例えば図2の状態検出部71)を含み、
 前記受付手段は、前記第1状態が検出された際の前記第2指示用の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の当該物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付ける手段(例えば図2の移動指示受付部81と、スキル指示受付部82)を有する、
 情報処理装置であれば足りる。
 1・・・プレイヤー端末、21・・・CPU、表示部・・・27、51・・・ユーザインターフェイス制御部、52・・・受付部、53・・・表示画像生成部、54・・・表示制御部、61・・・タッチ操作管理部、62・・・表示制御部、71・・・状態検出部、81・・・移動指示受付部、82・・・スキル指示受付部

Claims (7)

  1.  仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行するコンピュータに、
     前記表示媒体への1以上の物体の接触又は近接の操作を検出する検出ステップと、
     前記表示媒体へ接触又は近接している前記1以上の物体の個数の管理状態と当該個数分の物体の前記表示媒体における夫々の位置との双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定ステップと、
     前記判定ステップの判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付ステップと、
     を含む制御処理を実行させ、
     前記検出ステップは、前記第2指示として受付けられる操作として、前記表示媒体への前記1以上の物体のうち、前記管理状態及び前記位置から特定される当該第2指示用の物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて当該物体が移動する第2状態を経て、前記表示媒体への当該物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出するステップを含み、
     前記受付ステップは、前記第1状態が検出された際の前記第2指示用の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の当該物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付けるステップを含む、
     情報処理プログラム。
  2.  前記受付ステップは、前記第2状態の間、前記種類の選択の受付けを非活性化する、
     請求項1に記載の情報処理プログラム。
  3.  前記第1指示と前記第2指示が同時又は重複して受付けられた場合に、前記第2指示で受付けられた前記所定方向の指定に応じて、前記移動オブジェクトの向きが制御される移動オブジェクト制御ステップをさらに含む制御処理を前記コンピュータに実行させる、
     請求項1又は2に記載の情報処理プログラム。
  4.  前記第1指示を行う第1操作子を前記表示媒体に表示させ、前記第2指示を行う第2操作子を前記表示媒体に表示させる制御を実行する表示制御ステップをさらに含む制御処理を実行させる、
     請求項1乃至3に記載のうちのいずれか1つの請求項に記載の情報処理プログラム。
  5.  前記表示制御ステップは、前記第2状態の間、前記物体の現在の第1の位置と、それよりも前の所定タイミングの第2の位置に、前記第2操作子を夫々表示させる制御を実行するステップを含み、
     前記受付ステップは、前記第2状態から前記第3状態に移行する際の前記第2の位置から前記第1の位置に向かう方向を前記所定の方向として認識し、認識した前記所定の方向の指定を受付けるステップを含む、
     請求項4に記載の情報処理プログラム。
  6.  仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行する情報処理装置が実行する情報処理方法であって、
     前記表示媒体への物体の接触又は近接の操作を検出する検出ステップと、
     前記表示媒体へ接触又は近接している前記1以上の物体の個数の管理状態と当該個数分の物体の前記表示媒体における夫々の位置との双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定ステップと、
     前記判定ステップの判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付ステップと、
     を含み、
     前記検出ステップは、前記第2指示として受付けられる操作として、前記表示媒体への前記1以上の物体のうち、前記管理状態及び前記位置から特定される当該第2指示用の物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて当該物体が移動する第2状態を経て、前記表示媒体への当該物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出するステップを含み、
     前記受付ステップは、前記第1状態が検出された際の前記第2指示用の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の当該物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付けるステップを含む、
     情報処理方法。
  7.  仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行する情報処理装置であって、
     前記表示媒体への1以上の物体の接触又は近接の操作を検出する検出手段と、
     前記表示媒体へ接触又は近接している前記1以上の物体の個数の管理状態と当該個数分の物体の前記表示媒体における夫々の位置との双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定手段と、
     前記判定手段の判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付手段と、
     を備え、
     前記検出手段は、前記第2指示として受付けられる操作として、前記表示媒体への前記1以上の物体のうち、前記管理状態及び前記位置から特定される当該第2指示用の物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて当該物体が移動する第2状態を経て、前記表示媒体への当該物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出する手段を含み、
     前記受付手段は、前記第1状態が検出された際の前記第2指示用の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の当該物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付ける手段を有する、
     情報処理装置。
PCT/JP2017/040156 2016-11-10 2017-11-07 情報処理プログラム、情報処理方法、及び情報処理装置 WO2018088408A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020197012947A KR102232032B1 (ko) 2016-11-10 2017-11-07 정보 처리 프로그램, 정보 처리 방법, 및 정보 처리 장치
CN201780069195.7A CN109982756B (zh) 2016-11-10 2017-11-07 信息处理程序、信息处理方法和信息处理装置
US16/406,753 US10990274B2 (en) 2016-11-10 2019-05-08 Information processing program, information processing method, and information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016219538A JP6143934B1 (ja) 2016-11-10 2016-11-10 情報処理プログラム、情報処理方法、及び情報処理装置
JP2016-219538 2016-11-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/406,753 Continuation US10990274B2 (en) 2016-11-10 2019-05-08 Information processing program, information processing method, and information processing device

Publications (1)

Publication Number Publication Date
WO2018088408A1 true WO2018088408A1 (ja) 2018-05-17

Family

ID=59012155

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/040156 WO2018088408A1 (ja) 2016-11-10 2017-11-07 情報処理プログラム、情報処理方法、及び情報処理装置

Country Status (6)

Country Link
US (1) US10990274B2 (ja)
JP (1) JP6143934B1 (ja)
KR (1) KR102232032B1 (ja)
CN (1) CN109982756B (ja)
TW (1) TWI645337B (ja)
WO (1) WO2018088408A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8814674B2 (en) * 2012-05-24 2014-08-26 Supercell Oy Graphical user interface for a gaming system
JP6581639B2 (ja) * 2017-11-06 2019-09-25 株式会社カプコン ゲームプログラム、およびゲームシステム
US20210158445A1 (en) 2018-04-10 2021-05-27 Yoshinari Matsuda Virtual currency management system and virtual currency management program
JP7221686B2 (ja) * 2018-12-28 2023-02-14 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法及びプログラム
CN109568957B (zh) * 2019-01-10 2020-02-07 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
JP6588177B1 (ja) * 2019-03-07 2019-10-09 株式会社Cygames 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
CN110559658B (zh) * 2019-09-04 2020-07-28 腾讯科技(深圳)有限公司 信息交互方法、装置、终端以及存储介质
CN110538452B (zh) * 2019-09-09 2023-09-19 珠海金山数字网络科技有限公司 技能控制方法、装置、计算设备及存储介质
US11071906B2 (en) * 2019-10-08 2021-07-27 Zynga Inc. Touchscreen game user interface
CN111481932B (zh) * 2020-04-15 2022-05-17 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备和存储介质
CN111589127B (zh) * 2020-04-23 2022-07-12 腾讯科技(深圳)有限公司 虚拟角色的控制方法、装置、设备及存储介质
CN111589133B (zh) * 2020-04-28 2022-02-22 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、设备及存储介质
CN111672115B (zh) * 2020-06-05 2022-09-23 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
CN115779433A (zh) * 2020-06-05 2023-03-14 腾讯科技(深圳)有限公司 控制虚拟对象释放技能的方法、装置、终端及存储介质
US11577157B2 (en) * 2020-07-08 2023-02-14 Nintendo Co., Ltd. Systems and method of controlling game operations based on touch input
CN112717403B (zh) * 2021-01-22 2022-11-29 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2014045966A (ja) * 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP2015123244A (ja) * 2013-12-26 2015-07-06 株式会社バンダイナムコエンターテインメント プログラム及びゲーム装置
JP2016009473A (ja) * 2014-06-26 2016-01-18 ガンホー・オンライン・エンターテイメント株式会社 端末装置
JP2016126514A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
US20160220902A1 (en) * 2010-05-20 2016-08-04 John W. Howard Touch screen with virtual joystick and methods for use therewith
WO2016167094A1 (ja) * 2015-04-16 2016-10-20 株式会社コロプラ ユーザ・インタフェース・プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110034858A (ko) * 2009-09-29 2011-04-06 주식회사 넥슨모바일 게임 운영을 제어하기 위한 사용자 인터페이스 제공 방법
JP2011170834A (ja) * 2010-01-19 2011-09-01 Sony Corp 情報処理装置、操作予測方法及び操作予測プログラム
US8379098B2 (en) * 2010-04-21 2013-02-19 Apple Inc. Real time video process control using gestures
JP5237325B2 (ja) * 2010-04-28 2013-07-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
US20130212541A1 (en) * 2010-06-01 2013-08-15 Nokia Corporation Method, a device and a system for receiving user input
US9116611B2 (en) * 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
JP5563633B2 (ja) * 2012-08-31 2014-07-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
US20140111429A1 (en) * 2012-10-23 2014-04-24 Cirque Corporation Multiple fingers, multiple step gesture
CN103870180A (zh) * 2012-12-13 2014-06-18 腾讯科技(武汉)有限公司 解锁触摸屏的方法和装置
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller
CN106255952B (zh) 2014-04-04 2020-01-07 克罗普股份有限公司 用户界面程序以及游戏程序
CN104076986B (zh) * 2014-07-25 2015-12-09 上海逗屋网络科技有限公司 一种用于多点触摸终端的触摸控制方法与设备
JP6616072B2 (ja) * 2014-12-26 2019-12-04 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
KR20160098700A (ko) * 2015-02-11 2016-08-19 삼성전자주식회사 멀티 터치 입력을 처리하기 위한 전자 장치 및 그 동작 방법
JP6637662B2 (ja) * 2015-03-16 2020-01-29 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP6605225B2 (ja) * 2015-04-28 2019-11-13 株式会社バンダイナムコエンターテインメント 端末装置及びプログラム
CN104915117B (zh) * 2015-06-16 2017-03-22 深圳市腾讯计算机系统有限公司 控制与虚拟目标进行交互的方法和装置
CN104898953B (zh) * 2015-06-16 2016-10-26 深圳市腾讯计算机系统有限公司 基于触控屏的操控方法和装置
CN105183214B (zh) * 2015-08-04 2017-12-19 网易(杭州)网络有限公司 触控操作识别和响应方法、装置及游戏操控方法、装置
CN105194871B (zh) * 2015-09-14 2017-03-22 网易(杭州)网络有限公司 一种控制游戏角色的方法
CN105335064B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN105194873B (zh) * 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
US20160220902A1 (en) * 2010-05-20 2016-08-04 John W. Howard Touch screen with virtual joystick and methods for use therewith
JP2014045966A (ja) * 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP2015123244A (ja) * 2013-12-26 2015-07-06 株式会社バンダイナムコエンターテインメント プログラム及びゲーム装置
JP2016009473A (ja) * 2014-06-26 2016-01-18 ガンホー・オンライン・エンターテイメント株式会社 端末装置
JP2016126514A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
WO2016167094A1 (ja) * 2015-04-16 2016-10-20 株式会社コロプラ ユーザ・インタフェース・プログラム

Also Published As

Publication number Publication date
CN109982756B (zh) 2022-09-02
KR102232032B1 (ko) 2021-03-25
TWI645337B (zh) 2018-12-21
TW201823979A (zh) 2018-07-01
CN109982756A (zh) 2019-07-05
KR20190057381A (ko) 2019-05-28
US20190265882A1 (en) 2019-08-29
JP6143934B1 (ja) 2017-06-07
US10990274B2 (en) 2021-04-27
JP2018075225A (ja) 2018-05-17

Similar Documents

Publication Publication Date Title
JP6143934B1 (ja) 情報処理プログラム、情報処理方法、及び情報処理装置
US10478734B2 (en) Game control program, game control method, and game control device
JP6145099B2 (ja) タッチ対応移動体デバイスにおけるゲーム・コントローラー
JP4662495B2 (ja) 画像生成装置、画像生成プログラム、画像生成プログラム記録媒体及び画像生成方法
JP5994019B2 (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP6921193B2 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
JP6228267B2 (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP5876600B1 (ja) 情報処理プログラム、及び情報処理方法
JP6703155B1 (ja) ゲームプログラム及びゲームシステム
JPWO2019030937A1 (ja) ゲームプログラム及びゲームシステム
JP2016219057A (ja) 画像処理装置およびその方法
JP2016195864A (ja) 画像処理装置およびその方法
JP2016130888A (ja) アイコン選択のためのコンピュータ・プログラム、携帯端末、およびコンピュータ実装方法
JP2015186571A (ja) 画像処理装置およびその方法
JP5345253B1 (ja) ゲーム装置、ゲーム方法及びコンピュータプログラム
JP5795113B1 (ja) ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP5784211B1 (ja) 情報処理プログラムおよび情報処理方法
JP5784259B1 (ja) 情報処理プログラムおよび情報処理方法
JP5784260B1 (ja) 情報処理プログラムおよび情報処理方法
JP2019150414A (ja) ゲームプログラム及びゲームシステム
JP2019037877A (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP2018038829A (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP2016207057A (ja) タッチディスプレイを備える携帯端末のためのプログラム及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17868538

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197012947

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17868538

Country of ref document: EP

Kind code of ref document: A1