WO2018180553A1 - ゲームシステム、ゲーム制御装置、及びプログラム - Google Patents

ゲームシステム、ゲーム制御装置、及びプログラム Download PDF

Info

Publication number
WO2018180553A1
WO2018180553A1 PCT/JP2018/010280 JP2018010280W WO2018180553A1 WO 2018180553 A1 WO2018180553 A1 WO 2018180553A1 JP 2018010280 W JP2018010280 W JP 2018010280W WO 2018180553 A1 WO2018180553 A1 WO 2018180553A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
touch
movement
touch position
game
Prior art date
Application number
PCT/JP2018/010280
Other languages
English (en)
French (fr)
Inventor
真喜 中村
雄吾 岸野
裕治 藤代
小川 健太
秀紀 柳原
圭 益田
淳一 田谷
秀人 西山
拓 ▲濱▼崎
Original Assignee
株式会社コナミデジタルエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コナミデジタルエンタテインメント filed Critical 株式会社コナミデジタルエンタテインメント
Priority to CN201880022991.XA priority Critical patent/CN110545889B/zh
Priority to KR1020197027926A priority patent/KR102358390B1/ko
Publication of WO2018180553A1 publication Critical patent/WO2018180553A1/ja
Priority to US16/584,896 priority patent/US11266904B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen

Definitions

  • the present invention relates to a game system, a game control device, and a program.
  • a game pad of a stationary game machine or a portable game machine is provided with an operation member (such as a direction button or a direction lever) for performing a direction instruction operation.
  • an operation member such as a direction button or a direction lever
  • devices such as smartphones and tablet computers are provided with a touch panel, and are often not provided with the above-described members.
  • the direction instruction operation is performed via the touch panel by displaying a virtual operation member (virtual direction button or direction lever) for performing the direction instruction operation.
  • the direction from the center point of the display area to the touch position is determined as the direction (instructed direction) instructed by the user. Things have been done.
  • the user when instructing the left direction after instructing the right direction, first, the user instructs the right direction by moving the touch position to the right of the center point in the display area of the virtual operation member. Thereafter, in order to indicate the left direction, the user needs to move the touch position within the display area from the right side to the left side of the center point.
  • the moving distance of the touch position of the user tends to be short, the moving distance of the touch position is not sufficient, and the touch position has not moved to the left side of the center point of the display area.
  • the touch position may remain on the right side of the center point.
  • the game side determines that the right direction is instructed, and thus the user may feel that the operability is not good. is there.
  • the present invention has been made in view of the above-described problems, and the object thereof is to determine between the instruction direction intended by the user when the direction instruction operation is performed via the touch panel and the instruction direction determined on the game side. It is an object of the present invention to provide a game system, a game control device, and a program that can make it difficult for differences to occur.
  • a game system includes a region setting unit that sets a reception region for receiving a direction instruction operation on a touch panel, and a unit that sets an operation position according to the touch position of the touch panel.
  • An operation position setting unit that moves the operation position according to the movement of the touch position, and an instruction direction that acquires an instruction direction based on a direction from a reference position corresponding to the reception area to the operation position Acquisition means and game processing execution means for executing game processing based on the indicated direction, wherein the operation position setting means moves the operation position to the touch position according to the movement of the touch position. A distance longer than the movement distance of the touch position is moved in a direction corresponding to the direction.
  • the game control apparatus includes: an area setting unit that sets a reception area for receiving a direction instruction operation on the touch panel; and a unit that sets an operation position according to a touch position of the touch panel.
  • An operation position setting means for moving the operation position according to the movement of the touch position; and an instruction direction acquisition means for acquiring an instruction direction based on a direction from a reference position corresponding to the reception area to the operation position.
  • the operation position setting means moves the operation position in a direction corresponding to the movement direction of the touch position by a distance longer than the movement distance of the touch position in accordance with the movement of the touch position.
  • FIG. 1 shows the configuration of a game system according to an embodiment of the present invention.
  • the game system 1 according to the present embodiment includes a game terminal 10 and a server 30.
  • the game terminals 10 can perform data communication with each other via the server 30 and the network N.
  • the game terminal 10 is a computer used by a user to play a game.
  • the game terminal 10 is a mobile phone (including a smartphone), a portable information terminal (including a tablet computer), or the like.
  • the game terminal 10 includes a control unit 11, a storage unit 12, a communication unit 13, an operation unit 14, a display unit 15, and a sound output unit 16.
  • the control unit 11 includes at least one microprocessor and executes information processing according to a program stored in the storage unit 12.
  • the storage unit 12 includes a main storage unit (for example, RAM) and an auxiliary storage unit (for example, a nonvolatile semiconductor memory, a hard disk drive, or a solid state drive), and stores programs and data.
  • the communication unit 13 is for data communication with other devices via the network N.
  • the operation unit 14 is for the user to perform various operations.
  • the display unit 15 is for displaying various images, and is, for example, a liquid crystal display or an organic EL display.
  • the sound output unit 16 is for outputting sound data, and is, for example, a speaker or headphones.
  • the operation unit 14 and the display unit 15 are integrally formed as a touch panel TP.
  • the touch panel TP can detect a position touched by a user's part (such as a finger) or an object (such as a touch pen).
  • Various types of touch panels can be used as the touch panel TP. “Touch” means that the user's part or object touches the touch panel TP.
  • the server 30 is, for example, a server computer. As shown in FIG. 1, the server 30 includes a control unit 31, a storage unit 32, and a communication unit 33.
  • the control unit 31, the storage unit 32, and the communication unit 33 are the same as the control unit 11, the storage unit 12, and the communication unit 13 of the game terminal 10.
  • the server 30 can access the database DB.
  • the database DB may be built in the server 30 or may be built in a server computer different from the server 30.
  • the program and data are supplied to the game terminal 10 or the server 30 via the network N and stored in the storage unit 12 or the storage unit 32.
  • the game terminal 10 or the server 30 may include a component (for example, an optical disk drive or a memory card slot) for reading a program or data stored in an information storage medium (for example, an optical disk or a memory card).
  • a program and data may be supplied to the game terminal 10 or the server 30 via an information storage medium.
  • the game system 1 can execute various games such as a sports game, an action game, or a role-playing game.
  • the user performs an operation by touching the touch panel TP.
  • a user's operation target operates according to an operation performed by touching the touch panel TP.
  • the “operation target” is an object to be operated by the user.
  • the “operation target” is an object that operates according to a user's operation or whose state changes.
  • the “object” is displayed on the display unit 15 and can be an operation target by the user.
  • a game character or vehicle that operates according to the user's operation, a cursor that moves according to the user's operation, and the like correspond to an example of the “object”.
  • the “virtual world” is the world in the game.
  • the “virtual world” may be a three-dimensional space or a two-dimensional plane.
  • the “virtual world” can be restated as a virtual space or a game space.
  • the “opponent” may be a computer (CPU) or another user.
  • the game may be a stand-alone game executed by the game terminal 10 alone, or a client / server game executed by data communication between the game terminal 10 and the server 30. Also good. In the following description, it is assumed that the soccer game is basically executed in a stand-alone format.
  • FIG. 2 is a diagram showing an example of a virtual world.
  • the virtual world VW represents a virtual soccer field in a three-dimensional space, for example.
  • a predetermined position is set as the origin Ow in the virtual world VW, and an Xw axis, a Yw axis, and a Zw axis (coordinate axes of the world coordinate system) orthogonal to each other are set.
  • the position in the virtual world VW is specified by the coordinate value of the world coordinate system.
  • a pitch PT which is a 3D model of the pitch is arranged so as to be parallel to the Xw-Zw plane.
  • a touch line TL On the pitch PT, a touch line TL, a goal line EL, a halfway line HL, and the like are drawn.
  • a user character UC On the pitch PT, a user character UC, an opponent character OC, a ball B which is a 3D model of the ball, and a goal GL which is a 3D model of the goal are arranged.
  • the user character UC is a game character belonging to the user team
  • the opponent character OC is a game character belonging to the opponent team.
  • a virtual viewpoint VC is set in the virtual world VW.
  • the virtual viewpoint VC is a viewpoint set in the virtual world VW, for example, a virtual camera.
  • the position and the line-of-sight direction of the virtual viewpoint VC are controlled so that, for example, at least one of the user character UC and the ball B that is the user's operation target is included in the visual field. Note that the position and line-of-sight direction of the virtual viewpoint VC may be fixed.
  • a virtual world image showing the virtual world VW viewed from the virtual viewpoint VC is displayed on the display unit 15.
  • FIG. 3 is a diagram illustrating an example of an image displayed on the display unit 15 during a soccer game match.
  • the virtual world image G ⁇ b> 1 is displayed on the display unit 15.
  • the virtual world image G1 is displayed by coordinate-transforming the state in the visual field of the virtual viewpoint VC in the virtual world VW.
  • the images of the virtual first button E18-1 and the second button E18-2 are displayed at predetermined positions on the virtual world image G1.
  • the first button E18-1 and the second button E18-2 will be described later.
  • a predetermined position (for example, the upper left of the display area) is set as the origin Os, and an Xs axis and a Ys axis (coordinate axes of the screen coordinate system) orthogonal to each other are set.
  • the display area is, for example, the entire screen of the display unit 15.
  • the position on the display area is specified by the coordinate value of the screen coordinate system.
  • the Xs coordinate value of the right end portion of the display area is described as Xmax
  • the end Ys coordinate value of the display area is described as Ymax.
  • the touch position detected by the touch panel TP is also indicated by the coordinate value of the screen coordinate system, but the touch position may be indicated by the coordinate value of another coordinate axis.
  • the user plays a soccer game while viewing the virtual world image G1.
  • any of a plurality of user characters UC belonging to the user team is set as a user's operation target.
  • a cursor C for identifying that the operation target user character UC is set as the operation target is displayed at the foot of the operation target user character UC.
  • the user character UC to be operated operates according to the user's operation. For example, the user character UC to be operated moves in the direction instructed by the user by the direction instruction operation, or performs an action (pass, shoot, sliding, etc.) instructed by the user by the action instruction operation.
  • the user characters UC other than the operation target act autonomously according to a predetermined algorithm or the like.
  • the operation target may be switched among a plurality of user characters UC during the game, or may be fixed to a specific user character UC.
  • the user character UC holding the ball B is set as the operation target at the time of attack
  • the user character UC closest to the opponent character OC holding the ball B is set at the defense.
  • the operation target is, for example, a state in which the user team holds the ball B.
  • “when defensive” is, for example, a state where the opponent team holds the ball B.
  • the state where the ball B is not held by any team may be classified at the time of attack or may be classified at the time of defense.
  • the touch panel TP Various operations on the user character UC to be operated are performed via the touch panel TP.
  • the area on the touch panel TP is divided into a plurality of operation areas.
  • a separate operation system is defined for each operation area, and the user performs an operation according to the touched operation area.
  • FIG. 4 is a diagram illustrating an example of a plurality of areas set on the touch panel TP.
  • the left area LA and the right area RA are set with the center of the touch panel TP as a boundary.
  • the left area LA is an area having an Xs coordinate of less than Xmax / 2
  • the right area RA is an area having an Xs coordinate of Xmax / 2 or more.
  • the left area LA is mainly used for performing a movement instruction operation on the user character UC.
  • the right area RA is mainly used for performing an operation other than the movement instruction operation for the user character UC.
  • the first button E18-1 and the second button E18-2 described above are displayed in the right area RA, and these buttons are used to perform operations other than the movement instruction operation on the user character UC.
  • the center of the touch panel TP is the boundary of the operation area, but the boundary of the operation area may be set at an arbitrary place.
  • the left area LA and the right area RA are set, but the number of operation areas set on the touch panel TP is not limited to two and may be three or more.
  • FIG. 5 is a diagram for explaining the movement instruction operation.
  • the user character UC, the opponent character OC, etc., and the first button E18-1 and the second button E18-2, which are located within the field of view of the virtual viewpoint VC, are displayed on the display unit 15. In FIG. 5, it is omitted for the sake of simplicity.
  • the user touches the left area LA of the touch panel TP as shown in FIG.
  • an image of a virtual direction pad E10 (direction button) is displayed in the left area LA.
  • the direction pad E10 is for receiving a direction instruction operation, and is used by the user to instruct (input) the direction. Even if the user starts touching the right area RA, the direction pad E10 is not displayed in the right area RA.
  • FIG. 6 is a diagram for explaining the direction pad E10, and shows the direction pad E10 when the touch to the left area LA is started.
  • the direction pad E10 includes a base portion E11 and a pointer portion E13.
  • the base portion E11 corresponds to the main body of the direction pad E10, and in the example shown in FIG. 6, has a circular shape centered on the center point E12.
  • the pointer portion E13 indicates the touch position T of the user.
  • the pointer portion E13 has a circular shape centered on the center point E14.
  • both the base part E11 and the pointer part E13 have a circular shape, but the base part E11 and the pointer part E13 may not be circular or may have different shapes. .
  • the display position of the direction pad E10 is set based on the touch position T of the user.
  • the direction pad E10 is arranged such that the center point E12 of the base portion E11 coincides with the touch position T of the user.
  • the pointer part E13 is also arranged so that the center point E14 of the pointer part E13 coincides with the touch position T of the user. Since the center point E12 of the base portion E11 corresponds to the center point of the entire direction pad E10, the center point E12 may be described as the center point of the direction pad E10 below.
  • the “slide operation” is an operation in which the user moves the finger F or the like with the finger F or the like touching the touch panel TP, and maintains the touch even after the movement.
  • two modes of a normal mode and a sensitive mode are prepared as the operation mode of the direction pad E10.
  • the way in which the pointer portion E13 moves is different between the normal mode and the sensitive mode.
  • FIG. 7 shows an example of the operation mode selection image.
  • the operation mode selection image G2 includes an option button E20-1 that is a display element for selecting the normal mode, an option button E20-2 that is a display element for selecting the sensitive mode, And a setting button E21 which is a display element for confirming selection of the operation mode.
  • the tap operation is performed on the option button E20-1
  • the normal mode is selected.
  • the option button E20-2 the sensitive mode is selected.
  • the setting button E21 the operation mode in the selected state is set.
  • the tap operation is performed on the setting button E21. And the selected operation mode is set.
  • the “tap operation” is an operation of tapping the touch panel TP once. Data indicating the selection result of the user is stored in the storage unit 12 (or the storage unit 32, the database DB) and is referred to when the game is played.
  • the normal mode In the normal mode, the pointer portion E13 moves in the same movement direction as the touch position T at the same movement speed. That is, the pointer portion E13 moves in the same direction as the movement direction of the touch position T by the same distance as the movement distance of the touch position T. For this reason, the center point E14 of the pointer portion E13 always coincides with the touch position T.
  • FIG. 8 shows a case where the user moves the touch position T in the normal mode.
  • the user moves the touch position T upward with respect to the center point E12 of the base portion E11.
  • the center point E14 of the pointer portion E13 also moves upward with respect to the center point E12. .
  • the direction D from the center point E12 to the center point E14 of the pointer portion E13 is determined as the direction (instructed direction) indicated by the user. Therefore, for example, as shown in FIG. 8, the user can instruct an upward direction by moving the touch position T to a position above the center point E12. Further, for example, the user can instruct the right direction by moving the touch position T to the right position with respect to the center point E12.
  • the directions that can be indicated by the user are not limited to the four directions of up, down, left, and right.
  • the user can specify any direction of 360 degrees around the center point E12.
  • the directions that can be indicated by the user may be limited to a finite number of directions such as four directions or eight directions (up, down, left, right, upper left, upper right, lower left, lower right).
  • the directions that can be designated by the user are limited to eight directions, the direction closest to the direction D among the eight directions may be determined as the designated direction.
  • the user character UC to be operated moves in the direction of the virtual world VW corresponding to the user's instruction direction.
  • Each direction in the direction pad E10 is associated with each direction of the virtual world VW.
  • the upward direction, the downward direction, the right direction, and the left direction in the direction pad E10 are respectively associated with the Zw-axis positive direction, the Zw negative direction, the Xw positive direction, and the Xw negative direction of the virtual world VW. Therefore, when the user designates the upward direction with the direction pad E10, the operation target user character UC performs a movement operation in the positive direction of the Zw axis (a dribbling operation when the ball B is held).
  • the user can instruct the moving direction of the user character UC to be operated by adjusting the relative position of the touch position T with respect to the center point E12.
  • the moving speed of the operation target user character UC is set based on the distance L between the center point E12 of the direction pad E10 and the center point E14 of the pointer portion E13 (that is, the touch position T). For example, correspondence information indicating the correspondence between the distance L and the moving speed is set, and the moving speed of the user character UC to be operated is set based on the correspondence information and the distance L. This correspondence information is set so that, for example, the moving speed increases as the distance L increases. Therefore, the user can instruct the moving speed as well as the moving direction of the user character UC to be operated by adjusting the distance between the center point E12 and the touch position T.
  • the direction pad E10 moves as the touch position T moves from the inside of the direction pad E10 to the outside. That is, the touch position T is always located within the direction pad E10.
  • FIG. 9A and 9B are diagrams for explaining the movement of the direction pad E10.
  • the center point E12 of the direction pad E10 is located at the position PA.
  • the touch position T and the center point E14 of the pointer portion E13 are located at a position PB (a position on the upper right side with respect to the center point E12).
  • the direction DA upper right direction
  • the user character UC to be operated moves in the moving direction corresponding to the direction DA at the moving speed corresponding to the distance LX between the center points E12 and E14.
  • the user changes the touch position T to a position PC outside the direction pad E10 (a position on the right side with respect to the center point E12) in order to change the pointing direction from the upper right direction (direction DA) to the right direction.
  • a position PC outside the direction pad E10 a position on the right side with respect to the center point E12
  • the direction DC to the position PC which is the position, is determined as the moving direction of the direction pad E10.
  • the direction DC includes a direction DA from the position PA to the position PB (that is, an instruction direction before the movement of the touch position T (FIG. 9A)) and a direction DB from the position PB to the position PC (that is, the movement direction of the touch position T). ). That is, the direction DC is a direction indicated by a combined vector of a vector from the position PA to the position PB and a vector from the position PB to the position PC.
  • a position PE on the straight line extending from the position PA in the direction DC and separated from the position PC by the distance LX between the position PA and the position PB is determined as the movement destination position of the direction pad E10.
  • the direction pad E10 is translated in the direction DC so that the center point E12 coincides with the position PE.
  • the “translation” is to move all points of the direction pad E10 by a certain distance in a certain direction.
  • the direction DD (right direction) from the position PE (center point E12 of the direction pad E10) to the position PC (center point E14 of the pointer portion E13) is acquired as the designated direction.
  • the instruction direction (right direction) intended by the user is acquired on the game side.
  • the present embodiment in consideration of both the pointing direction (direction DA in FIGS. 9A and 9B) before the touch position T moves and the moving direction of the touch position T (direction DB in FIGS.
  • the movement of the direction pad E10 as described above may be executed one or more times to move the direction pad E10 into the right region RA.
  • the right area RA is an area for operations other than the movement instruction operation of the user character UC
  • the direction pad E10 is displayed in the right area RA even when the user starts touching the right area RA.
  • the direction pad E10 also moves into the right area RA. I have to. For this reason, even if the touch position enters the right area RA while the user performs the direction instruction operation via the direction pad E10, the user can continue the direction instruction operation.
  • the sensitive mode is common to the normal mode in that the pointer portion E13 moves in the same movement direction as the touch position T, but is different from the normal mode in that the pointer portion E13 moves at a movement speed faster than the touch position T. That is, in the sensitive mode, the pointer portion E13 moves in the same direction as the movement direction of the touch position T by a distance longer than the movement distance of the touch position T.
  • FIG. 11 is a diagram for explaining an example of the direction pad E10 in the sensitive mode. Similar to FIG. 6, FIG. 11 shows the directional pad E ⁇ b> 10 when the touch to the left area LA is started.
  • the direction pad E10 includes a base portion E11 and a pointer portion E13 even in the sensitive mode.
  • a reference region E15 that is a region smaller than the direction pad E10 (base portion E11) is set.
  • the reference area E15 corresponds to an area obtained by reducing the display area of the base portion E11 to 1 / n.
  • the reference area E15 corresponds to an area obtained by reducing the display area of the base portion E11 to 1 ⁇ 2. That is, the direction pad E10 (base portion E11) is a circular region having a radius R centered on the center point E12, whereas the reference region E15 is a circular region having a radius R / 2 centered on the center point E12. Yes.
  • FIG. 12A shows a case where the touch position T has moved to a position away from the center point E12 by a distance L in the right direction.
  • the pointer portion E13 moves to the position away from the center point E12 in the right direction by a distance twice as long as the distance L. That is, the pointer portion E13 moves in the same direction as the movement direction of the touch position T by a distance twice the movement distance of the touch position T.
  • the direction D (right direction) from the center point E12 to the center point E14 is acquired as the user instruction direction, and the movement direction of the user character UC to be operated is set to a direction corresponding to the direction D.
  • the distance (L * 2) between the center points E12 and E14 is acquired, and the moving speed of the user character UC to be operated is set to a speed corresponding to the distance (L * 2).
  • “*” is a multiplication operator.
  • FIG. 12B shows a case where the touch position T has moved to a position away from the center point E12 by a distance L in the left direction.
  • the pointer portion E13 moves to the position away from the center point E12 in the left direction by a distance twice as long as the distance L.
  • the direction D (left direction) from the center point E12 to the center point E14 is acquired as the user instruction direction, and the movement direction of the operation target user character UC is set to a direction corresponding to the direction D. Further, the distance (L * 2) between the center points E12 and E14 is acquired, and the moving speed of the user character UC to be operated is set to a speed corresponding to the distance (L * 2).
  • the pointer portion E13 moves only the same distance as the movement distance of the touch position T. Therefore, in the case of a user having the above-described tendency, the pointer portion E13 does not move greatly, thereby moving the moving speed of the user character UC. May not be fast.
  • the pointer portion E13 moves twice as much as the moving distance of the touch position T. Therefore, even if the user has the above tendency, the pointer portion E13 moves greatly. The inconvenience as described above is less likely to occur.
  • the touch position T needs to be moved from the center point E14 in FIG. 12A to the position of the center point E14 in FIG.
  • the moving distance of the touch position T is not sufficient, the pointer portion E13 does not move to the position shown in FIG. 12B, and in some cases, the pointer portion E13 is moved to the direction pad E10. May not move to a position to the left of the center point E12.
  • the game side determines that the right direction is instructed.
  • the pointer portion E13 moves twice as much as the moving distance of the touch position T. Therefore, even if the user has the above tendency, the pointer portion E13 moves greatly. The inconvenience as described above is less likely to occur.
  • the direction pad E10 (the base portion E11 and the reference area E11) is set so that the touch position T is located in the reference area E15. E15) moves.
  • 13A and 13B are diagrams for explaining movement of the direction pad E10 (base portion E11 and reference region E15) in the sensitive mode.
  • the center point E12 of the direction pad E10 is located at the position PF.
  • the touch position T is located at the position PG (upper right position with respect to the center point E12).
  • the position PG is separated from the center point E12 by a distance LY.
  • the center point E14 of the pointer portion E13 is located at a position PI (upper right position with respect to the center point E12) that is twice the distance LY in the direction from the center point E12 to the position PG.
  • the direction DE from the position PF (the center point E12 of the direction pad E10) to the position PI (the center point E14 of the pointer unit E13) is acquired as the designated direction.
  • the operation target user character UC moves in the moving direction corresponding to the direction DE at a moving speed corresponding to the distance LY * 2.
  • the user moves the touch position T from the position PG toward the position PH outside the reference area E15 in order to change the designated direction from the upper right direction (direction DE) to the right direction, as shown in FIG. 13B.
  • the center point E14 of the pointer portion E13 moves to a position PJ outside the base portion E11.
  • the direction pad E10 (base portion E11 and reference region E15) moves to the right as shown in FIG. 13B.
  • the dashed line indicates the base portion E11 and the reference region E15 before movement.
  • the direction DG from the position PF that is the position of the center point E12 before the movement of the touch position T (FIG. 13A) to the position PH that is the movement destination position of the touch position T is set as the movement direction of the direction pad E10. decide.
  • the direction DG includes a direction DE from the position PF to the position PG (that is, a designated direction before the movement (FIG.
  • the direction DG is a direction indicated by a combined vector of a vector from the position PF to the position PG and a vector from the position PG to the position PH.
  • the position PK is a position on a straight line extending from the position PF in the direction DG and is separated from the position PH by a distance LY (a distance between the center point E12 and the touch position T before the movement (FIG. 13A)).
  • the movement destination position of the pad E10 is determined.
  • the direction pad E10 base portion E11 and reference region E15
  • the direction pad E10 base part E11 and reference area E15
  • the direction DH (right) from the moved center point E12 (position PK) to the center point E14 (position PJ) of the pointer part E13.
  • Direction is acquired as the indicated direction.
  • the movement direction (direction DG) of the direction pad E10 is determined in consideration of both the instruction direction (direction DE) before the movement and the movement direction (direction DF) of the touch position T. Therefore, the instruction direction intended by the user after the movement is acquired on the game side. For this reason, the user character UC to be operated moves in the direction intended by the user.
  • the distance between the center points E12 and E14 is the same distance (LY * 2) before the movement (FIG. 13A) and after the movement (FIG. 13B) of the direction pad E10. Later, the user character UC to be operated moves at the same moving speed.
  • the movement of the direction pad E10 (the base portion E11 and the reference area E15) as described above may be executed one or more times to move the direction pad E10 into the right area RA. .
  • the sensitive mode as in the normal mode (FIG. 10), when the user touch position moves to the right area RA after the direction pad E10 is displayed in the left area LA, the direction pad E10 is also in the right area RA. Move to. For this reason, even if the touch position enters the right area RA while the user performs the direction instruction operation via the direction pad E10, the user can continue the direction instruction operation.
  • FIG. 14 is a diagram illustrating an example of the operation instruction operation. Note that although the user character UC, the opponent character OC, and the like that are actually located within the field of view of the virtual viewpoint VC are displayed, they are omitted in FIG. 14 for simplicity of explanation.
  • the user When performing an operation instruction operation on the operation target user character UC, the user operates the right area RA of the touch panel TP.
  • the first button E18-1 and the second button E18-2 displayed in the right area RA are associated with actions performed by the user character UC.
  • the first button E18-1 is associated with “path”. Therefore, for example, as shown in FIG. 14, when the user touches the first button E18-1 while the user character UC to be operated has the ball B and can pass, the user to be operated The character UC makes a pass. Note that if the user touches the first button E18-1 in a state where the operation target user character UC cannot pass, the pass preparation state is set, and the operation target user character UC may pass. The user character UC to be operated may be made to pass after waiting for a possible state.
  • the second button E18-2 is associated with “shoot”. Therefore, when the user performs a tap operation on the second button E18-2 in a state where the user character UC to be operated has the ball B in the enemy team and can shoot, the user character to be operated UC takes a shot. At this time, the strength (or angle) of the shoot is determined according to the time taken by the user for the tap operation (ie, the time from when the user touches the second button E18-2 with the finger etc. until the finger is released from the touch panel TP). ) May be set.
  • the user when the user performs a tap operation on the second button E18-2 in a state where the operation target user character UC is not capable of shooting, the user enters the shooting preparation state, and the operation target user character UC
  • the user character UC that is the operation target may be caused to shoot after waiting for a state in which the shoot can be performed.
  • the “enemy team” is an area on the goal GL side of the opponent team with respect to the halfway line HL in the pitch PT.
  • the operation associated with the first button E18-1 or the second button E18-2 may be different between when attacking and when defending.
  • the user character UC to be operated may perform sliding.
  • the motion associated with the first button E18-1 or the second button E18-2 may differ depending on the position of the user character UC to be operated.
  • the user performs a tap operation on the second button E18-2 in a state where the user character UC to be operated has the ball B on its own side the user character UC to be operated will You may make it kick out largely so that it may keep away from the goal GL of a user team.
  • “Own team” is an area on the goal GL side of the user team with respect to the halfway line HL in the pitch PT.
  • virtual button images such as the first button E18-1 and the second button E18-2 may not be displayed in the right area RA.
  • the operation target user character UC performs an action associated with the operation performed by the user. May be.
  • the “flick operation” is, for example, an operation for releasing the touch by quickly moving the touch position while maintaining the touch after the user touches the touch panel TP.
  • the “double tap operation” is, for example, an operation in which the tap operation is continuously performed twice.
  • FIG. 15 is a functional block diagram showing main functional blocks implemented in the game system 1.
  • the game system 1 includes a data storage unit 100, a selection receiving unit 110, an area setting unit 120, an operation position acquisition unit 130, an instruction direction acquisition unit 140, a process execution unit 150, and an area movement unit 160. Including.
  • these functional blocks are realized by the game terminal 10. That is, the data storage unit 100 is realized by the storage unit 12, and the other functional blocks are realized by the control unit 11.
  • the data storage unit 100 may be realized by a storage unit of another device accessible from the game terminal 10.
  • the functional block described above may be realized by the server 30.
  • some of the functional blocks may be realized by the game terminal 10 and the rest may be realized by the server 30.
  • the data storage unit 100 stores data necessary for executing the game.
  • game situation data D101 and operation situation data D102 will be described as examples of data stored in data storage unit 100.
  • the game status data D101 is data indicating the status of the game being executed.
  • the game situation data D101 is repeatedly updated during the execution of the game.
  • the game situation data D101 includes data indicating the current situation of the virtual world VW and data indicating the game situation of the game.
  • the data indicating the current state of the virtual world VW includes, for example, data indicating the state of each game character, the state of the ball B, and the state of the virtual viewpoint VC.
  • the data indicating the state of the game character is set as, for example, data indicating the identification information, position, orientation, posture, moving direction, moving speed, and the like of each of the user character UC and the opponent character OC, and the operation target.
  • the data indicating the state of the ball B includes, for example, data indicating the position, moving direction, moving speed, and the like of the ball B, and data for identifying the game character holding the ball B.
  • the data indicating the state of the virtual viewpoint VC includes, for example, data indicating the position, line-of-sight direction, angle of view, etc. of the virtual viewpoint VC.
  • the data indicating the game situation includes, for example, data indicating the score of the user team, the score of the opponent team, the elapsed time of the game, and the like.
  • the operation status data D102 is data indicating the operation status of the user.
  • the operation status data D102 includes data indicating a history of touch positions from when the touch on the touch panel TP is started until now.
  • the operation status data D102 includes data regarding the direction pad E10.
  • the data related to the direction pad E10 includes data indicating the operation mode of the direction pad E10, data indicating whether or not the direction pad E10 is displayed, and data indicating the current position of the direction pad E10 (center points E12 and E14). including.
  • the data stored in the data storage unit 100 is not limited to the above example.
  • the data storage unit 100 also stores other data necessary for executing the game. For example, data for identifying the left area LA and the right area RA (for example, coordinate data indicating positions such as boundaries and edges) is also stored. Further, for example, motion data in which the character defines the motion, and data indicating the relationship between the operation content and the character motion are also stored.
  • the area setting unit 120 includes a reception area setting unit 121.
  • the reception area setting unit 121 sets a reception area for receiving a direction instruction operation on the touch panel TP.
  • the “direction instruction operation” is an operation performed by the user to instruct (input) a direction.
  • “setting the reception area on the touch panel” means setting a partial area of the touch panel TP as the reception area.
  • “Reception area” is an area used to accept a direction instruction operation.
  • the “reception area” may be a visible area or an invisible area. That is, the “reception area” may or may not be displayed.
  • the area where the virtual operation member is displayed is a “reception area”. It corresponds to.
  • a non-display area set separately from the area where the virtual operation member is displayed may correspond to the “acceptance area”.
  • the “reception area” is set when a touch on the touch panel TP is started. In this case, a “reception area” is set based on the touch position.
  • an area including the touch position is set as the “acceptance area”.
  • the “reception area” may be set even when the touch panel TP is not touched.
  • the initial position of the “reception area” may be set to a predetermined position.
  • the direction pad E10 base portion E11
  • the direction pad E10 base portion E11
  • the area where the direction pad E10 (base part E11) is displayed corresponds to an example of the “acceptance area”.
  • the reception area setting unit 121 sets the reception area in the first area based on the touch position, and the second area other than the first area of the touch panel.
  • the reception area is not set when the inside is touched.
  • the left area LA of the touch panel TP corresponds to an example of “first area”
  • the right area RA corresponds to an example of “second area”.
  • the right area RA may correspond to an example of “first area”
  • the left area LA may correspond to an example of “second area”.
  • One of the upper region and the lower region set with the center of the touch panel TP as a boundary may correspond to an example of a “first region”, and the other may correspond to an example of a “second region”.
  • the reception area setting unit 121 places the direction pad E10 (an example of the reception area) in the left area LA. To display. In this case, the reception area setting unit 121 displays the direction pad E10 with the touch position T as the center point E12. Even if the touch on the right area RA (an example of the second area) of the touch panel TP is started, the reception area setting unit 121 does not display the direction pad E10.
  • the region setting unit 120 includes a corresponding region setting unit 122.
  • the corresponding area setting unit 122 is a functional block related to the above-described soccer game sensitive mode.
  • the corresponding area setting unit 122 sets a corresponding area smaller than the reception area.
  • the corresponding area setting unit 122 sets a corresponding area in the first area based on the touch position when the first area of the touch panel TP is touched, and a second area other than the first area of the touch panel. The corresponding area is not set when the inside is touched.
  • the “corresponding area” is an area corresponding to the receiving area and smaller than the receiving area.
  • the “corresponding area” is an area corresponding to an area obtained by reducing the reception area.
  • the “corresponding area” is an area corresponding to an area obtained by reducing the reception area to 1 / n (a positive numerical value greater than n: 1).
  • the “corresponding area” is an invisible area and is not displayed on the display unit 15.
  • the “corresponding region” may be a visible region or may be displayed on the display unit 15.
  • the “corresponding area” is set so that the reference position (for example, the center point) matches the reception area.
  • the reference area E15 in the sensitive mode corresponds to an example of “corresponding area”. That is, in the case of the above-described soccer game, when the touch on the left area LA (an example of the first area) of the touch panel TP is started in the state where the sensitive mode is selected, the corresponding area setting unit 122 displays the direction pad An invisible area corresponding to an area obtained by reducing the display area (an example of “acceptance area”) of the base portion E11 of E10 to 1 ⁇ 2 is set as a reference area E15 in the left area LA. In this case, the corresponding area setting unit 122 sets the reference area E15 around the touch position T (in other words, the center point E12 of the base part E11). Even when the touch on the right area RA (an example of the second area) of the touch panel TP is started in the state where the sensitive mode is selected, the corresponding area setting unit 122 does not set the reference area E15.
  • the operation position acquisition unit 130 acquires (sets) an operation position corresponding to the touch position of the touch panel TP.
  • the “touch position of the touch panel TP” is a position touched when the touch panel TP is touched.
  • the “operation position” is an operation position related to a direction instruction operation. That is, the “operation position” is a position for indicating a direction. In other words, the “operation position” is a position indicating the instruction direction.
  • the center point E14 of the pointer portion E13 corresponds to an example of “operation position”.
  • “Acquiring (setting) the operation position according to the touch position” means, for example, acquiring (setting) the touch position itself as the operation position.
  • “obtain (set) the operation position according to the touch position” refers to, for example, acquiring (setting) a position other than the touch position and obtained based on the touch position as the operation position. It may be.
  • “acquiring an operation position corresponding to a touch position” may be acquiring (setting) a position having a predetermined relationship with the touch position as an operation position.
  • the operation position acquisition unit 130 moves the operation position according to the movement of the touch position.
  • moving the operation position according to the movement of the touch position means, for example, moving the operation position in a direction corresponding to the movement direction of the touch position.
  • the “direction corresponding to the moving direction of the touch position” is a direction having a predetermined correspondence with the moving direction of the touch position.
  • the “direction corresponding to the moving direction of the touch position” is the same direction as or substantially the same direction as the moving direction of the touch position.
  • the “direction corresponding to the moving direction of the touch position” may not be the same direction as the moving direction of the touch position, or may be another direction having a predetermined correspondence with the moving direction of the touch position.
  • the “substantially the same direction as the direction X” is a direction deviated from the direction X so small that the user cannot recognize it.
  • “moving the operation position according to the movement of the touch position” means, for example, moving the operation position by a distance corresponding to the movement distance of the touch position.
  • the “distance corresponding to the movement distance of the touch position” is a distance having a predetermined correspondence with the movement distance of the touch position.
  • the “distance corresponding to the movement distance of the touch position” is the same distance or substantially the same distance as the movement distance of the touch position.
  • the “distance corresponding to the movement distance of the touch position” may be a distance obtained by multiplying the movement distance of the touch position by a predetermined coefficient (a positive value greater than 1). It may be a distance obtained by adding a predetermined distance to the moving distance.
  • the “distance substantially the same as the distance X” is a distance that is small enough to be unrecognizable by the user and different from the distance X.
  • the operation position acquisition unit 130 includes a first operation position moving unit 131 and a second operation position moving unit 132.
  • the first operation position moving unit 131 is a functional block related to the above-described soccer game normal mode
  • the second operation position moving unit 132 is a functional block related to the above-described soccer game sensitive mode.
  • the first operation position moving unit 131 moves the operation position in the direction corresponding to the movement direction of the touch position in accordance with the movement of the touch position.
  • the operation position is moved by the movement distance of the touch position in a direction corresponding to the movement direction of the touch position
  • the touch position is moved from the current operation position to the direction corresponding to the movement direction of the touch position”. Is set as a new operation position.
  • the second operation position moving unit 132 moves the operation position in a direction corresponding to the movement direction of the touch position by a distance longer than the movement distance of the touch position according to the movement of the touch position.
  • the “distance longer than the moving distance of the touch position” is, for example, a distance obtained by multiplying the moving distance of the touch position by a predetermined coefficient (a positive value greater than 1).
  • the “distance longer than the moving distance of the touch position” may be a distance obtained by adding a predetermined distance to the moving distance of the touch position, for example.
  • “Move the operating position in a direction corresponding to the moving direction of the touch position by a distance longer than the moving distance of the touch position” means “touching from the current operating position in the direction corresponding to the moving direction of the touch position. A position that is longer than the moving distance of the position is set as a new operation position.
  • the second operation position moving unit 132 sets the operation position so that the positional relationship between the operation position and the reference position corresponding to the reception area corresponds to the positional relationship between the touch position and the reference position corresponding to the corresponding area.
  • the second operation position moving unit 132 moves the operation position in the direction corresponding to the movement direction of the touch position according to the movement of the touch position, and the movement distance of the touch position according to the relative size of the reception area with respect to the corresponding area. The distance obtained by lengthening is moved.
  • the operation position is set so that the positional relationship between the operation position and the reference position corresponding to the reception area corresponds to the positional relationship between the touch position and the reference position corresponding to the corresponding area” is
  • the direction from the reference position corresponding to the area to the operation position is the direction corresponding to the direction from the reference position corresponding to the corresponding area to the touch position
  • the distance between the reference position corresponding to the reception area and the operation position Is to set the operation position so that the distance corresponds to the distance between the reference position corresponding to the corresponding area and the touch position.
  • the “direction corresponding to the direction from the reference position to the touch position” is a direction having a predetermined correspondence with the direction from the reference position to the touch position.
  • the direction is the same as or substantially the same as the direction from the reference position to the touch position.
  • the direction may not be the same as or substantially the same as the direction from the reference position to the touch position, and may be another direction having a predetermined correspondence with the direction from the reference position to the touch position.
  • the “distance corresponding to the distance between the reference position and the touch position” is a distance having a predetermined correspondence with the distance between the reference position and the touch position.
  • the distance obtained by multiplying the distance between the reference position and the touch position by a predetermined coefficient may be used, or the distance between the reference position and the touch position may be predetermined. This is the distance obtained by adding the distance.
  • the distance may be the same or substantially the same as the distance between the reference position and the touch position.
  • the “distance obtained by increasing the moving distance of the touch position according to the relative size of the reception area with respect to the corresponding area” is, for example, a coefficient ( This is a distance obtained by multiplying the moving distance of the touch position by a positive numerical value greater than 1. Alternatively, for example, it may be a distance obtained by adding a distance according to the relative size of the reception area with respect to the corresponding area to the movement distance of the touch position.
  • the second operation position moving unit 132 responds to the movement of the touch position.
  • the operation position is moved in a direction corresponding to the movement direction of the touch position by a distance obtained by multiplying the movement distance of the touch position by n times.
  • the operation position acquisition unit 130 acquires the touch position T (an example of the operation position) so that the position becomes the center point E14. To display the pointer portion E13.
  • the operation position acquisition unit 130 (second operation position moving unit 132) is located between the center point E12 and the touch position T in the direction from the center point E12 of the base unit E11 to the touch position T. A position (another example of the operation position) that is twice the distance is acquired, and the pointer portion E13 is displayed so that the position becomes the center point E14.
  • the indication direction acquisition unit 140 acquires the indication direction based on the direction from the reference position corresponding to the reception area to the operation position.
  • the “reference position corresponding to the reception area” is a position that is used as a reference when acquiring the indicated direction.
  • the position of a representative point in the reception area is set as the “reference position”.
  • the center point of the reception area is set as the “reference position”.
  • a position other than the center point of the reception area may be set as the “reference position”.
  • the center point E12 of the direction pad E10 base portion E11 corresponds to an example of “reference position”.
  • “Instructed direction” is a direction instructed by a direction instruction operation.
  • the “instruction direction” is a direction designated (input) by the user.
  • “acquiring the indicated direction based on the direction from the reference position to the operation position” means, for example, acquiring a direction corresponding to the direction from the reference position to the operation position as the indicated direction.
  • the “direction corresponding to the direction from the reference position to the operation position” is a direction having a predetermined correspondence with the direction from the reference position to the operation position.
  • the “direction corresponding to the direction from the reference position to the operation position” is the same direction or substantially the same direction as the direction from the reference position to the operation position.
  • the directions that can be indicated by the user are limited to a finite number of directions (for example, four directions or eight directions), the “direction corresponding to the direction from the reference position to the operation position” Of the finite number of directions, this is the direction closest to the direction from the reference position to the operation position.
  • the instruction direction acquisition unit 140 acquires the direction from the center point E12 of the direction pad E10 (base part E11) to the center point E14 of the pointer part E13 as the instruction direction. For example, in the state illustrated in FIG. 8, the instruction direction acquisition unit 140 acquires the upward direction as the instruction direction. For example, in the state illustrated in FIGS. 9A and 13A, the instruction direction acquisition unit 140 acquires the upper right direction as the instruction direction. For example, in the state shown in FIGS. 9B, 12A, and 13B, the instruction direction acquisition unit 140 acquires the right direction as the instruction direction. For example, in the state illustrated in FIG. 12B, the instruction direction acquisition unit 140 acquires the left direction as the instruction direction.
  • the process execution unit 150 executes the process based on the instruction direction acquired by the instruction direction acquisition unit 140. For example, the process execution unit 150 executes the game process based on the instruction direction. The process execution unit 150 may execute the game process based on the instruction direction and the distance between the reference position and the operation position.
  • game processing is processing related to a game.
  • execution game processing based on an instruction direction means, for example, setting a game-related item (such as a parameter) based on the instruction direction.
  • the direction related to the game corresponds to an example of “item related to the game”.
  • “execute the game process based on the instruction direction and the distance between the reference position and the operation position” means that the first matter (first parameter, etc.) relating to the game is based on the instruction direction.
  • setting a second item (second parameter or the like) related to the game based on the distance For example, the direction relating to the game corresponds to an example of “first matter”, and the matter other than the direction relating to the game corresponds to an example of “second matter”.
  • control processing related to the user's operation target corresponds to an example of “game processing”
  • the process execution unit 150 executes the control processing related to the user's operation target.
  • direction related to the operation of the user's operation target corresponds to an example of “direction related to the game”
  • degree (speed or strength, etc.) related to the operation of the user's operation target corresponds to an example of “items other than the direction related to the game”. Equivalent to.
  • “Operation target” is an object to be operated by the user.
  • the “object” is displayed on the display unit 15 and can be a target of an operation by the user.
  • a character or vehicle that moves according to a user's operation, a cursor that moves according to a user's operation, and the like correspond to an example of an “object”.
  • the operation target user character UC corresponds to an example of “operation target”.
  • the “control process related to the operation target” includes, for example, a control process other than the movement control process of the operation target and the movement control process of the operation target.
  • the “operation object movement control process” is a process of moving the operation object.
  • the “control process other than the movement control process for the operation target” is a process for causing the operation target to perform an operation other than the movement operation, for example.
  • the process execution unit 150 executes an operation target movement control process based on the instruction direction.
  • the process execution unit 150 is a control process related to the operation target based on the touch position or the movement locus of the touch position, and a control process other than the movement control process Execute.
  • execution of the movement control process of the operation target based on the designated direction means, for example, moving the operation target in the movement direction based on the designated direction.
  • the “movement locus of the touch position” is a route along which the touch position has moved.
  • the “movement locus of the touch position” is a locus drawn by performing a slide operation or a flick operation while the user touches the touch panel TP with a finger or the like.
  • control process other than the movement control process is, for example, a process for causing the operation target to perform a predetermined operation (an operation other than the movement operation).
  • execution control processing other than the movement control processing based on the touch position or the movement locus of the touch position means, for example, within the second region of the touch panel TP based on the touch position or the movement locus of the touch position. It is determined whether or not a tap operation, a double tap operation, a flick operation, or a slide operation has been performed, and a control process other than the movement control process is executed according to the determination result. Specifically, when a tap operation, a double tap operation, a flick operation, or a slide operation is performed on the second area of the touch panel TP, an operation associated with the performed operation (an operation other than the movement operation) ) To the operation target.
  • “execute a control process other than the movement control process based on the touch position or the movement locus of the touch position” means, for example, an operation associated with the touch position or the movement locus of the touch position (an operation other than the movement operation). ) May be performed on the operation target.
  • the operation target may be caused to perform an operation associated with the display element.
  • the operation target may be caused to perform an operation associated with the predetermined movement locus.
  • the process execution unit 150 executes a process of moving the operation target user character UC (an example of a movement control process) based on the instruction direction. Specifically, the process execution unit 150 sets the movement direction of the operation target user character UC (an example of “direction related to the user operation target motion”) based on the instruction direction. That is, the process execution unit 150 sets the direction in the virtual world VW corresponding to the designated direction as the movement direction of the user character UC to be operated. For example, when the upward direction in the direction pad E10 is associated with the Zw-axis positive direction of the virtual world VW, when the upward direction is acquired as the instruction direction, the process execution unit 150 sets the Zw-axis positive direction as the operation target. The moving direction of the user character UC is set.
  • the process execution unit 150 determines the moving speed of the operation target user character UC (“related to the operation of the user operation target” based on the distance between the center point E12 of the direction pad E10 and the center point E14 of the pointer unit E13.
  • An example of “degree” is set. That is, the process execution unit 150 sets the moving speed corresponding to the distance between the center points E12 and E14 as the moving speed of the user character UC to be operated.
  • the process execution unit 150 passes the operation target user character UC based on the touch position or the movement locus of the touch position. Or the process (an example of "control process other than a movement control process") which performs a chute is performed.
  • the process an example of "control process other than a movement control process" which performs a chute is performed.
  • the process an example of "control process other than a movement control process" which performs a chute is performed.
  • the process execution unit 150 causes the user character UC to be operated to pass, and for the second button E18-2 in the right area RA.
  • the process execution unit 150 causes the user character UC to be operated to shoot.
  • the process execution unit 150 When the flick operation is performed in the right area RA, the process execution unit 150 causes the user character UC to be operated to pass, and when the double tap operation is performed, the process execution unit 150 determines that the operation target is the operation target user character UC.
  • the user character UC may be shot.
  • the pass direction or the shooting direction of the user character UC to be operated may be indicated using the direction pad E10. That is, the process execution unit 150 may set the pass direction or the shooting direction (another example of the “direction related to the user's operation target movement”) of the operation target user character UC based on the instruction direction. Further, the processing execution unit 150 is configured to kick the ball B of the user character UC to be operated during a pass or a shoot based on the distance between the center points E12 and E14 (“degree related to the operation of the user's operation target”). Another example) may be set.
  • the area moving unit 160 includes a first area moving unit 161 and a second area moving unit 162.
  • the first area moving unit 161 is a functional block related to the above-described soccer game normal mode
  • the second area moving unit 162 is a functional block related to the above-described soccer game sensitive mode.
  • the first area moving unit 161 moves the reception area as the operation position moves from the reception area to the outside of the reception area.
  • the first area moving unit 161 is a reference position when the operation position is the first position as the operation position moves from the first position in the reception area toward the second position outside the reception area.
  • the reception area is moved in a direction corresponding to the direction from the third position to the second position.
  • the first region moving unit 161 has a fourth position that is a distance corresponding to the distance between the first position and the third position in the direction corresponding to the direction from the second position to the third position.
  • the reception area is moved so as to be the position.
  • the first area moving unit 161 moves the reception area into the second area as the operation position moves into the second area of the touch panel TP after the reception area is set by the reception area setting unit 121. Move.
  • “move the reception area as the operation position moves from the reception area to the outside of the reception area” means that the operation position moves from a position in the reception area to a position outside the reception area.
  • the reception area is moved according to the movement of the operation position. For example, when the operation position moves from a position in the reception area toward a position outside the reception area, the reception area is moved together with the operation position so that the operation position is included in the reception area.
  • “Move the reception area” means to move the reception area in parallel, that is, to move all points of the reception area in a certain direction by a certain distance.
  • the direction corresponding to the direction from the third position to the second position is, for example, the same direction or substantially the same direction as the direction from the third position to the second position.
  • “Move the reception area in a direction corresponding to the direction from the third position to the second position” is to move the reception area in a direction corresponding to the direction from the third position to the second position, for example. .
  • the reception area is moved in a direction corresponding to the direction from the third position to the second position so that the second position is included in the reception area.
  • the direction corresponding to the direction toward the third position is the same direction as or substantially the same direction as the direction toward the third position.
  • the “distance corresponding to the distance between the first position and the third position” is the same distance as the distance between the first position and the third position or substantially the same distance.
  • the “substantially the same distance as the distance X” is, for example, a distance that is so small that the user cannot recognize it and is different from the distance X.
  • the touch position T (an example of the operation position) is a position PB (first) in the base portion E11 (an example of the reception area) of the direction pad E10.
  • the first area moving unit 161 moves from the position PA (an example of the third position) to the position PC.
  • the base part E11 is moved to DC.
  • the first area moving unit 161 sets the direction pad E10 (an example of the fourth position) so that the center point E12 (an example of the reference position) is a position PD (an example of the fourth position) that is a distance LX in the direction from the position PC to the position PA.
  • the base part E11) is moved.
  • the touch position T is changed to the right area LB (the second area).
  • the first area moving unit 161 moves the direction pad E10 (base part E11 and pointer part E13) into the right area LB.
  • the second area moving unit 162 moves the corresponding area and the receiving area as the touch position moves from the corresponding area to the outside of the corresponding area.
  • the second area moving unit 162 sets the reception area and the corresponding area to the second area as the touch position moves into the second area after the reception area and the corresponding area are set by the area setting unit 120. Move in.
  • the corresponding region and the reception region are moved in accordance with the movement of the touch position from the corresponding region to the outside of the corresponding region” means that the touch position is changed from the position in the corresponding region to the position outside the corresponding region.
  • the corresponding area and the reception area are moved according to the movement of the touch position. For example, when the touch position moves from a position in the corresponding area toward a position outside the corresponding area, the touch position is included in the corresponding area and the operation position is included in the reception area. The corresponding area and the reception area are moved together with the touch position.
  • “Move the corresponding area and reception area” means to move the corresponding area in parallel and to move the reception area in parallel, that is, to move all points of the corresponding area in a certain direction by a certain distance. And moving all the points in the reception area in a certain direction by a certain distance.
  • the touch position T moves from the position PG in the reference area E15 (an example of the corresponding area) toward the position PH outside the reference area E15.
  • the second region moving unit 162 moves the base unit E11 and the reference region E15 in the direction DG from the position PF to the position PH.
  • the second region moving unit 162 sets the direction pad E10 (the base portion E11 and the reference region E15) so that the center point E12 (an example of the reference position) is a position PK that is a distance LY away from the position PH to the position PF. ).
  • the center point E14 (an example of “operation position”) of the pointer portion E13 is a position outside the base portion E11 from the position PI in the base portion E11. This is a case of moving toward the PJ. Therefore, the second region moving unit 162 moves from the position PF to the position PJ when the center point E14 of the pointer unit E13 moves from the position PI in the base part E11 toward the position PJ outside the base part E11. It can also be said that the direction pad E10 (base portion E11 and reference region E15) is moved to the DG.
  • the second region moving unit 162 is arranged so that the center point E12 is at a position PK that is twice the distance LY in the direction from the position PJ to the position PF, and the direction pad E10 (the base part E11 and the reference point). It can also be said that the region E15) is moved.
  • the touch position T is displayed in the right area LB.
  • the second area moving unit 162 moves the direction pad E10 (base part E11, pointer part E13, and reference area E15) into the right area LB.
  • the selection accepting unit 110 accepts selection of either the first operation position moving unit 131 or the second operation position moving unit 132 as means used for moving the operation position.
  • accepting the selection of either the first operation position moving unit 131 or the second operation position moving unit 132 is either the first operation position moving unit 131 or the second operation position moving unit 132. Is displayed on the display unit 15 and a selection operation for selecting one of the first operation position moving unit 131 and the second operation position moving unit 132 is received.
  • accepting selection of either the first operation position moving unit 131 or the second operation position moving unit 132 means that either the first operation position moving unit 131 or the second operation position moving unit 132 is selected. Data indicating the selected result may be received.
  • the selection accepting unit 110 displays the operation mode selection image G2 shown in FIG. 7 on the display unit 15, the normal mode corresponding to the first operation position moving unit 131, and the second operation position movement. The selection of any of the sensitive modes corresponding to the unit 132 is accepted.
  • FIGS. 16A to 16C are flowcharts mainly showing an outline of a process of accepting an operation on the operation target user character UC among the processes executed during the game of the soccer game.
  • a process for controlling the user character UC and the opponent character OC other than the operation target a process for updating the virtual world image G1 displayed on the display unit 15, and the like are executed. Omitted.
  • the control unit 11 executes the processes shown in FIGS. 16A to 16C according to a program, the control unit 11 functions as a functional block (except for the data storage unit 100) shown in FIG.
  • the control unit 11 determines whether or not a touch on the touch panel TP is started (S100). When the touch on the touch panel TP is not started, the control unit 11 continues monitoring whether the touch on the touch panel TP is started (S100). On the other hand, when the touch on the touch panel TP is started, the control unit 11 determines whether or not the touch position is within the left area LA (S102). For example, the control unit 11 determines whether or not the Xs coordinate of the touch position is less than Xmax / 2.
  • the control unit 11 determines whether or not the operation mode of the direction pad E10 selected in advance by the user is the normal mode (S104). When the operation mode of the direction pad E10 is the normal mode, the control unit 11 executes a direction instruction operation acceptance process in the normal mode (S106). This process will be described later (see FIG. 16B).
  • the control unit 11 executes a direction instruction operation reception process in the sensitive mode (S108). . This process will be described later (see FIG. 16C).
  • step S102 If it is determined in step S102 that the touch position is not in the left area LA (that is, if the touch position is in the right area RA), the control unit 11 executes an operation instruction operation acceptance process (S110). That is, the control unit 11 determines an operation performed by the user on the right area RA, and causes the operation target user character UC to perform an action associated with the operation.
  • S110 an operation instruction operation acceptance process
  • the control unit 11 when the first button E18-1 in the right area RA is touched in a state where the user character UC to be operated has the ball B and can pass, the control unit 11 will The user character UC is made to pass. Also, for example, when the tap operation is performed on the second button E18-2 in the right area RA in a state where the user character UC to be operated holds the ball B in the enemy team and can shoot, The control unit 11 causes the user character UC to be operated to shoot. For example, when the flick operation is performed on the right region RA while the user character UC to be operated has the ball B, the control unit 11 operates the path in the direction corresponding to the flick direction. You may make it make target user character UC perform.
  • the control unit 11 shoots the operation target user character UC. You may make it let. Further, for example, when the flick operation is performed on the right region RA in a state where the opponent team holds the ball B, the control unit 11 performs the sliding operation in the direction corresponding to the flick direction. You may make it carry out.
  • FIG. 16B is a flowchart showing an outline of an example of the process executed in step S106 (direction instruction operation acceptance process in the normal mode).
  • the control unit 11 displays the directional pad E10 in the left area LA (S120).
  • the center points E12 and E14 of the base part E11 and the pointer part E13 are both set to the touch position.
  • control unit 11 While the direction pad E10 is displayed, the control unit 11 repeatedly executes the processes of steps S122 to S140. That is, the control unit 11 acquires the touch position as the operation position (S122), and determines whether or not the operation position is in the direction pad E10 (base part E11) (S124).
  • the control unit 11 adjusts the position of the pointer part E13 to the operation position (S132). That is, the control unit 11 updates the position of the pointer unit E13 so that the center point E14 becomes the operation position.
  • the control unit 11 determines the moving direction of the direction pad E10 ( S126). That is, the control unit 11 determines the direction from the current position of the center point E12 of the direction pad E10 to the operation position acquired in step S122 as the movement direction. For example, in the case of the example shown in FIGS. 9A and 9B, the control unit 11 determines the direction DC from the position PA (current position of the center point E12) to the position PC (operation position acquired in step S122) as the movement direction. .
  • the control unit 11 determines the movement destination position of the direction pad E10 (S128). First, the control unit 11 acquires a distance between the current position of the center point E12 of the direction pad E10 and the operation position immediately before the operation position acquired in step S122. For example, in the case of the example illustrated in FIGS. 9A and 9B, the control unit 11 includes the position PA (current position of the center point E12) and the position PB (operation position immediately before the operation position acquired in step S122). To obtain the distance LX. Then, the control unit 11 is a position on the straight line extending in the movement direction determined in step S126 from the current position of the center point E12, and the position away from the operation position acquired in step S122 by the above distance.
  • the control unit 11 is a position on a straight line extending from the position PA (current position of the center point E12) in the direction DC (movement direction determined in step S126).
  • the position PE that is a distance LX away from the position PC is determined as the destination position.
  • control unit 11 moves the direction pad E10 (base unit E11) (S130). That is, the control unit 11 moves the direction pad E10 (base portion E11) so that the center point E12 becomes the movement destination position determined in step S128. Further, the control unit 11 adjusts the position of the pointer unit E13 to the operation position (S132).
  • control unit 11 After execution of step S132, the control unit 11 acquires the direction from the center point E12 of the direction pad E10 to the operation position acquired in step S122 as an instruction direction (S134). Further, the control unit 11 acquires a distance between the center point E12 of the direction pad E10 and the operation position acquired in step S122 (S136).
  • control unit 11 moves the user character UC to be operated based on the instruction direction and distance acquired in steps S134 and S136 (S138). At this time, the control unit 11 sets the moving direction of the operation target user character UC to a direction in the virtual world VW corresponding to the instruction direction acquired in step S134. Moreover, the control part 11 sets the moving speed of the user character UC of operation object to the speed corresponding to the distance acquired by step S136.
  • step S138 the control unit 11 determines whether or not the finger or the like that has touched the direction pad E10 has left the touch panel (S140). When the finger or the like that has touched the direction pad E10 is not separated from the touch panel, the control unit 11 executes the process of step S122 again. On the other hand, when the finger or the like that has touched the directional pad E10 is separated from the touch panel, the control unit 11 hides the directional pad E10 (S142), and ends this process. That is, the process of step S106 ends.
  • FIG. 16C is a flowchart showing an outline of an example of the process executed in step S108 (direction instruction operation acceptance process in the sensitive mode).
  • the control unit 11 displays the direction pad E10 in the left area LA, and also sets the reference area E15 (S150).
  • the center point E12 of the direction pad E10 base part E11 and reference area E15
  • the center point E14 of the pointer part E13 are both set to the touch position.
  • control unit 11 While the direction pad E10 is displayed, the control unit 11 repeatedly executes the processes of steps S152 to S172. That is, the control unit 11 acquires the touch position T (S152), and determines whether or not the touch position T is within the reference region E15 (S154).
  • the control unit 11 acquires the operation position (S162). First, the control unit 11 acquires the distance L between the center point E12 of the direction pad E10 and the touch position T. Then, the control unit 11 acquires, as an operation position, a position that is separated from the center point E12 in the direction from the center point E12 to the touch position T by a distance twice the distance L. Further, the control unit 11 adjusts the position of the pointer unit E13 to the operation position (S164). That is, the control unit 11 updates the position of the pointer unit E13 so as to be the operation position.
  • the control unit 11 determines the moving direction of the direction pad E10 (S156). That is, the control unit 11 determines the direction from the current position of the center point E12 of the reference area E15 to the touch position T acquired in step S152 as the movement direction. For example, in the case of the example shown in FIGS. 13A and 13B, the control unit 11 determines the direction DG from the position PF (current position of the center point E12) to the position PH (touch position T acquired in step S152) as the movement direction. To do.
  • the control unit 11 determines the destination position of the direction pad E10 (S158). First, the control unit 11 acquires a distance between the current position of the center point E12 of the reference area E15 and the touch position T immediately before the touch position T acquired in step S152. For example, in the case of the example illustrated in FIGS. 13A and 13B, the control unit 11 includes the position PF (current position of the center point E12) and the position PG (touch position immediately before the touch position acquired in step S152). To obtain the distance LY.
  • the control unit 11 is a position on the straight line extending in the movement direction determined in step S156 from the current position of the center point E12 of the reference area E15, and is away from the touch position T acquired in step S152 by the above distance.
  • the determined position is determined as the destination position.
  • the control unit 11 is a position on a straight line extending from the position PF (the current position of the center point E12) in the direction DG (the moving direction determined in step S156).
  • the position PK that is a distance LY away from the position PH is determined as the destination position.
  • control unit 11 moves the direction pad E10 (base portion E11 and reference region E15) (S160). That is, the control unit 11 moves the direction pad E10 (base portion E11 and reference region E15) so that the center point E12 is the destination position determined in step S158. Further, the control unit 11 acquires the operation position (S162), and adjusts the position of the pointer unit E13 to the operation position (S164).
  • control unit 11 After execution of step S164, the control unit 11 acquires the direction from the center point E12 of the direction pad E10 to the operation position acquired in step S162 as an instruction direction (S166). Further, the control unit 11 acquires the distance between the center point E12 of the direction pad E10 and the operation position acquired in step S162 (S168).
  • step S170 After execution of steps S166 and S168, the control unit 11 moves the user character UC to be operated based on the instruction direction and distance acquired in steps S166 and S168 (S170).
  • the process of step S170 is the same as that of step S138.
  • step S170 the control unit 11 determines whether the finger or the like that has touched the direction pad E10 has left the touch panel (S172). When the finger or the like that has touched the direction pad E10 is not separated from the touch panel, the control unit 11 executes the process of step S152 again. On the other hand, when the finger or the like that has touched the directional pad E10 is separated from the touch panel, the control unit 11 hides the directional pad E10 (S174), and ends this process. That is, the process of step S108 ends.
  • FIGS. 17A to 17E are flowcharts showing the overall processing executed during the game of the soccer game.
  • FIG. 17A is a flowchart showing processing executed on the game terminal 10 during a soccer game match.
  • the control unit 11 executes a game process (S1000). For example, processing for updating the position, moving direction, moving speed, motion, and the like of the user character UC and the opponent character OC, and processing for updating the position, moving direction, moving speed, and the like of the ball B are executed.
  • step S1000 as processing for updating the position, moving direction, and moving speed of the operation target user character UC, steps S134 to S138 (in normal mode) in FIG. 16B or steps S166 to S170 (sensitive) in FIG.
  • steps S134 to S138 in normal mode
  • steps S166 to S170 sensitive
  • step S1000 processing corresponding to the first button E18-1 is executed based on the first edge trigger flag or the second edge trigger flag of the first button E18-1. Further, processing corresponding to the second button E18-2 is executed based on the first edge trigger flag or the second edge trigger flag of the second button E18-2.
  • the “first edge trigger flag” of the first button E18-1 has changed from the state where the first button E18-1 is not touched to the state where the first button E18-1 is touched. It is a flag indicating whether or not.
  • the first edge trigger flag is set to ON when the first button E18-1 is not touched and the first button E18-1 is touched. Note that the first edge trigger flag of the first button E18-1 is initially set to OFF at the start of the match.
  • the “second edge trigger flag” of the first button E18-1 is a flag indicating whether or not the finger or the like that has touched the first button E18-1 has left the touch panel TP.
  • the second edge trigger flag is set to ON when the finger or the like that has touched the first button E18-1 has moved away from the touch panel TP. Note that the second edge trigger flag of the first button E18-1 is initially set to OFF at the start of the match.
  • first edge trigger flag and second edge trigger flag are the same as the first edge trigger flag and the second edge trigger flag of the first button E18-1, Description is omitted.
  • step S1000 if the first button E18-1 is a button that causes the user character UC to be operated to pass, and the first edge trigger flag of the first button E18-1 is ON, If the operation target user character UC can pass, a process for causing the operation target user character UC to start a pass motion, a process for starting the movement of the ball B in the pass direction, and the like are executed.
  • step S1000 when the second button E18-2 is a button that causes the user character UC to be operated to shoot, and the second edge trigger flag of the second button E18-2 is ON. If the operation target user character UC can shoot, a process for starting the shooting motion to the operation target user character UC, a process for starting the movement of the ball B in the shooting direction, and the like are executed. Is done. At this time, the time from when the first edge trigger flag of the second button E18-2 is turned on to when the second edge trigger flag is turned on (that is, the user moves his / her finger etc. to the second button E18-2). The strength (or angle) of the chute is set based on the time from the touch until the finger or the like is released from the touch panel TP.
  • step S1000 the control unit 11 executes input clear processing (S1002). For example, the first edge trigger flag and the second edge trigger flag of each of the first button E18-1 and the second button E18-2 are reset to OFF.
  • control unit 11 executes a drawing process (S1004).
  • a virtual viewpoint VC is set, and a virtual world image G1 representing the virtual world VW viewed from the virtual viewpoint VC is drawn on the back buffer.
  • the images of the first button E18-1 and the second button E18-2 are drawn on the virtual world image G1 drawn in the back buffer.
  • the image of the direction pad E10 is also drawn on the virtual world image G1 drawn in the back buffer. Note that the images of the direction pad E10, the first button E18-1, and the second button E18-2 may be translucently combined with the virtual world image G1.
  • the control unit 11 waits for the occurrence of a V blank interrupt (S1006), and when the V blank interrupt occurs, switches from the back buffer to the front buffer (S1008). By this switching, the image drawn in the back buffer in step S1004 is displayed on the display unit 15. After execution of step S1008, the process returns to step S1000. In this way, during the soccer game, the processes in steps S1000 to S1008 described above are repeatedly executed.
  • FIG. 17B is a flowchart showing processing executed when an OnTouch event occurs during a soccer game.
  • the control unit 11 determines whether or not the action in the OnTouch event is a DOWN action (S1010).
  • the case where the action in the OnTouch event is a DOWN action is a case where the user touches the touch panel TP.
  • the control unit 11 executes a DOWN process (S1012).
  • the DOWN process is a process executed in the case of a DOWN action. Details will be described later (see FIG. 17C).
  • control unit 11 determines whether or not the action in the OnTouch event is a MOVE action (S1014).
  • the case where the action in the OnTouch event is a MOVE action is when the user slides a finger or the like touching the touch panel TP.
  • the control unit 11 executes a move process (S1016).
  • the MOVE process is a process executed in the case of a MOVE action. Details will be described later (see FIG. 17D).
  • control unit 11 determines whether or not the action in the OnTouch event is an UP action (S1018).
  • the case where the action in the OnTouch event is an UP action is a case where the user has released a finger or the like that has touched the touch panel TP from the touch panel TP.
  • the control unit 11 executes the UP process (S1020).
  • the UP process is a process executed in the case of an UP action. Details will be described later (see FIG. 17E).
  • FIG. 17C is a flowchart showing an example of the DOWN process executed in step S1012.
  • the control unit 11 acquires the XsYs coordinates of the touch position of the user (S1030). Then, the control unit 11 determines whether or not the XsYs coordinate of the touch position is within the left area LA (S1032). When the XsYs coordinate of the touch position is within the left area LA, the control unit 11 determines whether or not the left OLDID is NULL (S1034).
  • the XsYs coordinates of the touch position are acquired from the touch detection result by the operation unit 14 (touch panel TP).
  • the “current ID” is an ID associated with the generated OnTouch event.
  • the “left OLDID” is for holding an ID of a touch having the left area LA within the touch start position.
  • the state in which the left OLDID is not NULL and the ID is set in the left OLDID is a state in which the touch with the touch start position in the left area LA is maintained.
  • the state in which the left OLDID is NULL is a state in which a touch having the touch start position in the left area LA is not maintained.
  • step S1034 The case where it is determined in step S1034 that the left OLDID is not NULL is a state in which there is a touch having the touch start position in the left area LA and another new touch having the touch area in the left area LA. This is a case where an ID is touched and the ID of the new touch is the current ID. In this embodiment, such a new touch is ignored and this process is terminated.
  • step S1034 when it is determined in step S1034 that the left OLDID is NULL, the control unit 11 sets the current ID to the left OLDID (S1036). Further, the control unit 11 turns on the direction pad drawing status (S1038), and sets the coordinates acquired in step S1030 as the coordinates of the center point E12 of the direction pad E10 (S1040).
  • the direction pad drawing status indicates whether or not the direction pad E10 is drawn in step S1004.
  • the direction pad drawing status is OFF. If the direction pad drawing status is OFF, the direction pad E10 is not drawn in step S1004.
  • the direction pad drawing status is ON, the direction pad E10 is drawn in step S1004. At this time, the direction pad E10 is drawn with the coordinates set in step S1040 as the center point E12.
  • the control unit 11 determines whether or not the right OLDID is NULL (S1042).
  • the “right OLDID” is for holding the ID of a touch having the inside of the right area RA as the touch start position, like the left OLDID.
  • the state in which the right OLDID is not NULL and the ID is set in the right OLDID is a state in which a touch with the touch start position in the right area RA is maintained.
  • the state in which the right OLDID is NULL is a state in which a touch with the right region RA in the touch start position is not maintained.
  • step S1042 The case where it is determined in step S1042 that the right OLDID is not NULL is a state in which the touch with the right area RA as the touch start position is maintained, and another new with the right area RA as the touch start position. This is a case where an ID is touched and the ID of the new touch is the current ID. In the present embodiment, such a new touch is ignored and the DOWN process is terminated.
  • the control unit 11 sets the current ID in the right OLDID (S1044). Further, the control unit 11 determines whether or not the XsYs coordinate of the touch position acquired in step S1030 is within the area of the first button E18-1 (S1046).
  • the “area of the first button E18-1” may be an area where the first button E18-1 is displayed, or a separate invisible (set to the first button E18-1). (Non-display) area.
  • the control unit 11 sets the flag of the first button E18-1 (S1048).
  • the control unit 11 sets the ON state flag of the first button E18-1 to ON, sets the first edge trigger flag to ON, and sets the second edge trigger flag to OFF.
  • the “on state flag” of the first button E18-1 is a flag indicating whether or not the first button E18-1 is touched. This on state flag is set to OFF when the first button E18-1 is not touched, and is set to ON when the first button E18-1 is touched.
  • the on state flag of the first button E18-1 is initially set to OFF at the start of the match.
  • step S1046 If it is determined in step S1046 that the XsYs coordinate of the touch position is not within the area of the first button E18-1, the control unit 11 executes step S1050 described later without executing step S1048.
  • control unit 11 determines whether or not the XsYs coordinate of the touch position acquired in step S1030 is within the area of the second button E18-2 (S1050).
  • the “region of the second button E18-2” is the same as the region of the first button E18-1, and the process of step S1050 is the same as that of step S1046.
  • the control unit 11 sets the flag of the second button E18-2 (S1052). For example, the control unit 11 turns on the ON state flag of the second button E18-2, turns on the first edge trigger flag, and turns off the second edge trigger flag. Note that the ON state flag of the second button E18-2 is the same as the ON state flag of the first button E18-1, and thus the description thereof is omitted here.
  • step S1050 If it is determined in step S1050 that the XsYs coordinate of the touch position is not within the area of the second button E18-2, the control unit 11 ends this process without executing step S1050.
  • FIG. 17D is a flowchart showing an example of the move process executed in step S1016.
  • the control unit 11 acquires the XsYs coordinates of the target touch position of the generated OnTouch event (MOVE action) (S1060). Further, the control unit 11 determines whether or not the left OLDID is the current ID (S1062). The XsYs coordinates of the touch position are acquired from the touch detection result by the operation unit 14 (touch panel TP).
  • the “current ID” is an ID associated with the generated OnTouch event, and is an ID of a target touch of the MOVE action.
  • the case where the left OLDID is the current ID is a case where the generated OnTouch event (MOVE action) relates to the movement of a finger or the like touching the direction pad E10.
  • the control unit 11 determines whether or not the XsYs coordinate of the touch position acquired in step S1060 is within the area of the direction pad E10 (S1064).
  • the control unit 11 determines whether or not the XsYs coordinate of the touch position is within the display area of the direction pad E10 (base unit E11).
  • the control unit 11 determines whether the XsYs coordinate of the touch position is within the reference area E15.
  • step S1066 is the same as steps S126 to S130 (in normal mode) in FIG. 16B or steps S156 to S160 (in sensitive mode) in FIG.
  • control unit 11 sets the coordinates of the center point E14 of the pointer unit E13 based on the coordinates acquired in step S1060 (S1068).
  • the processing in step S1068 is the same as steps S122 and S132 (in the normal mode) in FIG. 16B or steps S162 and S164 (in the sensitive mode) in FIG.
  • step S1064 When it is determined in step S1064 that the XsYs coordinate of the touch position is within the area of the direction pad E10, the control unit 11 executes step S1068 without executing step S1066. After execution of step S1068, the control unit 11 ends this process. If it is determined in step S1062 that the left OLDID is not the current ID, the control unit 11 ends this process without executing steps S1064 to S1068.
  • FIG. 17E is a flowchart showing an example of the UP process executed in step S1020.
  • the control unit 11 determines whether or not the left OLDID is the current ID (S1070).
  • the “current ID” is an ID associated with the generated OnTouch event, and is the ID of the touch subject to the UP action. Since the UP action means that a finger or the like that has touched the touch panel TP leaves the touch panel TP (that is, the touch is released), the “current ID” is the ID of the released touch.
  • the case where the left OLDID is determined to be the current ID in step S1070 is a case where the finger or the like that has touched the direction pad E10 has moved away from the touch panel TP.
  • the control unit 11 sets the left OLDID to NULL (S1072), and turns off the direction pad drawing status (S1074). Further, the control unit 11 initializes the coordinates of the center point E14 of the pointer part E13 to the coordinates of the center point E12 of the direction pad E10 (base part E11) (S1076), and ends this process.
  • step S1070 determines whether or not the left OLDID is not the current ID.
  • the control unit 11 determines whether or not the right OLDID is the current ID (S1078).
  • the case where the right OLDID is determined to be the current ID in step S1078 is a case where the finger or the like that has touched the right area RA has moved away from the touch panel TP.
  • the control unit 11 sets the right OLDID to NULL (S1080). Further, the control unit 11 determines whether or not the ON state flag of the first button E18-1 is ON (S1082).
  • step S1082 the case where it is determined in step S1082 that the ON state flag of the first button E18-1 is ON is a case where the finger or the like that has touched the first button E18-1 has moved away from the touch panel TP. .
  • the control unit 11 turns on the second edge trigger flag of the first button E18-1 (S1084), and turns off the on-state flag of the first button E18-1 (S1086).
  • step S1086 the ON state flag of the first button E18-1 is not ON.
  • control unit 11 determines whether or not the ON state flag of the second button E18-2 is ON (S1088).
  • the case where it is determined in step S1088 that the ON state flag of the second button E18-2 is ON is a case where the finger or the like that has touched the second button E18-2 has left the touch panel TP. .
  • the control unit 11 turns on the second edge trigger flag of the second button E18-2 (S1090), and turns off the on state flag of the second button E18-2 (S1092).
  • step S1088 that the ON state flag of the second button E18-2 is not ON
  • the control unit 11 executes step S1092 without executing step S1090. After execution of step S1092, the control unit 11 ends this process. Also when it is determined in step S1078 that the right OLDID is not the current ID, the control unit 11 ends this process.
  • an instruction direction is acquired based on the direction from the center point E12 of the direction pad E10 to the operation position (center point E14 of the pointer portion E13), and game processing is performed based on the instruction direction. Is executed.
  • the operation position (touch position T) is moved from the position PB in the direction pad E10 toward the position PC outside the direction pad E10.
  • the direction pad E10 moves toward the direction DC from the position PA, which is the center point E12 when the position is the position PB, to the position PC. For this reason, even if the user unintentionally moves the operation position toward the outside of the direction pad E10, the direction pad E10 moves. In spite of this, it is possible to prevent the inconvenience that the game side determines that the direction instruction operation has not been performed.
  • the movement direction (direction DC) of the direction pad E10 indicates both the instruction direction (direction DA) before the movement and the movement direction (direction DB) of the operation position. It will be reflected.
  • the deviation between the instruction direction determined on the game side and the instruction direction intended by the user can be reduced, and as a result, the operability can be improved.
  • the game process is executed based on the distance between the center point E12 of the direction pad E10 and the operation position (the center point E14 of the pointer portion E13).
  • the distance after the movement of the direction pad E10 is the same as the distance before the movement (the distance from the position PA to the position PB).
  • Deviation between the distance determined on the game side and the distance intended by the user can be reduced, and as a result, operability can be improved.
  • the operation position (the center point E14 of the pointer portion E13) moves in the direction corresponding to the movement direction of the touch position T from the movement distance of the touch position T. Even travel long distances.
  • the game side may determine that a direction other than the direction intended by the user is instructed. According to the sensitive mode, even if the user tends to shorten the moving distance of the touch position, such inconvenience hardly occurs.
  • a reference area E15 corresponding to an area obtained by reducing the direction pad E10 to 1 ⁇ 2 is set, and the positional relationship between the operation position and the center point E12 of the direction pad E10 is the touch position T
  • the operation position (the center point E14 of the pointer portion E13) is set so as to correspond to the positional relationship between the reference point E15 and the center point E12 of the reference region E15.
  • the user can arbitrarily select either the normal mode or the sensitive mode as the operation mode of the direction pad E10 (FIG. 7).
  • the user can select the operation mode of the direction pad E10 in consideration of his / her own tendency and habit.
  • the left area LA of the touch panel TP when the left area LA of the touch panel TP is touched, the direction pad E10 is displayed in the left area LA, and the movement control process of the user character UC is performed based on the direction instructed via the direction pad E10. Execute.
  • the control process other than the movement control process of the user character UC is executed without displaying the direction pad E10.
  • the left area LA of the touch panel TP can be used for a movement instruction operation on the user character UC
  • the right area RA can be used for an operation other than the movement instruction operation on the user character UC. . That is, it is possible to separate a region for performing a movement instruction operation on the user character UC and a region for performing an operation other than the movement instruction operation on the user character UC, and the user can easily perform the operation.
  • an invisible (non-display) determination area A16 (an example of a reception area) may be set.
  • step S124 of FIG. 16B it may be determined whether or not the operation position is within the determination area A16.
  • Both the normal mode and the sensitive mode may not be provided, and either one may not be provided.
  • functional blocks related to the normal mode can be omitted, and when the sensitive mode is omitted, functional blocks related to the sensitive mode can be omitted.
  • a game system (1) includes an area setting unit (120) that sets a reception area (E10) for receiving a direction instruction operation on the touch panel (TP), and a touch position of the touch panel (TP). Means for setting an operation position (E14) according to (T), and an operation position setting means (130, 132) for moving the operation position (E14) according to the movement of the touch position (T).
  • An instruction direction acquisition means (140) for acquiring an instruction direction based on a direction from the reference position (E12) corresponding to the reception area (E10) to the operation position (E14), and a game process based on the instruction direction Game operation executing means (150) for executing the operation position setting means (132) in response to movement of the touch position (T).
  • In the direction corresponding to the moving direction of the touch position (T), is a long distance movement than the movement distance of the touch position (T).
  • the game control apparatus (10 or 30) includes an area setting unit (120) for setting a reception area (E10) for receiving a direction instruction operation on the touch panel (TP), and the touch panel (TP). Means for setting the operation position (E14) according to the touch position (T), and the operation position setting means (130, 130) for moving the operation position (E14) according to the movement of the touch position (T).
  • the position setting means (132) moves the operation position (E14) in the direction corresponding to the movement direction of the touch position (T). Is a long distance movement than the movement distance of (T).
  • a program according to an aspect of the present invention causes a computer to function as the game system (1) according to any one of 1) to 8) or the game control device (10 or 30) according to 9). It is a program.
  • An information storage medium is a computer-readable information storage medium storing the program according to 10).
  • an area setting step for setting a reception area (E10) for receiving a direction instruction operation on the touch panel (TP) ( S150) and an operation position (E14) corresponding to the touch position (T) of the touch panel (TP), wherein the operation position (E14) is set according to the movement of the touch position (T).
  • the operation position (E14) is changed to the previous position according to the movement of the touch position (T). In the direction corresponding to the moving direction of the touch position (T), it is a long distance movement than the movement distance of the touch position (T).
  • the instruction direction is acquired based on the direction from the reference position corresponding to the reception area to the operation position corresponding to the touch position, and the game process is performed based on the instruction direction. Executed.
  • the movement distance of the actual touch position of the user tends to be shorter than the movement distance of the touch position necessary for instructing the direction, the user has hitherto traveled to the area corresponding to the desired direction.
  • the game side actually does not move to the area corresponding to the desired direction, so that the game side does not move to the desired direction.
  • the operation position is changed to the direction corresponding to the movement direction of the touch position. In addition, since the movement is longer than the movement distance of the touch position, the above inconvenience hardly occurs.
  • the area setting means (120) includes means (122) for setting a corresponding area (E15) smaller than the reception area (E10), and the operation position setting means (132)
  • the positional relationship between the operation position (E14) and the reference position (E12) corresponding to the reception area (E10) is that the touch position (T) and the reference position (E12) corresponding to the corresponding area (E15).
  • the operation position (E14) is set so as to correspond to the positional relationship, and the operation position setting means (132) changes the operation position (E14) according to the movement of the touch position (T). In the direction corresponding to the moving direction of the touch position (T), the moving distance of the touch position (T) is increased according to the relative size of the receiving area (E10) with respect to the corresponding area (E15). May be caused to the distance moved obtain me.
  • the operation position is set such that the positional relationship between the operation position and the reference position corresponding to the reception area corresponds to the positional relationship between the touch position and the reference position corresponding to the corresponding area.
  • the operation position is longer than the movement distance of the touch position. It is possible to simplify the process related to setting the operation position to move.
  • the corresponding area (E15) is an area corresponding to an area obtained by reducing the reception area (E10) to 1 / n (a positive numerical value greater than n: 1),
  • the operation position setting means (132) moves the operation position (E14) in the direction corresponding to the moving direction of the touch position (T) in accordance with the movement of the touch position (T).
  • the distance obtained by multiplying the movement distance by n times may be moved.
  • the operation position moves longer than the movement distance of the touch position. It is possible to simplify the processing related to the setting of the operation position.
  • the area setting means (120) is configured to perform the first operation based on the touch position (T) when the first area (LA) of the touch panel (TP) is touched.
  • the reception area (E10) and the corresponding area (E15) are set in one area (LA), and the second area (RA) other than the first area (LA) of the touch panel (T) is touched
  • the reception area (E10) and the corresponding area (E15) may not be set.
  • the receiving area when the inside of the first area of the touch panel is touched, the receiving area is set in the first area based on the touched position, and the first area other than the first area of the touch panel is set. Since the reception area is not set when the area 2 is touched, the first area of the touch panel can be used for a direction instruction operation, and the second area of the touch panel can be used for an operation other than the direction instruction operation. . That is, the area for performing the direction instruction operation and the area for performing an operation other than the direction instruction operation can be separated, and as a result, the user can easily perform the operation.
  • the area moving unit (162) may be configured to use the touch position (T) after the receiving area (E10) and the corresponding area (E15) are set by the area setting unit (120). ) Moves into the second area (RA), the receiving area (E10) and the corresponding area (E15) may be moved into the second area (RA).
  • the game process execution means (150) executes a control process related to a user's operation target (UC), and the game process execution means (150) is based on the instruction direction. Based on the touch position or the movement locus of the touch position when the inside of the second area (RA) is touched with the means for executing the movement control process of the operation target (UC), the operation target (UC And a means for executing a control process other than the movement control process.
  • the operation target is determined based on the touch position or the movement locus of the touch position. Since the control process related to the control process is executed other than the movement control process, the first area of the touch panel can be used for the movement operation of the operation target, and the second area of the touch panel can be used other than the movement operation of the operation target. Can be used for the operation.
  • the operation position setting means (130) corresponds the operation position (E14) to the movement direction of the touch position (T) according to the movement of the touch position (T).
  • Second movement means (132) that moves in a direction corresponding to the movement direction of the touch position (T) in a direction longer than the movement distance of the touch position (T), and the game system (1) is configured to operate the operation position (E14).
  • a selection accepting means (110) for accepting selection of either the first moving means (131) or the second moving means (132) may be included.
  • the user can select the operation position movement mode as “a mode in which the operation position is moved in a direction corresponding to the movement direction of the touch position by a distance longer than the movement distance of the touch position”.
  • “Mode in which the operation position is moved by the movement distance of the touch position in a direction corresponding to the movement direction of the touch position” can be arbitrarily selected.
  • the information processing system (1) includes an area setting unit (120) that sets a reception area (E10) for receiving a direction instruction operation in the touch panel (TP), and the touch panel (TP). Means for setting the operation position (E14) according to the touch position (T), and the operation position setting means (130, 130) for moving the operation position (E14) according to the movement of the touch position (T).
  • the information processing apparatus (10 or 30) includes an area setting unit (120) that sets a reception area (E10) for receiving a direction instruction operation in the touch panel (TP), and the touch panel ( TP) is a means for setting the operation position (E14) according to the touch position (T), and the operation position setting means (E14) is moved according to the movement of the touch position (T).
  • an area setting unit (120) that sets a reception area (E10) for receiving a direction instruction operation in the touch panel (TP)
  • the touch panel ( TP) is a means for setting the operation position (E14) according to the touch position (T)
  • the operation position setting means (E14) is moved according to the movement of the touch position (T).
  • the operation position setting means (132) moves the operation position (E14) in a direction corresponding to the movement direction of the touch position (T). Is a long distance movement than the moving distance of the switch position (T).
  • a program according to an aspect of the present invention is a program for causing a computer to function as the information processing apparatus (10 or 30) described in the information processing system (1) or 14) described in 13).
  • An information storage medium according to an aspect of the present invention is a computer-readable information storage medium recording the program according to 15).
  • a method for controlling the information processing system (1) or the information processing apparatus (10 or 30) according to one aspect of the present invention includes a region setting step of setting a reception region (E10) for receiving a direction instruction operation on the touch panel (TP). (S150) and a step of setting an operation position (E14) according to the touch position (T) of the touch panel (TP), and the operation position (E14) according to the movement of the touch position (T).
  • the operation position (E14) is changed to the previous position according to the movement of the touch position (T). In the direction corresponding to the moving direction of the touch position (T), it is a long distance movement than the movement distance of the touch position (T).
  • the instruction direction is acquired based on the direction from the reference position corresponding to the reception area to the operation position corresponding to the touch position, and the process is executed based on the instruction direction.
  • the user since the movement distance of the actual touch position of the user tends to be shorter than the movement distance of the touch position necessary for indicating the direction, the user has conventionally operated to the area corresponding to the desired direction.
  • the system or device side does not actually move the operation position to the area corresponding to the desired direction.
  • the operation position corresponds to the movement direction of the touch position according to the movement of the touch position. Since the distance is longer than the movement distance of the touch position in the direction, the above inconvenience hardly occurs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

領域設定部(121)は、方向指示操作を受け付ける受付領域をタッチパネルに設定する。操作位置設定部(130,132)は、タッチパネルのタッチ位置に応じた操作位置を設定し、タッチ位置の移動に応じて、操作位置を移動させる。指示方向取得部(140)は、受付領域に対応する基準位置から操作位置への方向に基づいて指示方向を取得する。ゲーム処理実行部(150)は、指示方向に基づいてゲーム処理を実行する。操作位置設定部(132)は、タッチ位置の移動に応じて、操作位置を、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離よりも長い距離移動させる。

Description

ゲームシステム、ゲーム制御装置、及びプログラム
 本発明はゲームシステム、ゲーム制御装置、及びプログラムに関する。
 据置型ゲーム機のゲームパッドや携帯型ゲーム機には、方向指示操作を行うための操作部材(方向ボタン又は方向レバー等)が備えられている。これに対し、例えばスマートフォンやタブレット型コンピュータのような装置にはタッチパネルが備えられており、上記のような部材が備えられていないことが多い。このような装置では、方向指示操作を行うための仮想的な操作部材(仮想的な方向ボタン又は方向レバー等)を表示することによって、タッチパネルを介して方向指示操作を行うことが行われている。例えば、仮想的な操作部材の表示領域内の位置がユーザによってタッチされている場合に、当該表示領域の中心点からタッチ位置への方向を、ユーザによって指示された方向(指示方向)として判定することが行われている。
特開2016-9473号公報
 据置型ゲーム機のゲームパッド等に備えられる現実の操作部材の場合、ユーザは操作部材を操作している感触を得ることができるのに対し、上記のような仮想的な操作部材の場合、ユーザは操作部材を操作している感触を得ることができない。このため、ユーザが行っているつもりである操作と、ユーザが実際に行っている操作との間にずれが生じる場合である。
 例えば、右方向を指示した後で左方向を指示する場合、まず、ユーザは仮想的な操作部材の表示領域内でタッチ位置を中心点よりも右側に移動させることによって、右方向を指示する。その後、左方向を指示するために、ユーザは上記表示領域内でタッチ位置を中心点の右側から左側まで移動させる必要がある。しかしながら、このような場合、ユーザのタッチ位置の移動距離が短めになる傾向があり、タッチ位置の移動距離が十分でなく、タッチ位置が上記表示領域の中心点よりも左側まで移動しておらず、タッチ位置が中心点よりも右側に留まってしまう場合がある。この場合、ユーザは左方向を指示しているつもりでいるにもかかわらず、ゲーム側では右方向が指示されていると判定されてしまうため、操作性が良くないとユーザが感じてしまうおそれがある。
 本発明は上記課題に鑑みて行われたものであって、その目的は、タッチパネルを介して方向指示操作を行う場合のユーザの意図している指示方向とゲーム側で判定される指示方向との相違が発生し難くすることが可能なゲームシステム、ゲーム制御装置、及びプログラムを提供することにある。
 上記課題を解決するために、本発明の一態様に係るゲームシステムは、方向指示操作を受け付ける受付領域をタッチパネルに設定する領域設定手段と、前記タッチパネルのタッチ位置に応じた操作位置を設定する手段であって、前記タッチ位置の移動に応じて、前記操作位置を移動させる操作位置設定手段と、前記受付領域に対応する基準位置から前記操作位置への方向に基づいて指示方向を取得する指示方向取得手段と、前記指示方向に基づいてゲーム処理を実行するゲーム処理実行手段と、を含み、前記操作位置設定手段は、前記タッチ位置の移動に応じて、前記操作位置を、前記タッチ位置の移動方向に対応する方向に、前記タッチ位置の移動距離よりも長い距離移動させる。
 また、本発明の一態様に係るゲーム制御装置は、方向指示操作を受け付ける受付領域をタッチパネルに設定する領域設定手段と、前記タッチパネルのタッチ位置に応じた操作位置を設定する手段であって、前記タッチ位置の移動に応じて、前記操作位置を移動させる操作位置設定手段と、前記受付領域に対応する基準位置から前記操作位置への方向に基づいて指示方向を取得する指示方向取得手段と、を含み、前記操作位置設定手段は、前記タッチ位置の移動に応じて、前記操作位置を、前記タッチ位置の移動方向に対応する方向に、前記タッチ位置の移動距離よりも長い距離移動させる。
本発明の実施形態に係るゲームシステムの全体構成を示す図である。 仮想世界の一例を示す図である。 仮想世界画像の一例を示す図である。 タッチパネルに設定される複数の領域の一例を示す図である。 移動指示操作について説明するための図である。 方向パッドについて説明するための図である。 動作モード選択画像の一例を示す。 通常モード時にユーザがタッチ位置を移動させた場合について示す図である。 通常モード時における方向パッドの移動について説明するための図である。 通常モード時における方向パッドの移動について説明するための図である。 右側領域内への方向パッドの移動について説明するための図である。 センシティブモード時の方向パッドの一例を説明するための図である。 センシティブモード時にユーザがタッチ位置を移動させた場合について示す図である。 センシティブモード時にユーザがタッチ位置を移動させた場合について示す図である。 センシティブモード時における方向パッドの移動について説明するための図である。 センシティブモード時における方向パッドの移動について説明するための図である。 動作指示操作の一例について示す図である。 ゲームシステムの機能ブロック図である。 ゲームシステムで実行される処理の一例の概要を示す図である。 通常モード時の方向指示操作受付処理の一例の概要を示すフロー図である。 センシティブモード時の方向指示操作受付処理の一例の概要を示すフロー図である。 サッカーゲームの試合中にゲーム端末で実行される全体の処理の一例を示すフロー図である。 OnTouchイベント処理の一例を示すフロー図である。 DOWN処理の一例を示すフロー図である。 MOVE処理の一例を示すフロー図である。 UP処理の一例を示すフロー図である。 判定領域について説明するための図である。
 以下、本発明の実施形態の例を図面に基づいて説明する。
 [1.ゲームシステムの構成]図1は本発明の実施形態に係るゲームシステムの構成を示す。図1に示すように、本実施形態に係るゲームシステム1はゲーム端末10とサーバ30とを含む。ゲーム端末10はサーバ30とネットワークNを介して相互にデータ通信を行うことが可能である。
 ゲーム端末10は、ユーザがゲームをプレイするために使用するコンピュータである。例えば、ゲーム端末10は、携帯電話機(スマートフォンを含む)、又は携帯情報端末(タブレット型コンピュータを含む)等である。
 図1に示すように、ゲーム端末10は制御部11、記憶部12、通信部13、操作部14、表示部15、及び音出力部16を含む。制御部11は少なくとも1つのマイクロプロセッサを含み、記憶部12に記憶されたプログラムに従って情報処理を実行する。記憶部12は主記憶部(例えばRAM)及び補助記憶部(例えば、不揮発性の半導体メモリ、ハードディスクドライブ、又はソリッドステートドライブ)を含み、プログラムやデータを記憶する。通信部13は、ネットワークNを介して他の装置とデータ通信するためのものである。
 操作部14は、ユーザが各種操作を行うためのものである。表示部15は各種画像を表示するためのものであり、例えば液晶ディスプレイ又は有機ELディスプレイ等である。音出力部16は音データを出力するためのものであり、例えばスピーカ又はヘッドホン等である。図1に示すように、操作部14と表示部15とはタッチパネルTPとして一体的に形成される。タッチパネルTPは、ユーザの部位(指等)又は物体(タッチペン等)によってタッチされた位置を検出可能である。各種方式のタッチパネルをタッチパネルTPとして採用できる。「タッチ」とは、ユーザの部位又は物体がタッチパネルTPに触れることである。
 サーバ30は例えばサーバコンピュータである。図1に示すように、サーバ30は制御部31、記憶部32、及び通信部33を含む。制御部31、記憶部32、及び通信部33はゲーム端末10の制御部11、記憶部12、及び通信部13と同様である。サーバ30はデータベースDBにアクセスできる。データベースDBはサーバ30内に構築されてもよいし、サーバ30とは別のサーバコンピュータ内に構築されてもよい。
 プログラムやデータはネットワークNを介してゲーム端末10又はサーバ30に供給されて、記憶部12又は記憶部32に記憶される。なお、情報記憶媒体(例えば光ディスク又はメモリカード等)に記憶されたプログラムやデータを読み取るための構成要素(例えば光ディスクドライブ又はメモリーカードスロット等)がゲーム端末10又はサーバ30に備えられてもよい。そして、プログラムやデータが情報記憶媒体を介してゲーム端末10又はサーバ30に供給されてもよい。
 [2.ゲームの概要]ゲームシステム1では、スポーツゲーム、アクションゲーム、又はロールプレイングゲーム等の各種ゲームを実行することが可能である。
 ゲームシステム1で実行されるゲームでは、ユーザはタッチパネルTPにタッチすることによって操作を行う。例えば、このゲームでは、タッチパネルTPをタッチすることによって行われる操作に応じて、ユーザの操作対象が動作する。ここで、「操作対象」とは、ユーザによる操作の対象となるオブジェクトである。言い換えれば、「操作対象」とは、ユーザの操作に従って動作したり、状態が変化したりするオブジェクトである。「オブジェクト」とは、表示部15に表示されるものであって、ユーザによる操作の対象になり得るものである。例えば、ユーザの操作に従って動作するゲームキャラクタ又は乗物や、ユーザの操作に従って移動するカーソル等が「オブジェクト」の一例に相当する。
 以下では、ゲームシステム1で実行されるゲームの一例として、ユーザによって操作されるユーザチームに所属する複数のゲームキャラクタと、対戦相手によって操作される対戦相手チームに所属する複数のゲームキャラクタとが仮想世界でサッカーの試合を行うサッカーゲームについて説明する。
 ここで、「仮想世界」とはゲームの中の世界である。「仮想世界」は3次元的な空間であってもよいし、2次元的な平面であってもよい。「仮想世界」は仮想空間又はゲーム空間と言い換えることができる。また、「対戦相手」とは、コンピュータ(CPU)であってもよいし、他のユーザであってもよい。
 ゲームはゲーム端末10単体によって実行されるスタンドアロン方式のゲームであってもよいし、ゲーム端末10とサーバ30との間でデータ通信が行われることによって実行されるクライアント/サーバ方式のゲームであってもよい。なお以下では、基本的に、サッカーゲームがスタンドアロン形式で実行されることを前提として説明する。
 図2は仮想世界の一例を示す図である。図2に示すように、仮想世界VWは、例えば、3次元空間における仮想的なサッカー場を示す。仮想世界VWには、所定の位置を原点Owとし、互いに直交するXw軸、Yw軸、及びZw軸(ワールド座標系の座標軸)が設定される。仮想世界VWにおける位置は、ワールド座標系の座標値により特定される。
 図2に示すように、仮想世界VWには、Xw-Zw平面と平行になるようにピッチの3DモデルであるピッチPTが配置される。ピッチPTには、タッチラインTL、ゴールラインEL、及びハーフウェーラインHL等が描かれている。また、ピッチPT上には、ユーザキャラクタUC、対戦相手キャラクタOC、ボールの3DモデルであるボールB、及び、ゴールの3DモデルであるゴールGLが配置される。なお、ユーザキャラクタUCはユーザチームに所属するゲームキャラクタであり、対戦相手キャラクタOCは対戦相手チームに所属するゲームキャラクタである。
 仮想世界VWには仮想視点VCが設定される。仮想視点VCは、仮想世界VWに設定される視点であり、例えば、仮想カメラである。仮想視点VCの位置及び視線方向は、例えば、ユーザの操作対象のユーザキャラクタUC及びボールBの少なくとも一方が視野内に含まれるように制御される。なお、仮想視点VCの位置及び視線方向は固定されてもよい。試合が開始すると、仮想視点VCから仮想世界VWを見た様子を示す仮想世界画像が表示部15に表示される。
 図3は、サッカーゲームの試合中に表示部15に表示される画像の一例を示す図である。図3に示すように、表示部15には仮想世界画像G1が表示される。仮想世界画像G1は、仮想世界VWのうち、仮想視点VCの視野内の様子が座標変換されることで表示される。また図3に示すように、仮想的な第1ボタンE18-1及び第2ボタンE18-2の画像が仮想世界画像G1上の所定位置に表示される。第1ボタンE18-1や第2ボタンE18-2については後述する。
 なお、表示部15の表示領域には、所定の位置(例えば、表示領域の左上)を原点Osとし、互いに直交するXs軸及びYs軸(スクリーン座標系の座標軸)が設定される。表示領域とは、例えば、表示部15の画面全体のことである。表示領域上の位置は、スクリーン座標系の座標値により特定される。例えば、表示領域の右端部のXs座標値をXmaxと記載し、表示領域のした端部Ys座標値をYmaxと記載する。本実施形態では、横幅が縦幅よりも長い状態(ゲーム端末10を横持ちにした状態)でゲームがプレイされる場合を説明するが、これとは逆に、縦幅が横幅よりも長い状態(ゲーム端末10を縦持ちにした状態)でゲームがプレイされてもよい。本実施形態では、タッチパネルTPが検出したタッチ位置もスクリーン座標系の座標値によって示されるものとするが、タッチ位置は別の座標軸の座標値で示されてもよい。
 ユーザは仮想世界画像G1を見ながらサッカーゲームをプレイする。このサッカーゲームでは、ユーザチームに所属する複数のユーザキャラクタUCのうちのいずれがユーザの操作対象に設定される。操作対象のユーザキャラクタUCの足元には、操作対象に設定されていることを識別するためのカーソルCが表示される。操作対象のユーザキャラクタUCはユーザの操作に従って動作する。例えば、操作対象のユーザキャラクタUCは、ユーザが方向指示操作によって指示した方向に移動したり、ユーザが動作指示操作によって指示した動作(パス、シュート、又はスライディング等)を行ったりする。なお、操作対象以外のユーザキャラクタUCは所定のアルゴリズム等に従って自律的に行動する。
 操作対象はゲーム中に複数のユーザキャラクタUCのうちで切り替わってもよいし、特定のユーザキャラクタUCに固定されてもよい。操作対象が切り替わる態様では、例えば、攻撃時に、ボールBを保有しているユーザキャラクタUCが操作対象に設定され、守備時に、ボールBを保有する対戦相手キャラクタOCの最も近くにいるユーザキャラクタUCが操作対象に設定される。なお、「攻撃時」とは、例えば、ユーザチームがボールBを保有している状態である。一方、「守備時」とは、例えば、対戦相手チームがボールBを保有している状態である。ボールBがいずれのチームにも保有されていない状態に関しては、攻撃時に分類してもよいし、守備時に分類してもよい。
 操作対象のユーザキャラクタUCに対する各種操作はタッチパネルTPを介して行われる。この点、本実施形態では、タッチパネルTP上の領域が複数の操作領域に分けられている。操作領域ごとに別個の操作体系が定義されており、ユーザはタッチした操作領域に応じた操作を行う。
 図4は、タッチパネルTPに設定される複数の領域の一例を示す図である。図4に示す例では、タッチパネルTPの中央を境に、左側領域LAと右側領域RAとが設定されている。例えば、左側領域LAは、Xs座標がXmax/2未満の領域であり、右側領域RAは、Xs座標がXmax/2以上の領域である。例えば、左側領域LAは、主に、ユーザキャラクタUCに対する移動指示操作を行うために用いられる。一方、右側領域RAは、主に、ユーザキャラクタUCに対する移動指示操作以外の操作を行うために用いられる。先述の第1ボタンE18-1や第2ボタンE18-2は右側領域RA内に表示されており、これらのボタンは、ユーザキャラクタUCに対する移動指示操作以外の操作を行うために用いられる。
 図4では、タッチパネルTPの中央が操作領域の境界となっているが、操作領域の境界は任意の場所に設定されてもよい。また図4では、左側領域LAと右側領域RAの2つが設定されているが、タッチパネルTP上に設定される操作領域の数は2つに限られず、3つ以上であってもよい。
 以下、サッカーゲームでユーザが行う具体的な操作の一例について説明する。まず、操作対象のユーザキャラクタUCを移動させるための移動指示操作について説明する。図5は移動指示操作について説明するための図である。なお、実際には、仮想視点VCの視野内に位置しているユーザキャラクタUCや対戦相手キャラクタOC等や、第1ボタンE18-1及び第2ボタンE18-2が表示部15に表示されるが、図5では説明の簡略化のために省略している。
 移動指示操作を行う場合、図5に示すように、ユーザはタッチパネルTPの左側領域LAをタッチする。ユーザが指F等で左側領域LAへのタッチを開始すると、仮想的な方向パッドE10(方向ボタン)の画像が左側領域LAに表示される。方向パッドE10は、方向指示操作を受け付けるためのものであり、ユーザが方向を指示(入力)するために用いられる。なお、ユーザが右側領域RAへのタッチを開始したとしても、方向パッドE10は右側領域RAに表示されない。
 図6は方向パッドE10について説明するための図であり、左側領域LAへのタッチが開始された時点の方向パッドE10を示す。図6に示すように、方向パッドE10はベース部E11とポインタ部E13とを含む。ベース部E11は方向パッドE10の本体に相当し、図6に示す例では、中心点E12を中心とする円形形状を有している。ポインタ部E13はユーザのタッチ位置Tを示し、図6に示す例では、中心点E14を中心とする円形形状を有している。ここで示す例ではベース部E11とポインタ部E13とがともに円形形状を有しているが、ベース部E11とポインタ部E13とは円形形状でなくてもよいし、互いに異なる形状であってもよい。
 タッチ開始時点において、方向パッドE10の表示位置はユーザのタッチ位置Tに基づいて設定される。具体的には、方向パッドE10は、ベース部E11の中心点E12がユーザのタッチ位置Tと一致するようにして配置される。ポインタ部E13も、ポインタ部E13の中心点E14がユーザのタッチ位置Tと一致するようにして配置される。なお、ベース部E11の中心点E12は方向パッドE10全体の中心点に相当しているため、以下では、中心点E12を方向パッドE10の中心点と記載する場合がある。
 ユーザがスライド操作を行うことによってタッチ位置Tを移動させた場合、ポインタ部E13はタッチ位置Tの移動に応じて移動する。「スライド操作」とは、ユーザが指F等をタッチパネルTPにタッチさせた状態のまま当該指F等を移動させ、移動後においてもタッチを維持する操作である。
 本実施形態では、方向パッドE10の動作モードとして、通常モードとセンシティブモードとの二つのモードが用意されている。詳細については後述するが、通常モードとセンシティブモードとしてポインタ部E13の移動の仕方が異なる。サッカーゲームを初めてプレイする場合や、ユーザが特定の操作を行った場合に、通常モードとセンシティブモードとのいずれかの選択を受け付けるための動作モード選択画像が表示部15に表示される。動作モード選択画像を操作することによって、ユーザは通常モードとセンシティブモードとのいずれかを選択できる。
 図7は動作モード選択画像の一例を示す。図7に示すように、動作モード選択画像G2は、通常モードを選択するための表示要素であるオプションボタンE20-1と、センシティブモードを選択するための表示要素であるオプションボタンE20-2と、動作モードの選択を確定するための表示要素である設定ボタンE21とを含む。オプションボタンE20-1に対してタップ操作が行われると、通常モードが選択状態となるようになっている。同様に、オプションボタンE20-2に対してタップ操作が行われると、センシティブモードが選択状態となるようになっている。また、設定ボタンE21に対してタップ操作が行われると、選択状態にある動作モードに設定されるようになっている。このため、ユーザがオプションボタンE20-1,E20-2のいずれかに対してタップ操作を行うことによって通常モードとセンシティブモードとのいずれかを選択した後、設定ボタンE21に対してタップ操作を行うと、選択した動作モードに設定される。「タップ操作」とはタッチパネルTPを1回叩く操作である。ユーザの選択結果を示すデータは記憶部12(又は記憶部32、データベースDB)に記憶され、ゲームのプレイが行われる際に参照される。
 まず、通常モードについて説明する。通常モードでは、ポインタ部E13がタッチ位置Tと同じ移動方向に同じ移動速度で移動する。すなわち、ポインタ部E13が、タッチ位置Tの移動方向と同じ方向に、タッチ位置Tの移動距離と同じ距離だけ移動する。このため、ポインタ部E13の中心点E14は、タッチ位置Tと常に一致している。
 図8は、通常モード時にユーザがタッチ位置Tを移動させた場合を示している。図8では、ユーザがタッチ位置Tをベース部E11の中心点E12に対して上側に移動させており、このときポインタ部E13の中心点E14も、中心点E12に対して上側に移動している。
 方向パッドE10では、中心点E12からポインタ部E13の中心点E14(すなわちタッチ位置T)への方向Dがユーザによって指示された方向(指示方向)として判定される。このため、例えば図8に示すように、ユーザはタッチ位置Tを中心点E12に対して上側の位置に移動させることによって、上方向を指示することができる。また例えば、ユーザはタッチ位置Tを中心点E12に対して右側の位置に移動させることによって、右方向を指示することができる。
 ユーザが指示できる方向は上、下、左、右の四方向に限られるわけではない。例えば、ユーザは中心点E12を中心として360度どの方向も指定することができる。ただし、ユーザが指示可能な方向を四方向又は八方向(上、下、左、右、左上、右上、左下、右下)等の有限数の方向に限定してもよい。例えば、ユーザが指示可能な方向を八方向に限定する場合であれば、八方向のうちで上記方向Dに最も近い方向を指示方向として判定すればよい。
 操作対象のユーザキャラクタUCは、ユーザの指示方向に対応する仮想世界VWの方向に移動する。方向パッドE10における各方向は、仮想世界VWの各方向と対応付けられている。例えば、方向パッドE10における上方向、下方向、右方向、左方向は、仮想世界VWのZw軸正方向、Zw負方向、Xw正方向、Xw負方向とそれぞれ対応付けられる。そのため、ユーザが方向パッドE10で上方向を指示すると、操作対象のユーザキャラクタUCはZw軸正方向への移動動作(ボールBを保有している場合にはドリブル動作)を行う。このように、ユーザは中心点E12に対するタッチ位置Tの相対的位置を調整することによって、操作対象のユーザキャラクタUCの移動方向を指示することができる。
 操作対象のユーザキャラクタUCの移動速度は、方向パッドE10の中心点E12とポインタ部E13の中心点E14(すなわちタッチ位置T)との間の距離Lに基づいて設定される。例えば、距離Lと移動速度との対応関係を示す対応関係情報が設定されており、この対応関係情報と距離Lとに基づいて、操作対象のユーザキャラクタUCの移動速度が設定される。この対応関係情報は、例えば距離Lが長いほど移動速度が速くなるように設定される。このため、ユーザは、中心点E12とタッチ位置Tとの間の距離を調整することによって、操作対象のユーザキャラクタUCの移動方向とともに移動速度も指示することができる。
 また、本実施形態では、タッチ位置Tが方向パッドE10内から外に移動することに伴って方向パッドE10が移動するようになっている。つまり、タッチ位置Tが常に方向パッドE10内に位置するようになっている。
 図9A及び図9Bは方向パッドE10の移動について説明するための図である。図9Aに示す状態では、方向パッドE10の中心点E12が位置PAに位置している。また、タッチ位置Tとポインタ部E13の中心点E14とが位置PB(中心点E12に対して右上側の位置)に位置している。この場合、中心点E12から中心点E14への方向DA(右上方向)が指示方向として取得される。そして、このとき、操作対象のユーザキャラクタUCは、方向DAに対応する移動方向に、中心点E12,E14の間の距離LXに対応する移動速度で移動する。
 次に、このような状態から、ユーザが、指示方向を右上方向(方向DA)から右方向に変えるべく、タッチ位置Tを方向パッドE10外の位置PC(中心点E12に対して右側の位置)に向けて移動させた場合について説明する。
 図9Bに示すように、タッチ位置Tが位置PCに移動すると、本実施形態では、タッチ位置Tの移動前(図9A)における中心点E12の位置である位置PAから、タッチ位置Tの移動先位置である位置PCへの方向DCを方向パッドE10の移動方向として決定する。方向DCは、位置PAから位置PBへの方向DA(すなわち、タッチ位置Tの移動前(図9A)における指示方向)と、位置PBから位置PCへの方向DB(すなわち、タッチ位置Tの移動方向)とを合成してなる方向である。つまり、方向DCは、位置PAから位置PBへのベクトルと、位置PBから位置PCへのベクトルとの合成ベクトルが示す方向である。
 そして、位置PAから方向DCに延びる直線上の位置であって、位置PCから位置PAと位置PBとの間の距離LXだけ離れた位置PEを方向パッドE10の移動先位置として決定する。移動先位置を決定した後、中心点E12が位置PEと一致するようにして、方向パッドE10を方向DCに平行移動させる。ここで、「平行移動」とは、方向パッドE10のすべての点を一定の方向に一定の距離だけ動かすことである。
 以上のようにして方向パッドE10が移動した場合、位置PE(方向パッドE10の中心点E12)から位置PC(ポインタ部E13の中心点E14)への方向DD(右方向)が指示方向として取得される。先述の通り、ユーザは指示方向を右方向に変えることを意図してタッチ位置Tを位置PCに移動させているところ、ユーザの意図している指示方向(右方向)がゲーム側で取得される。本実施形態によれば、タッチ位置Tの移動前における指示方向(図9A,9Bの方向DA)と、タッチ位置Tの移動方向(図9A,9Bの方向DB)との両方を考慮して、方向パッドE10の移動方向(方向DC)を決定するため、方向パッドE10の移動後においてユーザの意図している指示方向がゲーム側で取得される。このため、操作対象のユーザキャラクタUCがユーザの意図している方向に移動する。
 また、タッチ位置Tの移動前(図9A)と移動後(図9B)とで中心点E12と中心点E14(タッチ位置T)との間の距離が同じ距離(LX)になるため、方向パッドE10の移動後においても操作対象のユーザキャラクタUCが同じ移動速度で移動する。
 なお、以上のような方向パッドE10の移動が1又は複数回実行されることによって、方向パッドE10が右側領域RA内まで移動する場合がある。先述のように、右側領域RAはユーザキャラクタUCの移動指示操作以外の操作のための領域であるため、ユーザが右側領域RAへのタッチを開始しても、方向パッドE10は右側領域RAに表示されないが、図10に示すように、方向パッドE10が左側領域LAに表示された後でユーザのタッチ位置が右側領域RAに移動した場合には、方向パッドE10も右側領域RA内に移動するようにしている。このため、ユーザが方向パッドE10を介して方向指示操作を行っている間に、タッチ位置が右側領域RA内に入ってしまったとしても、ユーザは方向指示操作を続行できる。
 次に、センシティブモードについて説明する。センシティブモードは、ポインタ部E13がタッチ位置Tと同じ移動方向に移動する点で通常モードと共通するが、ポインタ部E13がタッチ位置Tよりも速い移動速度で移動する点で通常モードと相違する。すなわち、センシティブモードでは、ポインタ部E13がタッチ位置Tの移動方向と同じ方向にタッチ位置Tの移動距離よりも長い距離移動する。
 図11は、センシティブモードにおける方向パッドE10の一例を説明するための図である。図6と同様に、図11は、左側領域LAへのタッチが開始された時点における方向パッドE10を示す。図11に示すように、センシティブモードにおいても方向パッドE10はベース部E11とポインタ部E13とを含む。特にセンシティブモードでは、方向パッドE10(ベース部E11)よりも小さい領域である基準領域E15が設定される。例えば、基準領域E15はベース部E11の表示領域を1/nに縮小した領域に相当する。図11に示す例では、基準領域E15がベース部E11の表示領域を1/2に縮小した領域に相当している。すなわち、方向パッドE10(ベース部E11)が中心点E12を中心とした半径Rの円形領域であるのに対し、基準領域E15は中心点E12を中心とした半径R/2の円形領域になっている。
 センシティブモードにおいても、タッチ位置Tの移動に応じてポインタ部E13が移動する。図12Aは、タッチ位置Tが中心点E12から右方向に距離L離れた位置に移動した場合を示している。この場合、ポインタ部E13は中心点E12から右方向に距離Lの2倍の距離離れた位置まで移動する。すなわち、ポインタ部E13はタッチ位置Tの移動方向と同じ方向にタッチ位置Tの移動距離の2倍の距離を移動する。
 この場合、中心点E12から中心点E14への方向D(右方向)がユーザの指示方向として取得され、操作対象のユーザキャラクタUCの移動方向が当該方向Dに対応する方向に設定される。また、中心点E12,E14の間の距離(L*2)が取得され、操作対象のユーザキャラクタUCの移動速度が当該距離(L*2)に対応する速度に設定される。なお、「*」は乗算演算子である。
 図12Bは、タッチ位置Tが中心点E12から左方向に距離L離れた位置に移動した場合を示している。この場合、ポインタ部E13は中心点E12から左方向に距離Lの2倍の距離離れた位置まで移動する。
 この場合、中心点E12から中心点E14への方向D(左方向)がユーザの指示方向として取得され、操作対象のユーザキャラクタUCの移動方向が当該方向Dに対応する方向に設定される。また、中心点E12,E14の間の距離(L*2)が取得され、操作対象のユーザキャラクタUCの移動速度が当該距離(L*2)に対応する速度に設定される。
 表示部15に表示される仮想的な方向パッドP10の場合、現実の方向パッドとは異なり、ユーザは操作している感触を得ることができないため、ユーザによってはタッチ位置Tの移動距離が小さくなる傾向がある場合がある。前記通常モードでは、ポインタ部E13がタッチ位置Tの移動距離と同じ距離しか移動しないため、上記のような傾向を有するユーザの場合、ポインタ部E13が大きく移動しないことによって、ユーザキャラクタUCの移動速度が速くならない場合がある。これに対し、センシティブモードでは、ポインタ部E13がタッチ位置Tの移動距離の2倍の距離移動するため、上記のような傾向を有するユーザであっても、ポインタ部E13が大きく移動するようになり、上記のような不都合が生じ難くなる。
 また、通常モードでは、ポインタ部E13を図12Aにおける位置から図12Bにおける位置まで移動させる場合、タッチ位置Tを図12Aにおける中心点E14から図12Bにおける中心点E14の位置まで移動させる必要がある。この点、上記のような傾向を有するユーザの場合、タッチ位置Tの移動距離が十分でなく、ポインタ部E13が図12Bに示す位置まで移動せず、場合によっては、ポインタ部E13が方向パッドE10の中心点E12よりも左側の位置まで移動しない場合もある。この場合、ユーザは左方向を指示しているつもりであるのにもかかわらず、ゲーム側では右方向が指示されていると判定されることになる。これに対し、センシティブモードでは、ポインタ部E13がタッチ位置Tの移動距離の2倍の距離移動するため、上記のような傾向を有するユーザであっても、ポインタ部E13が大きく移動するようになり、上記のような不都合が生じ難くなる。
 なお、センシティブモードでは、タッチ位置Tが基準領域E15内から外に向けて移動する場合に、タッチ位置Tが基準領域E15内に位置するようにすべく、方向パッドE10(ベース部E11及び基準領域E15)が移動する。図13A及び図13Bは、センシティブモード時における方向パッドE10(ベース部E11及び基準領域E15)の移動について説明するための図である。
 図13Aに示すように、方向パッドE10の中心点E12が位置PFに位置している。また、タッチ位置Tが位置PG(中心点E12に対して右上の位置)に位置している。位置PGは中心点E12から距離LY離れている。ポインタ部E13の中心点E14は、中心点E12から位置PGへの方向に距離LYの2倍の距離離れた位置PI(中心点E12に対して右上の位置)に位置している。この場合、位置PF(方向パッドE10の中心点E12)から位置PI(ポインタ部E13の中心点E14)への方向DEが指示方向として取得される。そして、操作対象のユーザキャラクタUCは、方向DEに対応する移動方向に、距離LY*2に対応する移動速度で移動する。このような状態で、ユーザが指示方向を右上方向(方向DE)から右方向に変えるべく、タッチ位置Tを位置PGから基準領域E15外の位置PHに向けて移動させると、図13Bに示すように、ポインタ部E13の中心点E14はベース部E11外の位置PJに移動する。
 また、このとき、方向パッドE10(ベース部E11及び基準領域E15)が図13Bに示すように右方向に移動する。図13Bにおいて、一点破線は移動前のベース部E11や基準領域E15を示している。この場合、まず、タッチ位置Tの移動前(図13A)における中心点E12の位置である位置PFから、タッチ位置Tの移動先位置である位置PHへの方向DGを方向パッドE10の移動方向として決定する。ここで、方向DGは、位置PFから位置PGへの方向DE(すなわち、移動前(図13A)における指示方向)と、位置PGから位置PHへの方向DF(すなわち、タッチ位置Tの移動方向)とを合成してなる方向である。すなわち、方向DGは、位置PFから位置PGへのベクトルと、位置PGから位置PHへのベクトルとの合成ベクトルが示す方向である。
 そして、位置PFから方向DGに延びる直線上の位置であって、位置PHから距離LY(移動前(図13A)における中心点E12とタッチ位置Tとの間の距離)だけ離れた位置PKを方向パッドE10の移動先位置として決定する。そして、中心点E12が位置PKと一致するようにして、方向パッドE10(ベース部E11及び基準領域E15)を方向DGに平行移動させる。
 以上のようにして方向パッドE10(ベース部E11及び基準領域E15)が移動した場合、移動後の中心点E12(位置PK)からポインタ部E13の中心点E14(位置PJ)への方向DH(右方向)が指示方向として取得される。先述の通り、ユーザは指示方向を右方向に変えることを意図してタッチ位置Tを移動させたところ、図13Bに示す移動方法によれば、ユーザの意図している指示方向(右方向)がゲーム側で取得される。図13Bに示す移動方法では、移動前における指示方向(方向DE)と、タッチ位置Tの移動方向(方向DF)との両方を考慮して、方向パッドE10の移動方向(方向DG)を決定するため、移動後においてユーザの意図している指示方向がゲーム側で取得される。このため、操作対象のユーザキャラクタUCがユーザの意図している方向に移動する。
 また、図13Bに示すように、方向パッドE10の移動前(図13A)と移動後(図13B)とで中心点E12,E14の間の距離が同じ距離(LY*2)になるため、移動後においても操作対象のユーザキャラクタUCが同じ移動速度で移動する。
 なお、センシティブモードにおいても、以上のような方向パッドE10(ベース部E11や基準領域E15)の移動が1又は複数回実行されることによって、方向パッドE10が右側領域RA内まで移動する場合がある。センシティブモードにおいても、通常モードと同様に(図10)、方向パッドE10が左側領域LAに表示された後でユーザのタッチ位置が右側領域RAに移動した場合には方向パッドE10も右側領域RA内に移動する。このため、ユーザが方向パッドE10を介して方向指示操作を行っている間に、タッチ位置が右側領域RA内に入ってしまったとしても、ユーザは方向指示操作を続行できる。
 次に、操作対象のユーザキャラクタUCに対して移動動作以外の特定の動作(パス等)を行わせるための動作指示操作について説明する。図14は動作指示操作の一例について示す図である。なお、実際には仮想視点VCの視野内に位置しているユーザキャラクタUCや対戦相手キャラクタOC等が表示されるが、図14では説明の簡略化のために省略している。
 操作対象のユーザキャラクタUCに対する動作指示操作を行う場合、ユーザはタッチパネルTPの右側領域RAに対して操作を行う。右側領域RAに表示される第1ボタンE18-1や第2ボタンE18-2は、ユーザキャラクタUCが行う動作と関連付けられている。例えば、第1ボタンE18-1は「パス」と関連付けられている。このため、例えば図14に示すように、操作対象のユーザキャラクタUCがボールBを保有していてパスを行うことが可能な状態でユーザが第1ボタンE18-1をタッチすると、操作対象のユーザキャラクタUCがパスを行う。なお、操作対象のユーザキャラクタUCがパスを行うことが可能でない状態でユーザが第1ボタンE18-1をタッチした場合には、パス準備状態とし、操作対象のユーザキャラクタUCがパスを行うことが可能な状態になるのを待って、操作対象のユーザキャラクタUCにパスを行わせるようにしてもよい。
 また例えば、第2ボタンE18-2は「シュート」と関連付けられている。このため、操作対象のユーザキャラクタUCが敵陣においてボールBを保有していてシュートを行うことが可能な状態でユーザが第2ボタンE18-2に対してタップ操作を行うと、操作対象のユーザキャラクタUCがシュートを行う。この際、ユーザがタップ操作にかけた時間(すなわち、ユーザが指等を第2ボタンE18-2にタッチさせてから当該指等をタッチパネルTPから離すまでの時間)によって、シュートの強さ(又は角度)が設定されるようにしてもよい。また、操作対象のユーザキャラクタUCがシュートを行うことが可能でない状態でユーザが第2ボタンE18-2に対してタップ操作を行った場合には、シュート準備状態とし、操作対象のユーザキャラクタUCがシュートを行うことが可能な状態になるのを待って、操作対象のユーザキャラクタUCにシュートを行わせるようにしてもよい。なお、「敵陣」とは、ピッチPTのうちハーフウェーラインHLよりも対戦相手チームのゴールGL側の領域である。
 また例えば、第1ボタンE18-1又は第2ボタンE18-2と関連付けられる動作は、攻撃時と守備時とで異なっていてもよい。例えば、対戦相手チームがボールBを保有している状態でユーザが第1ボタンE18-1をタッチした場合には、操作対象のユーザキャラクタUCがスライディングを行うようにしてもよい。また例えば、第1ボタンE18-1又は第2ボタンE18-2と関連付けられる動作は、操作対象のユーザキャラクタUCの位置によって異なってもよい。例えば、操作対象のユーザキャラクタUCが自陣においてボールBを保有している状態でユーザが第2ボタンE18-2に対してタップ操作を行った場合には、操作対象のユーザキャラクタUCがボールBをユーザチームのゴールGLから遠ざけるべく大きく蹴り出すようにしてもよい。「自陣」とは、ピッチPTのうちハーフウェーラインHLよりもユーザチームのゴールGL側の領域である。
 なお、第1ボタンE18-1や第2ボタンE18-2のような仮想的なボタンの画像を右側領域RAに表示しないようにしてもよい。例えば、ユーザがフリック操作、タップ操作、又はダブルタップ操作等を右側領域RAの任意の位置で行った場合に、ユーザが行った操作に関連付けられた動作を操作対象のユーザキャラクタUCが行うようにしてもよい。なお、「フリック操作」とは、例えば、ユーザがタッチパネルTPをタッチした後に、タッチを維持したまま素早くタッチ位置を移動させてタッチを解除する操作である。また、「ダブルタップ操作」とは、例えば、タップ操作を2回続けて行う操作である。
 [3.機能ブロック]以上に説明したようなゲームを実現するための構成について説明する。図15は、ゲームシステム1で実現される主な機能ブロックを示す機能ブロック図である。図15に示すように、ゲームシステム1は、データ記憶部100、選択受付部110、領域設定部120、操作位置取得部130、指示方向取得部140、処理実行部150、及び領域移動部160を含む。
 例えば、これらの機能ブロックはゲーム端末10で実現される。すなわち、データ記憶部100は記憶部12によって実現され、他の機能ブロックは制御部11によって実現される。なお、データ記憶部100はゲーム端末10からアクセス可能な他の装置の記憶部によって実現されてもよい。また、上記の機能ブロックはサーバ30で実現されてもよい。あるいは、上記の機能ブロックのうちの一部がゲーム端末10で実現され、残りがサーバ30で実現されてもよい。
 [3-1]データ記憶部100はゲームを実行するために必要なデータを記憶する。ここでは、データ記憶部100が記憶するデータの一例として、ゲーム状況データD101及び操作状況データD102について説明する。
 ゲーム状況データD101は実行中のゲームの状況を示すデータである。ゲーム状況データD101はゲームの実行中に繰り返し更新される。例えば、ゲーム状況データD101は、仮想世界VWの現在の状況を示すデータや、試合の戦況を示すデータを含む。
 仮想世界VWの現在の状況を示すデータは、例えば各ゲームキャラクタの状態、ボールBの状態、及び仮想視点VCの状態を示すデータを含む。また、ゲームキャラクタの状態を示すデータは、例えばユーザキャラクタUC及び対戦相手キャラクタOCの各々の識別情報、位置、向き、姿勢、移動方向、及び移動速度等を示すデータや、操作対象に設定されているユーザキャラクタUCを識別するデータを含む。また、ボールBの状態を示すデータは、例えばボールBの位置、移動方向、移動速度等を示すデータや、ボールBを保有するゲームキャラクタを識別するデータを含む。また、仮想視点VCの状態を示すデータは、例えば仮想視点VCの位置、視線方向、画角等を示すデータを含む。また、試合の戦況を示すデータは、例えばユーザチームの得点、対戦相手チームの得点、及び試合の経過時間等を示すデータを含む。
 操作状況データD102はユーザの操作状況を示すデータである。例えば、操作状況データD102は、タッチパネルTPへのタッチが開始されてから現在までの間のタッチ位置の履歴を示すデータを含む。また例えば、操作状況データD102は方向パッドE10に関するデータを含む。例えば、方向パッドE10に関するデータは、方向パッドE10の動作モードを示すデータ、方向パッドE10が表示されているか否かを示すデータや、方向パッドE10(中心点E12,E14)の現在位置を示すデータを含む。
 なお、データ記憶部100に記憶されるデータは上記の例に限られない。データ記憶部100には、ゲームを実行するために必要な他のデータも記憶される。例えば、左側領域LAと右側領域RAとを識別するデータ(例えば、境界や端部などの位置を示す座標データ)も記憶される。また例えば、キャラクタが動作を定義したモーションデータや、操作内容とキャラクタの動作との関係を示すデータも記憶される。
 [3-2]領域設定部120は受付領域設定部121を含む。受付領域設定部121は、方向指示操作を受け付ける受付領域をタッチパネルTPに設定する。
 ここで、「方向指示操作」とは、方向を指示(入力)するためにユーザが行う操作である。また、「受付領域をタッチパネルに設定する」とは、タッチパネルTPの一部領域を受付領域として設定することである。
 「受付領域」とは、方向指示操作を受け付けるために用いられる領域である。「受付領域」は可視の領域であってもよいし、不可視の領域であってもよい。すなわち、「受付領域」は表示されてもよいし、表示されていなくてもよい。例えば、方向指示操作を行うための仮想的な操作部材(仮想的な方向ボタン又は方向レバー等)を表示部15に表示する場合、当該仮想的な操作部材が表示される領域が「受付領域」に相当する。なお、仮想的な操作部材が表示される領域とは別個に設定される非表示の領域が「受付領域」に相当してもよい。例えば、「受付領域」はタッチパネルTPへのタッチが開始された場合に設定される。この場合、タッチ位置に基づいて「受付領域」が設定される。例えば、タッチ位置を含むような領域が「受付領域」として設定される。なお、「受付領域」はタッチパネルTPがタッチされていない場合にも設定されていてもよい。また、「受付領域」の初期位置は予め定められた位置に設定されてもよい。上述のサッカーゲームの例では、方向パッドE10(ベース部E11)が「受付領域」の一例に相当する。すなわち、方向パッドE10(ベース部E11)が表示された領域が「受付領域」の一例に相当する。
 例えば、受付領域設定部121は、タッチパネルTPの第1領域内がタッチされた場合に、タッチ位置に基づいて、第1領域内に受付領域を設定し、タッチパネルの第1領域以外の第2領域内がタッチされた場合に、受付領域を設定しない。
 上述のサッカーゲームの例では、タッチパネルTPの左側領域LAが「第1領域」の一例に相当し、右側領域RAが「第2領域」の一例に相当する。または、右側領域RAが「第1領域」の一例に相当し、左側領域LAが「第2領域」の一例に相当してもよい。なお、タッチパネルTPの中央を境に設定される上側領域と下側領域とのうちの一方が「第1領域」の一例に相当し、他方が「第2領域」の一例に相当してもよい。
 上述のサッカーゲームの場合、タッチパネルTPの左側領域LA(第1領域の一例)へのタッチが開始された場合に、受付領域設定部121は方向パッドE10(受付領域の一例)を左側領域LA内に表示する。この場合、受付領域設定部121は、タッチ位置Tを中心点E12として方向パッドE10を表示する。なお、タッチパネルTPの右側領域RA(第2領域の一例)へのタッチが開始されたとしても、受付領域設定部121は方向パッドE10を表示しない。
 図15に示すように、領域設定部120は対応領域設定部122を含む。対応領域設定部122は上述のサッカーゲームのセンシティブモードに関連する機能ブロックである。
 対応領域設定部122は、受付領域よりも小さい対応領域を設定する。なお、対応領域設定部122は、タッチパネルTPの第1領域内がタッチされた場合に、タッチ位置に基づいて、第1領域内に対応領域を設定し、タッチパネルの第1領域以外の第2領域内がタッチされた場合に、対応領域を設定しない。
 ここで、「対応領域」とは、受付領域に対応する領域であって、かつ、受付領域よりも小さい領域である。例えば、「対応領域」とは、受付領域を縮小した領域に相当する領域である。具体的には、「対応領域」とは、受付領域を1/n(n:1よりも大きい正の数値)に縮小した領域に相当する領域である。通常、「対応領域」は不可視の領域であり、表示部15に表示されない。ただし、「対応領域」は可視の領域であってもよく、表示部15に表示されてもよい。例えば、「対応領域」は受付領域と互いに基準位置(例えば中心点)が一致するようにして設定される。
 上述のサッカーゲームの例では、センシティブモードにおける基準領域E15が「対応領域」の一例に相当する。すなわち、上述のサッカーゲームの場合、センシティブモードが選択されている状態でタッチパネルTPの左側領域LA(第1領域の一例)へのタッチが開始された場合に、対応領域設定部122は、方向パッドE10のベース部E11の表示領域(「受付領域」の一例)を1/2に縮小した領域に相当する不可視の領域を基準領域E15として左側領域LA内に設定する。この場合、対応領域設定部122は、タッチ位置T(言い換えれば、ベース部E11の中心点E12)を中心として基準領域E15を設定する。なお、センシティブモードが選択されている状態でタッチパネルTPの右側領域RA(第2領域の一例)へのタッチが開始されたとしても、対応領域設定部122は基準領域E15を設定しない。
 [3-3]操作位置取得部130は、タッチパネルTPのタッチ位置に応じた操作位置を取得(設定)する。
 ここで、「タッチパネルTPのタッチ位置」とは、タッチパネルTPがタッチされている場合においてタッチされている位置である。また、「操作位置」とは、方向指示操作に関する操作位置である。すなわち、「操作位置」とは、方向を指示するための位置である。言い換えれば、「操作位置」とは、指示方向を示す位置である。上述のサッカーゲームの例では、ポインタ部E13の中心点E14が「操作位置」の一例に相当する。
 「タッチ位置に応じた操作位置を取得(設定)する」とは、例えば、タッチ位置自体を操作位置として取得(設定)することである。または、「タッチ位置に応じた操作位置を取得(設定)する」とは、例えば、タッチ位置以外の位置であって、かつ、タッチ位置に基づいて得られる位置を操作位置として取得(設定)することであってもよい。例えば、「タッチ位置に応じた操作位置を取得する」とは、タッチ位置と所定の関係を有する位置を操作位置として取得(設定)することであってもよい。
 操作位置取得部130は、タッチ位置の移動に応じて、操作位置を移動させる。
 ここで、「タッチ位置の移動に応じて、操作位置を移動させる」とは、例えば、タッチ位置の移動方向に対応する方向に操作位置を移動させることである。「タッチ位置の移動方向に対応する方向」とは、タッチ位置の移動方向と所定の対応関係を有する方向である。例えば、「タッチ位置の移動方向に対応する方向」とは、タッチ位置の移動方向と同じ方向又は略同じ方向である。「タッチ位置の移動方向に対応する方向」は、タッチ位置の移動方向と同じ方向又は略同じ方向でなくてもよく、タッチ位置の移動方向と所定の対応関係を有する他の方向であってもよい。なお、「方向Xと略同じ方向」とは、ユーザが認識できない程度に小さく方向Xからずれた方向である。
 また、「タッチ位置の移動に応じて、操作位置を移動させる」とは、例えば、タッチ位置の移動距離に対応する距離だけ操作位置を移動させることである。「タッチ位置の移動距離に対応する距離」とは、タッチ位置の移動距離と所定の対応関係を有する距離である。例えば、「タッチ位置の移動距離に対応する距離」とは、タッチ位置の移動距離と同じ距離又は略同じ距離である。または、「タッチ位置の移動距離に対応する距離」とは、タッチ位置の移動距離に所定係数(1よりも大きい正の値)を乗じることによって得られる距離であってもよいし、タッチ位置の移動距離に所定距離を足すことによって得られる距離であってもよい。なお、「距離Xと略同じ距離」とは、ユーザが認識できない程度に小さく距離Xと異なる距離である。
 図15に示すように、操作位置取得部130は第1操作位置移動部131と第2操作位置移動部132とを含む。第1操作位置移動部131は上述のサッカーゲームの通常モードに関連する機能ブロックであり、第2操作位置移動部132は上述のサッカーゲームのセンシティブモードに関連する機能ブロックである。
 第1操作位置移動部131は、タッチ位置の移動に応じて、操作位置を、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離移動させる。
 ここで、「操作位置を、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離移動させる」とは、「現在の操作位置から、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離離れた位置」を新たな操作位置として設定することである。
 第2操作位置移動部132は、タッチ位置の移動に応じて、操作位置を、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離よりも長い距離移動させる。
 ここで、「タッチ位置の移動距離よりも長い距離」とは、例えば、タッチ位置の移動距離に所定係数(1よりも大きい正の値)を乗じることによって得られる距離である。また、「タッチ位置の移動距離よりも長い距離」とは、例えば、タッチ位置の移動距離に所定距離を加えることによって得られる距離であってもよい。
 「操作位置を、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離よりも長い距離移動させる」とは、「現在の操作位置から、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離よりも長い距離離れた位置」を新たな操作位置として設定することである。
 例えば、第2操作位置移動部132は、操作位置と受付領域に対応する基準位置との位置関係がタッチ位置と対応領域に対応する基準位置との位置関係に対応するようにして、操作位置を設定する。第2操作位置移動部132は、タッチ位置の移動に応じて、操作位置を、タッチ位置の移動方向に対応する方向に、対応領域に対する受付領域の相対的なサイズに応じてタッチ位置の移動距離を長くすることによって得られる距離移動させる。
 ここで、「操作位置と受付領域に対応する基準位置との位置関係がタッチ位置と対応領域に対応する基準位置との位置関係に対応するようにして、操作位置を設定する」とは、受付領域に対応する基準位置から操作位置への方向が、対応領域に対応する基準位置からタッチ位置への方向に対応する方向となり、かつ、受付領域に対応する基準位置と操作位置との間の距離が、対応領域に対応する基準位置とタッチ位置との間の距離に対応する距離となるようにして、操作位置を設定することである。
 なお、「基準位置からタッチ位置への方向に対応する方向」とは、基準位置からタッチ位置への方向と所定の対応関係を有する方向である。例えば、基準位置からタッチ位置への方向と同じ方向又は略同じ方向である。または、基準位置からタッチ位置への方向と同じ方向又は略同じ方向でなくてもよく、基準位置からタッチ位置への方向と所定の対応関係を有する他の方向であってもよい。
 また、「基準位置とタッチ位置との間の距離に対応する距離」とは、基準位置とタッチ位置との間の距離と所定の対応関係を有する距離である。例えば、基準位置とタッチ位置との間の距離に所定係数(1よりも大きい正の値)を乗じることによって得られる距離であってもよいし、基準位置とタッチ位置との間の距離に所定距離を加えることによって得られる距離である。または、基準位置とタッチ位置との間の距離と同じ距離又は略同じ距離であってもよい。
 また、「対応領域に対する受付領域の相対的なサイズに応じてタッチ位置の移動距離を長くすることによって得られる距離」とは、例えば、対応領域に対する受付領域の相対的なサイズに応じた係数(1よりも大きい正の数値)をタッチ位置の移動距離に乗じることによって得られる距離である。または、例えば、対応領域に対する受付領域の相対的なサイズに応じた距離をタッチ位置の移動距離に加えることによって得られる距離であってもよい。
 例えば、対応領域が、受付領域を1/n(n:1よりも大きい正の数値)に縮小した領域に相当している場合、第2操作位置移動部132は、タッチ位置の移動に応じて、操作位置を、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離をn倍することによって得られる距離移動させる。
 上述のサッカーゲームの場合、通常モードでは、操作位置取得部130(第1操作位置移動部131)は、タッチ位置T(操作位置の一例)を取得し、当該位置が中心点E14になるようにしてポインタ部E13を表示する。一方、センシティブモードでは、操作位置取得部130(第2操作位置移動部132)は、ベース部E11の中心点E12から、タッチ位置Tへの方向に、中心点E12とタッチ位置Tとの間の距離の2倍の距離離れた位置(操作位置の他の一例)を取得し、当該位置が中心点E14になるようにしてポインタ部E13を表示する。
 [3-4]指示方向取得部140は、受付領域に対応する基準位置から操作位置への方向に基づいて指示方向を取得する。
 ここで、「受付領域に対応する基準位置」とは、指示方向を取得する際の基準として用いられる位置である。例えば、受付領域の代表的な点の位置が「基準位置」として設定される。具体的には、例えば、受付領域の中心点が「基準位置」として設定される。なお、受付領域の中心点以外の位置が「基準位置」として設定されてもよい。上述のサッカーゲームの例では方向パッドE10(ベース部E11)の中心点E12が「基準位置」の一例に相当する。
 「指示方向」とは、方向指示操作によって指示された方向である。言い換えれば、「指示方向」とは、ユーザによって指示(入力)された方向である。また、「基準位置から操作位置への方向に基づいて指示方向を取得する」とは、例えば、基準位置から操作位置への方向に対応する方向を指示方向として取得することである。ここで、「基準位置から操作位置への方向に対応する方向」とは、基準位置から操作位置への方向と所定の対応関係を有する方向である。例えば、「基準位置から操作位置への方向に対応する方向」とは、基準位置から操作位置への方向と同じ方向又は略同じ方向である。また、ユーザが指示可能な方向が有限数の方向(例えば四方向又は八方向等)に限定されている場合であれば、「基準位置から操作位置への方向に対応する方向」とは、それら有限数の方向のうちで、基準位置から操作位置への方向に最も近い方向である。
 上述のサッカーゲームの場合、指示方向取得部140は、方向パッドE10(ベース部E11)の中心点E12からポインタ部E13の中心点E14への方向を指示方向として取得する。例えば図8に示した状態では、指示方向取得部140は上方向を指示方向として取得する。また例えば図9A,13Aに示した状態では、指示方向取得部140は右上方向を指示方向として取得する。また例えば図9B,12A,13Bに示した状態では、指示方向取得部140は右方向を指示方向として取得する。また例えば図12Bに示した状態では、指示方向取得部140は左方向を指示方向として取得する。
 [3-5]処理実行部150は、指示方向取得部140によって取得された指示方向に基づいて処理を実行する。例えば、処理実行部150は指示方向に基づいてゲーム処理を実行する。処理実行部150は、指示方向と、基準位置と操作位置との間の距離とに基づいて、ゲーム処理を実行するようにしてもよい。
 ここで、「ゲーム処理」とは、ゲームに関する処理である。また、「指示方向に基づいてゲーム処理を実行する」とは、例えば、ゲームに関する事項(パラメータ等)を指示方向に基づいて設定することである。例えば、ゲームに関する方向が「ゲームに関する事項」の一例に相当する。さらに、「指示方向と、基準位置と操作位置との間の距離とに基づいて、ゲーム処理を実行する」とは、ゲームに関する第1の事項(第1のパラメータ等)を指示方向に基づいて設定し、ゲームに関する第2の事項(第2のパラメータ等)を距離に基づいて設定することである。例えば、ゲームに関する方向が「第1の事項」の一例に相当し、ゲームに関する方向以外の事項が「第2の事項」の一例に相当する。
 例えば、ユーザの操作対象に関する制御処理が「ゲーム処理」の一例に相当し、処理実行部150はユーザの操作対象に関する制御処理を実行する。また、ユーザの操作対象の動作に関する方向が「ゲームに関する方向」の一例に相当し、ユーザの操作対象の動作に関する程度(速さ又は強さ等)が「ゲームに関する方向以外の事項」の一例に相当する。
 「操作対象」とは、ユーザによる操作の対象となるオブジェクトである。なお、「オブジェクト」とは、表示部15に表示されるものであって、ユーザによる操作の対象となり得るものである。例えば、ユーザの操作に従って動作するキャラクタ又は乗物や、ユーザの操作に従って移動するカーソル等が「オブジェクト」の一例に相当する。上述のサッカーゲームの例では、操作対象のユーザキャラクタUCが「操作対象」の一例に相当する。
 「操作対象に関する制御処理」とは、例えば、操作対象の移動制御処理や、操作対象の移動制御処理以外の制御処理を含む。「操作対象の移動制御処理」とは、操作対象を移動させる処理である。「操作対象の移動制御処理以外の制御処理」とは、例えば、移動動作以外の動作を操作対象に行わせる処理である。
 例えば、処理実行部150は、指示方向に基づいて、操作対象の移動制御処理を実行する。また、処理実行部150は、タッチパネルTPの第2領域内がタッチされた場合に、タッチ位置又はタッチ位置の移動軌跡に基づいて、操作対象に関する制御処理であって、移動制御処理以外の制御処理を実行する。
 ここで、「指示方向に基づいて、操作対象の移動制御処理を実行する」とは、例えば、指示方向に基づく移動方向に操作対象を移動させることである。また、「タッチ位置の移動軌跡」とは、タッチ位置が移動した経路である。言い換えれば、「タッチ位置の移動軌跡」とは、ユーザが指等をタッチパネルTPにタッチさせた状態のままでスライド操作又はフリック操作を行うことによって描いた軌跡である。
 「移動制御処理以外の制御処理」とは、例えば、所定の動作(移動動作以外の動作)を操作対象に行わせる処理である。また、「タッチ位置又はタッチ位置の移動軌跡に基づいて、移動制御処理以外の制御処理を実行する」とは、例えば、タッチ位置又はタッチ位置の移動軌跡に基づいて、タッチパネルTPの第2領域内に対してタップ操作、ダブルタップ操作、フリック操作、又はスライド操作が行われたか否かを判定し、当該判定結果に応じて移動制御処理以外の制御処理を実行することである。具体的には、タッチパネルTPの第2領域内に対してタップ操作、ダブルタップ操作、フリック操作、又はスライド操作が行われた場合に、行われた操作に関連付けられた動作(移動動作以外の動作)を操作対象に行わせることである。
 または、「タッチ位置又はタッチ位置の移動軌跡に基づいて、移動制御処理以外の制御処理を実行する」とは、例えば、タッチ位置又はタッチ位置の移動軌跡に関連付けられた動作(移動動作以外の動作)を操作対象に行わせることであってもよい。具体的には、例えば、タッチ位置に表示要素(ボタン又はアイコン等)が表示されている場合に、当該表示要素に関連付けられた動作を操作対象に行わせることであってもよい。また例えば、タッチ位置の移動軌跡として所定の移動軌跡が入力された場合に、当該所定の移動軌跡に関連付けられた動作を操作対象に行わせることであってもよい。
 上述のサッカーゲームの場合、処理実行部150は、指示方向に基づいて、操作対象のユーザキャラクタUCを移動させる処理(移動制御処理の一例)を実行する。具体的には、処理実行部150は、指示方向に基づいて、操作対象のユーザキャラクタUCの移動方向(「ユーザの操作対象の動作に関する方向」の一例)を設定する。すなわち、処理実行部150は、指示方向に対応する仮想世界VW内の方向を、操作対象のユーザキャラクタUCの移動方向として設定する。例えば、方向パッドE10における上方向が仮想世界VWのZw軸正方向と対応付けられている場合において、上方向が指示方向として取得された場合、処理実行部150はZw軸正方向を操作対象のユーザキャラクタUCの移動方向として設定する。
 また、処理実行部150は、方向パッドE10の中心点E12とポインタ部E13の中心点E14との間の距離に基づいて、操作対象のユーザキャラクタUCの移動速度(「ユーザの操作対象の動作に関する程度」の一例)を設定する。すなわち、処理実行部150は、中心点E12,E14の間の距離に対応する移動速度を、操作対象のユーザキャラクタUCの移動速度として設定する。
 また、処理実行部150は、タッチパネルTPの右側領域RA(「第2領域」の一例)がタッチされた場合に、タッチ位置又はタッチ位置の移動軌跡に基づいて、操作対象のユーザキャラクタUCにパス又はシュートを行わせる処理(「移動制御処理以外の制御処理」の一例)を実行する。例えば、右側領域RA内の第1ボタンE18-1がタッチされた場合に、処理実行部150は操作対象のユーザキャラクタUCにパスを行わせ、右側領域RA内の第2ボタンE18-2に対してタップ操作が行われた場合に、処理実行部150は操作対象のユーザキャラクタUCにシュートを行わせる。なお、フリック操作が右側領域RAで行われた場合に、処理実行部150は操作対象のユーザキャラクタUCにパスを行わせ、ダブルタップ操作が行われた場合に、処理実行部150は操作対象のユーザキャラクタUCにシュートを行わせるようにしてもよい。
 なお、上述のサッカーゲームでは、操作対象のユーザキャラクタUCのパス方向又はシュート方向を、方向パッドE10を用いて指示できるようにしてもよい。すなわち、処理実行部150は、指示方向に基づいて、操作対象のユーザキャラクタUCのパス方向又はシュート方向(「ユーザの操作対象の動作に関する方向」の他の一例)を設定してもよい。また、処理実行部150は、中心点E12,E14の間の距離に基づいて、パス又はシュートの際の操作対象のユーザキャラクタUCのボールBを蹴る力(「ユーザの操作対象の動作に関する程度」の他の一例)を設定してもよい。
 [3-6]領域移動部160は第1領域移動部161と第2領域移動部162を含む。第1領域移動部161は上述のサッカーゲームの通常モードに関連する機能ブロックであり、第2領域移動部162は上述のサッカーゲームのセンシティブモードに関連する機能ブロックである。
 [3-6-1]第1領域移動部161は、受付領域内から受付領域外に操作位置が移動することに伴って、受付領域を移動させる。第1領域移動部161は、操作位置が受付領域内の第1位置から受付領域外の第2位置に向けて移動することに伴って、操作位置が第1位置であった時点での基準位置である第3位置から第2位置への方向に対応する方向に受付領域を移動させる。例えば、第1領域移動部161は、第2位置から、第3位置への方向に対応する方向に、第1位置と第3位置との間の距離に対応する距離離れた第4位置が基準位置となるようにして、受付領域を移動させる。
 また、第1領域移動部161は、受付領域設定部121によって受付領域が設定された後で操作位置がタッチパネルTPの第2領域内に移動することに伴って、受付領域を第2領域内に移動させる。
 ここで、「受付領域内から受付領域外に操作位置が移動することに伴って、受付領域を移動させる」とは、操作位置が受付領域内の位置から受付領域外の位置に向けて移動する場合に、当該操作位置の移動に応じて、受付領域を移動させることである。例えば、操作位置が受付領域内の位置から受付領域外の位置に向けて移動する場合に、操作位置が受付領域内に含まれるように、操作位置とともに受付領域を移動させることである。なお、「受付領域を移動させる」とは、受付領域を平行移動させること、すなわち、受付領域のすべての点を一定の方向に一定の距離だけ移動させることである。
 「第3位置から第2位置への方向に対応する方向」とは、例えば、第3位置から第2位置への方向と同じ方向又は略同じ方向である。「第3位置から第2位置への方向に対応する方向に受付領域を移動させる」とは、例えば、第3位置から第2位置への方向に対応する方向に受付領域を移動させることである。例えば、第2位置が受付領域内に含まれるようにして、受付領域を、第3位置から第2位置への方向に対応する方向に移動させることである。
 「第3位置への方向に対応する方向」とは、第3位置への方向と同じ方向又は略同じ方向である。また、「第1位置と第3位置との間の距離に対応する距離」とは、第1位置と第3位置との間の距離と同じ距離又略同じ距離である。「距離Xと略同じ距離」とは、例えば、ユーザが認識できない程度に小さく距離Xと異なる距離である。
 上述のサッカーゲームの通常モードでは、例えば図9A,9Bに示したように、タッチ位置T(操作位置の一例)が方向パッドE10のベース部E11(受付領域の一例)内の位置PB(第1位置の一例)からベース部E11外の位置PC(第2位置の一例)に向けて移動する場合に、第1領域移動部161は、位置PA(第3位置の一例)から位置PCへの方向DCにベース部E11を移動させる。第1領域移動部161は、中心点E12(基準位置の一例)が位置PCから位置PAへの方向に距離LX離れた位置PD(第4位置の一例)になるようにして、方向パッドE10(ベース部E11)を移動させる。
 また例えば図10に示したように、方向パッドE10が左側領域LA(第1領域の一例)内に表示された後で、タッチ位置T(操作位置の一例)が右側領域LB(第2領域の一例)内に移動した場合に、第1領域移動部161は、方向パッドE10(ベース部E11及びポインタ部E13)を右側領域LB内に移動させる。
 [3-6-2]第2領域移動部162は、対応領域内から対応領域外にタッチ位置が移動することに伴って、対応領域と受付領域とを移動させる。
 また、第2領域移動部162は、領域設定部120によって受付領域及び対応領域が設定された後でタッチ位置が第2領域内に移動することに伴って、受付領域及び対応領域を第2領域内に移動させる。
 ここで、「対応領域内から対応領域外にタッチ位置が移動することに伴って、対応領域と受付領域とを移動させる」とは、タッチ位置が対応領域内の位置から対応領域外の位置に向けて移動する場合に、当該タッチ位置の移動に応じて、対応領域及び受付領域を移動させることである。例えば、タッチ位置が対応領域内の位置から対応領域外の位置に向けて移動する場合に、タッチ位置が対応領域内に含まれるように、かつ、操作位置が受付領域内に含まれるように、タッチ位置とともに対応領域及び受付領域を移動させることである。なお、「対応領域及び受付領域を移動させる」とは、対応領域を平行移動させ、かつ、受付領域を平行移動させること、すなわち、対応領域のすべての点を一定の方向に一定の距離だけ移動させ、かつ、受付領域のすべての点を一定の方向に一定の距離だけ移動させることである。
 上述のサッカーゲームのセンシティブモードでは、例えば図13A,13Bに示したように、タッチ位置Tが基準領域E15(対応領域の一例)内の位置PGから基準領域E15外の位置PHに向けて移動する場合に、第2領域移動部162は、位置PFから位置PHへの方向DGにベース部E11及び基準領域E15を移動させる。第2領域移動部162は、中心点E12(基準位置の一例)が位置PHから位置PFへの方向に距離LY離れた位置PKになるようにして、方向パッドE10(ベース部E11及び基準領域E15)を移動させる。
 なお、タッチ位置Tが位置PGから位置PHに向けて移動する場合とは、ポインタ部E13の中心点E14(「操作位置」の一例)がベース部E11内の位置PIからベース部E11外の位置PJに向けて移動する場合である。このため、第2領域移動部162は、ポインタ部E13の中心点E14がベース部E11内の位置PIからベース部E11外の位置PJに向けて移動する場合に、位置PFから位置PJへの方向DGに方向パッドE10(ベース部E11及び基準領域E15)を移動させるものであるということもできる。すなわち、第2領域移動部162は、中心点E12が、位置PJから位置PFへの方向に距離LYの2倍の距離離れた位置PKになるようにして、方向パッドE10(ベース部E11及び基準領域E15)を移動させるものであるということもできる。
 またセンシティブモードにおいても、例えば図10に示したように、方向パッドE10が左側領域LA(第1領域の一例)内に表示された後で、タッチ位置T(操作位置の一例)が右側領域LB(第2領域の一例)内に移動した場合に、第2領域移動部162は、方向パッドE10(ベース部E11、ポインタ部E13、及び基準領域E15)を右側領域LB内に移動させる。
 [3-7]選択受付部110は、操作位置を移動させるために用いる手段として、第1操作位置移動部131と第2操作位置移動部132とのいずれかの選択を受け付ける。
 ここで、「第1操作位置移動部131と第2操作位置移動部132とのいずれかの選択を受け付ける」とは、第1操作位置移動部131と第2操作位置移動部132とのいずれかを選択するための画像を表示部15に表示させて、第1操作位置移動部131と第2操作位置移動部132とのいずれかを選択する選択操作を受け付けることである。または、「第1操作位置移動部131と第2操作位置移動部132とのいずれかの選択を受け付ける」とは、第1操作位置移動部131と第2操作位置移動部132とのいずれかを選択した結果を示すデータを受信することであってもよい。
 上述のサッカーゲームの場合、選択受付部110は、図7に示した動作モード選択画像G2を表示部15に表示させ、第1操作位置移動部131に対応する通常モードと、第2操作位置移動部132に対応するセンシティブモードとのいずれかの選択を受け付ける。
 [4.処理]次に、ゲームシステム1で実行される処理について説明する。
 [4-1]図16A~図16Cは、サッカーゲームの試合中に実行される処理のうち、操作対象のユーザキャラクタUCに対する操作を受け付ける処理の概要について主に示すフロー図である。サッカーゲームの試合中には、操作対象以外のユーザキャラクタUCや対戦相手キャラクタOCを制御する処理や、表示部15に表示される仮想世界画像G1を更新する処理等も実行されるが、ここでは省略している。制御部11が図16A~図16Cに示す処理をプログラムに従って実行することによって、制御部11が図15に示す機能ブロック(データ記憶部100を除く)として機能する。
 [4-1-1]図16Aに示すように、まず、制御部11はタッチパネルTPへのタッチが開始されたか否かを判定する(S100)。タッチパネルTPへのタッチが開始されていない場合、制御部11はタッチパネルTPへのタッチが開始されたか否かの監視を続行する(S100)。一方、タッチパネルTPへのタッチが開始された場合、制御部11はタッチ位置が左側領域LA内であるか否かを判定する(S102)。例えば、制御部11はタッチ位置のXs座標がXmax/2未満であるか否かを判定する。
 タッチ位置が左側領域LA内である場合、制御部11は、予めユーザによって選択された方向パッドE10の動作モードが通常モードであるか否かを判定する(S104)。方向パッドE10の動作モードが通常モードである場合、制御部11は、通常モード時の方向指示操作受付処理を実行する(S106)。この処理については後述する(図16B参照)。
 一方、方向パッドE10の動作モードが通常モードでない場合(すなわち、方向パッドE10の動作モードがセンシティブモードである場合)、制御部11は、センシティブモード時の方向指示操作受付処理を実行する(S108)。この処理については後述する(図16C参照)。
 また、ステップS102において、タッチ位置が左側領域LA内でないと判定された場合(すなわち、タッチ位置が右側領域RA内である場合)、制御部11は動作指示操作受付処理を実行する(S110)。すなわち、制御部11はユーザが右側領域RAに対して行った操作を判定し、当該操作に関連付けられた動作を操作対象のユーザキャラクタUCに行わせる。
 例えば、操作対象のユーザキャラクタUCがボールBを保有していてパスを行うことが可能な状態で右側領域RA内の第1ボタンE18-1がタッチされた場合、制御部11は、操作対象のユーザキャラクタUCにパスを行わせる。また例えば、操作対象のユーザキャラクタUCが敵陣でボールBを保有していてシュートを行うことが可能な状態で右側領域RA内の第2ボタンE18-2に対してタップ操作が行われた場合、制御部11は操作対象のユーザキャラクタUCにシュートを行わせる。なお、例えば、操作対象のユーザキャラクタUCがボールBを保有している状態で右側領域RAに対してフリック操作が行われた場合、制御部11は、フリック方向に対応する方向へのパスを操作対象のユーザキャラクタUCに行わせるようにしてもよい。また例えば、操作対象のユーザキャラクタUCが敵陣でボールBを保有している状態で右側領域RAに対してダブルタップ操作が行われた場合、制御部11は操作対象のユーザキャラクタUCにシュートを行わせるようにしてもよい。また例えば、対戦相手チームがボールBを保有している状態で右側領域RAに対してフリック操作が行われた場合、制御部11は、フリック方向に対応する方向にスライディングを操作対象のユーザキャラクタUCに行わせるようにしてもよい。
 [4-1-2]図16Bは、ステップS106で実行される処理(通常モード時の方向指示操作受付処理)の一例の概要を示すフロー図である。図16Bに示すように、まず、制御部11は方向パッドE10を左側領域LAに表示する(S120)。この際、ベース部E11,ポインタ部E13の中心点E12,E14はともにタッチ位置に設定される。
 方向パッドE10が表示されている間、制御部11はステップS122~S140の処理を繰り返し実行する。すなわち、制御部11はタッチ位置を操作位置として取得し(S122)、操作位置が方向パッドE10(ベース部E11)内であるか否かを判定する(S124)。
 操作位置が方向パッドE10(ベース部E11)内である場合、制御部11はポインタ部E13の位置を操作位置に合わせる(S132)。すなわち、制御部11は中心点E14が操作位置となるようにして、ポインタ部E13の位置を更新する。
 一方、操作位置が方向パッドE10(ベース部E11)内でない場合(すなわち、操作位置が方向パッドE10(ベース部E11)外である場合)、制御部11は方向パッドE10の移動方向を決定する(S126)。すなわち、制御部11は、方向パッドE10の中心点E12の現在位置からステップS122で取得された操作位置への方向を移動方向として決定する。例えば図9A,9Bに示した例の場合、制御部11は、位置PA(中心点E12の現在位置)から位置PC(ステップS122で取得される操作位置)への方向DCを移動方向として決定する。
 ステップS126の実行後、制御部11は方向パッドE10の移動先位置を決定する(S128)。まず、制御部11は、方向パッドE10の中心点E12の現在位置と、ステップS122で取得された操作位置の一つ前の時点の操作位置との間の距離を取得する。例えば図9A,9Bに示した例の場合、制御部11は、位置PA(中心点E12の現在位置)と位置PB(ステップS122で取得された操作位置の一つ前の時点の操作位置)との間の距離LXを取得する。そして、制御部11は、中心点E12の現在位置からステップS126で決定された移動方向に伸びる直線上にある位置であって、ステップS122で取得された操作位置から上記距離離れた位置を移動先位置として決定する。例えば図9A,9Bに示した例の場合、制御部11は、位置PA(中心点E12の現在位置)から方向DC(ステップS126で決定される移動方向)に伸びる直線上にある位置であって、位置PC(ステップS122で取得される操作位置)から距離LX離れた位置PEを移動先位置として決定する。
 ステップS128の実行後、制御部11は方向パッドE10(ベース部E11)を移動させる(S130)。すなわち、制御部11は、中心点E12がステップS128で決定された移動先位置となるようにして、方向パッドE10(ベース部E11)を移動させる。さらに、制御部11はポインタ部E13の位置を操作位置に合わせる(S132)。
 ステップS132の実行後、制御部11は、方向パッドE10の中心点E12からステップS122で取得された操作位置への方向を指示方向として取得する(S134)。また、制御部11は、方向パッドE10の中心点E12とステップS122で取得された操作位置との間の距離を取得する(S136)。
 ステップS134,S136の実行後、制御部11は、ステップS134,S136で取得された指示方向及び距離に基づいて、操作対象のユーザキャラクタUCを移動させる(S138)。この際、制御部11は、操作対象のユーザキャラクタUCの移動方向を、ステップS134で取得された指示方向に対応する仮想世界VW内の方向に設定する。また制御部11は、操作対象のユーザキャラクタUCの移動速度を、ステップS136で取得された距離に対応する速度に設定する。
 ステップS138の実行後、制御部11は、方向パッドE10をタッチしていた指等がタッチパネルから離れたか否かを判定する(S140)。方向パッドE10をタッチしていた指等がタッチパネルから離れていない場合、制御部11はステップS122の処理を再び実行する。一方、方向パッドE10をタッチしていた指等がタッチパネルから離れた場合、制御部11は方向パッドE10を非表示にし(S142)、本処理を終了する。すなわち、ステップS106の処理が終了する。
 [4-1-3]図16Cは、ステップS108で実行される処理(センシティブモード時の方向指示操作受付処理)の一例の概要を示すフロー図である。図16Cに示すように、まず、制御部11は方向パッドE10を左側領域LAに表示し、基準領域E15も設定する(S150)。この際、方向パッドE10(ベース部E11及び基準領域E15)の中心点E12とポインタ部E13の中心点E14はともにタッチ位置に設定される。
 方向パッドE10が表示されている間、制御部11はステップS152~S172の処理を繰り返し実行する。すなわち、制御部11はタッチ位置Tを取得し(S152)、タッチ位置Tが基準領域E15内であるか否かを判定する(S154)。
 タッチ位置Tが基準領域E15内である場合、制御部11は操作位置を取得する(S162)。まず、制御部11は方向パッドE10の中心点E12とタッチ位置Tとの間の距離Lを取得する。そして、制御部11は、中心点E12からタッチ位置Tへの方向に上記距離Lの2倍の距離離れた位置を操作位置として取得する。さらに、制御部11はポインタ部E13の位置を操作位置に合わせる(S164)。すなわち、制御部11は操作位置となるようにして、ポインタ部E13の位置を更新する。
 一方、タッチ位置Tが基準領域E15内でない場合(すなわち、タッチ位置Tが基準領域E15外である場合)、制御部11は方向パッドE10の移動方向を決定する(S156)。すなわち、制御部11は、基準領域E15の中心点E12の現在位置からステップS152で取得されたタッチ位置Tへの方向を移動方向として決定する。例えば図13A,13Bに示した例の場合、制御部11は、位置PF(中心点E12の現在位置)から位置PH(ステップS152で取得されるタッチ位置T)への方向DGを移動方向として決定する。
 ステップS156の実行後、制御部11は方向パッドE10の移動先位置を決定する(S158)。まず、制御部11は、基準領域E15の中心点E12の現在位置と、ステップS152で取得されたタッチ位置Tの一つ前の時点のタッチ位置Tとの間の距離を取得する。例えば図13A,13Bに示した例の場合、制御部11は、位置PF(中心点E12の現在位置)と位置PG(ステップS152で取得されたタッチ位置の一つ前の時点のタッチ位置)との間の距離LYを取得する。そして、制御部11は、基準領域E15の中心点E12の現在位置からステップS156で決定された移動方向に伸びる直線上にある位置であって、ステップS152で取得されたタッチ位置Tから上記距離離れた位置を移動先位置として決定する。例えば図13A,13Bに示した例の場合、制御部11は、位置PF(中心点E12の現在位置)から方向DG(ステップS156で決定される移動方向)に伸びる直線上にある位置であって、位置PH(ステップS152で取得されるタッチ位置T)から距離LY離れた位置PKを移動先位置として決定する。
 ステップS158の実行後、制御部11は方向パッドE10(ベース部E11及び基準領域E15)を移動させる(S160)。すなわち、制御部11は、中心点E12がステップS158で決定された移動先位置となるようにして、方向パッドE10(ベース部E11及び基準領域E15)を移動させる。さらに、制御部11は操作位置を取得し(S162)、ポインタ部E13の位置を操作位置に合わせる(S164)。
 ステップS164の実行後、制御部11は、方向パッドE10の中心点E12からステップS162で取得された操作位置への方向を指示方向として取得する(S166)。また、制御部11は、方向パッドE10の中心点E12とステップS162で取得された操作位置との間の距離を取得する(S168)。
 ステップS166,S168の実行後、制御部11は、ステップS166,S168で取得された指示方向及び距離に基づいて、操作対象のユーザキャラクタUCを移動させる(S170)。ステップS170の処理はステップS138と同様である。
 ステップS170の実行後、制御部11は、方向パッドE10をタッチしていた指等がタッチパネルから離れたか否かを判定する(S172)。方向パッドE10をタッチしていた指等がタッチパネルから離れていない場合、制御部11はステップS152の処理を再び実行する。一方、方向パッドE10をタッチしていた指等がタッチパネルから離れた場合、制御部11は方向パッドE10を非表示にし(S174)、本処理を終了する。すなわち、ステップS108の処理が終了する。
 [4-2]図17A~図17Eは、サッカーゲームの試合中に実行される全体の処理について示すフロー図である。
 [4-2-1]図17Aは、サッカーゲームの試合中にゲーム端末10で実行される処理について示すフロー図である。図17Aに示すように、まず、制御部11はゲーム処理を実行する(S1000)。例えば、ユーザキャラクタUCや対戦相手キャラクタOCの位置、移動方向、移動速度、モーション等を更新する処理や、ボールBの位置、移動方向、移動速度等を更新する処理が実行される。
 例えば、ステップS1000では、操作対象のユーザキャラクタUCの位置、移動方向、移動速度を更新する処理としては、図16BのステップS134~S138(通常モード時)、又は図16CのステップS166~S170(センシティブモード時)と同様の処理が実行される。
 また、ステップS1000では、第1ボタンE18-1の第1エッジトリガフラグ又は第2エッジトリガフラグに基づいて、第1ボタンE18-1に対応する処理が実行される。また、第2ボタンE18-2の第1エッジトリガフラグ又は第2エッジトリガフラグに基づいて、第2ボタンE18-2に対応する処理が実行される。
 ここで、第1ボタンE18-1の「第1エッジトリガフラグ」とは、第1ボタンE18-1がタッチされていない状態から、第1ボタンE18-1がタッチされた状態へと変化したか否かを示すフラグである。この第1エッジトリガフラグは、第1ボタンE18-1がタッチされていない状態から、第1ボタンE18-1がタッチされた状態へと変化した場合にONに設定される。なお、試合開始時に第1ボタンE18-1の第1エッジトリガフラグはOFFに初期設定される。
 また、第1ボタンE18-1の「第2エッジトリガフラグ」とは、第1ボタンE18-1をタッチしていた指等がタッチパネルTPから離れたか否かを示すフラグである。この第2エッジトリガフラグは、第1ボタンE18-1をタッチしていた指等がタッチパネルTPから離れた場合にONに設定される。なお、試合開始時に第1ボタンE18-1の第2エッジトリガフラグはOFFに初期設定される。
 なお、第2ボタンE18-2の「第1エッジトリガフラグ」や「第2エッジトリガフラグ」は、第1ボタンE18-1の第1エッジトリガフラグや第2エッジトリガフラグと同様であるため、説明を省略する。
 例えば、ステップS1000では、第1ボタンE18-1が、操作対象のユーザキャラクタUCにパスを行わせるボタンであり、第1ボタンE18-1の第1エッジトリガフラグがONになっている場合に、操作対象のユーザキャラクタUCがパスを行うことが可能な状態であれば、操作対象のユーザキャラクタUCにパスモーションを開始させる処理や、パス方向へのボールBの移動を開始させる処理等が実行される。
 また例えば、ステップS1000では、第2ボタンE18-2が、操作対象のユーザキャラクタUCにシュートを行わせるボタンであり、第2ボタンE18-2の第2エッジトリガフラグがONになっている場合に、操作対象のユーザキャラクタUCがシュートを行うことが可能な状態であれば、操作対象のユーザキャラクタUCにシュートモーションを開始させる処理や、シュート方向へのボールBの移動を開始させる処理等が実行される。なお、この際、第2ボタンE18-2の第1エッジトリガフラグがONになってから第2エッジトリガフラグがONになるまでの時間(すなわち、ユーザが指等を第2ボタンE18-2にタッチさせてから当該指等をタッチパネルTPから離すまでの時間)に基づいて、シュートの強さ(又は角度)が設定される。
 ステップS1000の実行後、制御部11は入力クリア処理を実行する(S1002)。例えば、第1ボタンE18-1や第2ボタンE18-2の各々の第1エッジトリガフラグや第2エッジトリガフラグがOFFにリセットされる。
 また、制御部11は描画処理を実行する(S1004)。例えば、仮想視点VCが設定され、仮想視点VCから見た仮想世界VWを表す仮想世界画像G1がバックバッファに描画される。また、第1ボタンE18-1や第2ボタンE18-2の画像が、バックバッファに描画された仮想世界画像G1上に描画される。さらに、後述の方向パッド描画ステータスがONである場合には、方向パッドE10の画像も、バックバッファに描画された仮想世界画像G1上に描画される。なお、方向パッドE10、第1ボタンE18-1、第2ボタンE18-2の画像を仮想世界画像G1と半透明合成してもよい。
 そして、制御部11はVブランク割り込みが発生するのを待ち(S1006)、Vブランク割り込みが発生したら、バックバッファからフロントバッファに切り替える(S1008)。この切り替えによって、ステップS1004でバックバッファに描画された画像が表示部15に表示されることになる。ステップS1008の実行後、ステップS1000に戻る。このようにして、サッカーゲームの試合中には、以上に説明したステップS1000~S1008の処理が繰り返し実行される。
 [4-2-2]ゲーム端末10では、タッチパネルTPをタッチすること(DOWNアクション)、タッチパネルTPをタッチしている指等をスライド移動させること(MOVEアクション)、又は、タッチパネルTPをタッチしていた指等をタッチパネルTPから離すこと(UPアクション)等の各アクションが行われるごとに、OnTouchイベント(割り込み)が発生する。なお、OnTouchイベントの発生や、OnTouchイベントにおけるアクションの判別は、操作部14(タッチパネルTP)によるタッチの検出結果に基づいて行われる。図17Bは、サッカーゲームの試合中にOnTouchイベントが発生した場合に実行される処理について示すフロー図である。
 図17Bに示すように、OnTouchイベントが発生した場合、制御部11は、OnTouchイベントにおけるアクションがDOWNアクションであるか否かを判定する(S1010)。OnTouchイベントにおけるアクションがDOWNアクションである場合とは、ユーザがタッチパネルTPをタッチした場合である。この場合、制御部11はDOWN処理を実行する(S1012)。DOWN処理は、DOWNアクションの場合に実行する処理である。詳細については後述する(図17C参照)。
 また制御部11は、OnTouchイベントにおけるアクションがMOVEアクションであるか否かを判定する(S1014)。OnTouchイベントにおけるアクションがMOVEアクションである場合とは、ユーザがタッチパネルTPをタッチしている指等をスライド移動させた場合である。この場合、制御部11はMOVE処理を実行する(S1016)。MOVE処理は、MOVEアクションの場合に実行する処理である。詳細については後述する(図17D参照)。
 また制御部11は、OnTouchイベントにおけるアクションがUPアクションであるか否かを判定する(S1018)。OnTouchイベントにおけるアクションがUPアクションである場合とは、ユーザがタッチパネルTPをタッチしていた指等をタッチパネルTPから離した場合である。この場合、制御部11はUP処理を実行する(S1020)。UP処理は、UPアクションの場合に実行する処理である。詳細については後述する(図17E参照)。
 [4-2-3]図17Cは、ステップS1012で実行されるDOWN処理の一例を示すフロー図である。図17Cに示すように、制御部11はユーザのタッチ位置のXsYs座標を取得する(S1030)。そして、制御部11はタッチ位置のXsYs座標が左側領域LA内であるか否かを判定する(S1032)。タッチ位置のXsYs座標が左側領域LA内である場合、制御部11は左OLDIDがNULLであるか否かを判定する(S1034)。なお、タッチ位置のXsYs座標は、操作部14(タッチパネルTP)によるタッチの検出結果から取得される。
 ゲーム端末10では、タッチパネルTPがタッチされるごとに、当該タッチに対してIDが割り当てられ、当該タッチの位置が当該IDと関連付けて管理される。当該タッチの位置が移動しても当該タッチとIDとの関連付けは維持され、当該タッチに関して発生したOnTouchイベントには当該IDが関連付けられる。図17Cにおいて、「現在ID」は、発生したOnTouchイベントに関連付けられたIDのことである。また、「左OLDID」は、左側領域LA内をタッチ開始位置とするタッチのIDを保持するためのものである。左OLDIDがNULLでなく、左OLDIDにIDがセットされている状態は、左側領域LA内をタッチ開始位置とするタッチが維持されている状態である。一方、左OLDIDがNULLである状態は、左側領域LA内をタッチ開始位置とするタッチが維持されていない状態である。
 ステップS1034において左OLDIDがNULLでないと判定されるケースとは、左側領域LA内をタッチ開始位置とするタッチが存在されている状態で、さらに、左側領域LA内をタッチ開始位置とする別の新たなタッチがなされた場合であり、当該新たなタッチのIDが現在IDとなっている場合である。本実施形態ではこのような新たなタッチを無視して本処理を終了する。
 一方、ステップS1034において左OLDIDがNULLであると判定された場合、制御部11は左OLDIDに現在IDをセットする(S1036)。さらに、制御部11は方向パッド描画ステータスをONにし(S1038)、方向パッドE10の中心点E12の座標として、ステップS1030で取得された座標をセットする(S1040)。方向パッド描画ステータスは、ステップS1004で方向パッドE10を描画するか否かを示すものである。試合開始時において方向パッド描画ステータスはOFFになっており、方向パッド描画ステータスがOFFである場合には、ステップS1004で方向パッドE10は描画されない。一方、方向パッド描画ステータスがONである場合には、ステップS1004で方向パッドE10が描画される。この際、方向パッドE10は、ステップS1040でセットされた座標を中心点E12として描画されることになる。
 ステップS1032においてタッチ位置のXsYs座標が左側領域LA内でないと判定された場合、制御部11は右OLDIDがNULLであるか否かを判定する(S1042)。ここで、「右OLDID」は、左OLDIDと同様、右側領域RA内をタッチ開始位置とするタッチのIDを保持するためのものである。右OLDIDがNULLでなく、右OLDIDにIDがセットされている状態は、右側領域RA内をタッチ開始位置とするタッチが維持されている状態である。一方、右OLDIDがNULLである状態は、右側領域RA内をタッチ開始位置とするタッチが維持されていない状態である。
 ステップS1042において右OLDIDがNULLでないと判定されるケースとは、右側領域RA内をタッチ開始位置とするタッチが維持されている状態で、さらに、右側領域RA内をタッチ開始位置とする別の新たなタッチがなされた場合であり、当該新たなタッチのIDが現在IDとなっている場合である。本実施形態ではこのような新たなタッチを無視してDOWN処理を終了する。
 一方、ステップS1042において右OLDIDがNULLであると判定された場合、制御部11は右OLDIDに現在IDをセットする(S1044)。さらに、制御部11は、ステップS1030で取得されたタッチ位置のXsYs座標が第1ボタンE18-1の領域内であるか否かを判定する(S1046)。ここで、「第1ボタンE18-1の領域」とは、第1ボタンE18-1が表示された領域であってもよいし、第1ボタンE18-1に対して設定された別個の不可視(非表示)の領域であってもよい。
 タッチ位置のXsYs座標が第1ボタンE18-1の領域内である場合、制御部11は、第1ボタンE18-1のフラグをセットする(S1048)。
 例えば、制御部11は第1ボタンE18-1のオン状態フラグをONにし、第1エッジトリガフラグをONにし、第2エッジトリガフラグをOFFにする。なお、第1ボタンE18-1の「オン状態フラグ」とは、第1ボタンE18-1がタッチされているか否かを示すフラグである。このオン状態フラグは、第1ボタンE18-1がタッチされていない場合にOFFに設定され、第1ボタンE18-1がタッチされている場合にONに設定される。試合開始時に第1ボタンE18-1のオン状態フラグはOFFに初期設定される。
 ステップS1046においてタッチ位置のXsYs座標が第1ボタンE18-1の領域内でないと判定された場合、制御部11はステップS1048を実行することなく、後述のステップS1050を実行する。
 また、制御部11は、ステップS1030で取得されたタッチ位置のXsYs座標が第2ボタンE18-2の領域内であるか否かを判定する(S1050)。ここで、「第2ボタンE18-2の領域」とは、第1ボタンE18-1の領域と同様であり、ステップS1050の処理もステップS1046と同様である。
 タッチ位置のXsYs座標が第2ボタンE18-2の領域内である場合、制御部11は、第2ボタンE18-2のフラグをセットする(S1052)。例えば、制御部11は、第2ボタンE18-2のオン状態フラグをONにし、第1エッジトリガフラグをONにし、第2エッジトリガフラグをOFFにする。なお、第2ボタンE18-2のオン状態フラグは第1ボタンE18-1のオン状態フラグと同様であるため、ここでは説明を省略する。
 ステップS1050においてタッチ位置のXsYs座標が第2ボタンE18-2の領域内でないと判定された場合、制御部11はステップS1050を実行することなく、本処理を終了する。
 [4-2-4]図17Dは、ステップS1016で実行されるMOVE処理の一例を示すフロー図である。図17Dに示すように、まず、制御部11は、発生したOnTouchイベント(MOVEアクション)の対象のタッチ位置のXsYs座標を取得する(S1060)。また、制御部11は左OLDIDが現在IDであるか否かを判定する(S1062)。なお、タッチ位置のXsYs座標は、操作部14(タッチパネルTP)によるタッチの検出結果から取得される。また、ここで、「現在ID」とは、発生したOnTouchイベントに関連付けられたIDであり、MOVEアクションの対象のタッチのIDである。
 左OLDIDが現在IDであるケースとは、発生したOnTouchイベント(MOVEアクション)が、方向パッドE10をタッチしている指等の移動に関するものである場合である。この場合、制御部11は、ステップS1060で取得されたタッチ位置のXsYs座標が方向パッドE10の領域内であるか否かを判定する(S1064)。通常モード時の場合、制御部11は、タッチ位置のXsYs座標が方向パッドE10(ベース部E11)の表示領域内であるか否かを判定する。一方、センシティブモード時の場合、制御部11は、タッチ位置のXsYs座標が基準領域E15内であるか否かを判定する。
 タッチ位置のXsYs座標が方向パッドE10の領域内でない場合、制御部11は方向パッドE10の中心点E12の座標を変更する(S1066)。ステップS1066の処理は、図16BのステップS126~S130(通常モード時)、又は図16CのステップS156~S160(センシティブモード時)と同様であるため、ここでは説明を省略する。
 また、制御部11は、ステップS1060で取得された座標に基づいて、ポインタ部E13の中心点E14の座標をセットする(S1068)。ステップS1068の処理は、図16BのステップS122,S132(通常モード時)、又は図16CのステップS162,S164(センシティブモード時)と同様であるため、ここでは説明を省略する。
 なお、ステップS1064においてタッチ位置のXsYs座標が方向パッドE10の領域内であると判定された場合、制御部11はステップS1066を実行することなく、ステップS1068を実行する。ステップS1068の実行後、制御部11は本処理を終了する。また、ステップS1062において左OLDIDが現在IDでないと判定された場合、制御部11はステップS1064~S1068を実行することなく、本処理を終了する。
 [4-2-5]図17Eは、ステップS1020で実行されるUP処理の一例を示すフロー図である。図17Eに示すように、まず、制御部11は左OLDIDが現在IDであるか否かを判定する(S1070)。ここで、「現在ID」とは、発生したOnTouchイベントに関連付けられたIDであり、UPアクションの対象のタッチのIDである。UPアクションとは、タッチパネルTPをタッチしていた指等がタッチパネルTPから離れること(すなわち、タッチが解除されること)であるため、「現在ID」とは、解除されたタッチのIDである。
 ステップS1070において左OLDIDが現在IDであると判定されるケースとは、方向パッドE10をタッチしていた指等がタッチパネルTPから離れた場合である。この場合、制御部11は左OLDIDをNULLにし(S1072)、方向パッド描画ステータスをOFFにする(S1074)。さらに、制御部11は、ポインタ部E13の中心点E14の座標を、方向パッドE10(ベース部E11)の中心点E12の座標に初期化し(S1076)、本処理を終了する。
 一方、ステップS1070において左OLDIDが現在IDでないと判定された場合、制御部11は右OLDIDが現在IDであるか否かを判定する(S1078)。ステップS1078において右OLDIDが現在IDであると判定されるケースとは、右側領域RAをタッチしていた指等がタッチパネルTPから離れた場合である。この場合、制御部11は右OLDIDをNULLにする(S1080)。また、制御部11は、第1ボタンE18-1のオン状態フラグがONであるか否かを判定する(S1082)。ここで、ステップS1082において第1ボタンE18-1のオン状態フラグがONであると判定されるケースとは、第1ボタンE18-1をタッチしていた指等がタッチパネルTPから離れた場合である。この場合、制御部11は第1ボタンE18-1の第2エッジトリガフラグをONにし(S1084)、第1ボタンE18-1のオン状態フラグをOFFにする(S1086)。なお、ステップS1082において第1ボタンE18-1のオン状態フラグがONでないと判定された場合、制御部11はステップS1084を実行することなく、ステップS1086を実行する。
 また、制御部11は、第2ボタンE18-2のオン状態フラグがONであるか否かを判定する(S1088)。ここで、ステップS1088において第2ボタンE18-2のオン状態フラグがONであると判定されるケースとは、第2ボタンE18-2をタッチしていた指等がタッチパネルTPから離れた場合である。この場合、制御部11は第2ボタンE18-2の第2エッジトリガフラグをONにし(S1090)、第2ボタンE18-2のオン状態フラグをOFFにする(S1092)。なお、ステップS1088において第2ボタンE18-2のオン状態フラグがONでないと判定された場合、制御部11はステップS1090を実行することなく、ステップS1092を実行する。ステップS1092の実行後、制御部11は本処理を終了する。ステップS1078において右OLDIDが現在IDでないと判定された場合にも、制御部11は本処理を終了する。
 [5.まとめ]以上に説明したゲームシステム1では、方向パッドE10の中心点E12から操作位置(ポインタ部E13の中心点E14)への方向に基づいて指示方向が取得され、当該指示方向に基づいてゲーム処理が実行される。
 ゲームシステム1では、例えば図9A,9Bに示したように、操作位置(タッチ位置T)が方向パッドE10内の位置PBから方向パッドE10外の位置PCに向けて移動することに伴って、操作位置が位置PBであった時点の中心点E12である位置PAから位置PCへの方向DCに向けて方向パッドE10が移動する。このため、ユーザが無意識のうちに、操作位置を方向パッドE10外に向けて移動させてしまった場合であっても、方向パッドE10が移動するため、「ユーザが方向指示操作を行っているつもりでいるにもかかわらず、ゲーム側では方向指示操作が行われていないと判定されてしまう」という不都合が生じないように図ることができる。
 特にゲームシステム1では、図9Bに示したように、方向パッドE10の移動方向(方向DC)が、移動前における指示方向(方向DA)と、操作位置の移動方向(方向DB)との両方を反映したものになる。先述したように、図9Bに示した移動方法によれば、ゲーム側で判定される指示方向とユーザの意図している指示方向とのずれを低減でき、その結果、操作性を向上できる。
 さらにゲームシステム1では、方向パッドE10の中心点E12と操作位置(ポインタ部E13の中心点E14)との間の距離にも基づいてゲーム処理を実行するところ、図9Bに示した移動方法によれば、方向パッドE10の移動後における上記距離(位置PEから位置PCまでの距離)が移動前における上記距離(位置PAから位置PBまでの距離)と同じになるため、方向パッドE10の移動後においてゲーム側で判定される上記距離とユーザの意図している上記距離とのずれを低減でき、その結果、操作性を向上できる。
 またゲームシステム1のセンシティブモードでは、タッチ位置Tの移動に応じて、操作位置(ポインタ部E13の中心点E14)が、タッチ位置Tの移動方向に対応する方向に、タッチ位置Tの移動距離よりも長い距離移動する。従来、タッチ位置の移動距離が短くなる傾向があるユーザに関しては、ユーザの意図している方向以外の方向が指示されているとゲーム側で判定されてしまうという不都合が発生するおそれがあったが、センシティブモードによれば、タッチ位置の移動距離が短くなる傾向があるユーザであっても、このような不都合が発生し難くなる。
 またゲームシステム1のセンシティブモードでは、方向パッドE10を1/2に縮小してなる領域に相当する基準領域E15が設定され、操作位置と方向パッドE10の中心点E12との位置関係がタッチ位置Tと基準領域E15の中心点E12との位置関係に対応するようにして、操作位置(ポインタ部E13の中心点E14)を設定する。その結果、操作位置の移動距離をタッチ位置Tの移動距離をn倍することによって得られる距離に設定すればすむため、タッチ位置Tの移動距離よりも長く操作位置が移動するような操作位置の設定に関わる処理を簡略化できる。
 またゲームシステム1では、センシティブモードにおいても、タッチ位置Tを基準領域E15内から基準領域E15外に向けて移動させてしまった場合に、方向パッドE10(ベース部E11及び基準領域E15)が当該タッチ位置Tの移動に伴って移動するため(図13A,13B)、ユーザが無意識のうちにタッチ位置Tを基準領域E15外に向けて移動させてしまった場合であっても、ユーザは方向指示操作を続行できる。
 またゲームシステム1では、ユーザは、方向パッドE10の動作モードとして、通常モードとセンシティブモードとのいずれかを任意に選択できる(図7)。ユーザは自らの傾向・癖を考慮して方向パッドE10の動作モードを選択できる。
 またゲームシステム1では、タッチパネルTPの左側領域LAがタッチされた場合に方向パッドE10を左側領域LA内に表示し、方向パッドE10を介して指示された方向に基づいてユーザキャラクタUCの移動制御処理を実行する。一方、右側領域RA内がタッチされた場合には方向パッドE10を表示せずに、ユーザキャラクタUCの移動制御処理以外の制御処理を実行する。このため、ゲームシステム1によれば、タッチパネルTPの左側領域LAをユーザキャラクタUCに対する移動指示操作のために用い、右側領域RAをユーザキャラクタUCに対する移動指示操作以外の操作のために用いることができる。すなわち、ユーザキャラクタUCに対する移動指示操作を行う領域と、ユーザキャラクタUCに対する移動指示操作以外の操作を行う領域とを分けることができ、ユーザが操作を行い易くなる。
 またゲームシステム1では、図10に示したように、方向パッドE10が左側領域LA内に表示された後で、ユーザが無意識のうちに、タッチ位置Tを右側領域RA内に移動させてしまった場合であっても、方向パッドE10が右側領域RA内に移動するため、ユーザは方向指示操作を続行できる。
 [6.変形例]本発明は以上に説明した実施形態に限定されるものではない。
 [6-1]以上に説明した実施形態では、操作位置が方向パッドE10の表示領域内であるか否かを判定するようになっていたが、例えば図18に示すように、方向パッドE10の表示領域とは別に不可視(非表示)の判定領域A16(受付領域の一例)を設定してもよい。例えば図16BのステップS124では、操作位置が判定領域A16内であるか否かを判定してもよい。
 [6-2]クライアント/サーバ形式のゲームの場合には、指示方向の取得等をゲーム端末10で実行し、取得した指示方向をサーバ30に送信し、ユーザキャラクタUCの制御処理をサーバ30で実行してもよい。そして、ユーザキャラクタUCの制御処理の結果に基づいて、仮想世界画像G1の生成・更新をゲーム端末10で実行してもよい。この場合、処理実行部150はサーバ30で実現され、ゲーム状況データD101もサーバ30に記憶される。なお、指示方向の取得や仮想世界画像G1の生成もサーバ30で実行してもよい。すなわち、図15に示すすべての機能ブロックがサーバ30で実現されてもよい。
 [6-3]通常モード及びセンシティブモードの両方を備えていなくてもよく、いずれか一方を備えないようにしてもよい。通常モードを省略する場合には通常モードに関連する機能ブロックを省略でき、センシティブモードを省略する場合にはセンシティブモードに関連する機能ブロックを省略できる。
 [6-4]以上では、本発明をサッカーゲームに適用した例について主に説明したが、本発明は他の各種ゲームにも適用することが可能である。また以上では、本発明を、情報処理システム又は情報処理装置の一例であるゲームシステム1又はゲーム端末10に適用した場合について説明したが、本発明は、ゲームシステム1又はゲーム端末10以外の情報処理システム又は情報処理装置にも適用することが可能である。方向パッドE10は、タッチパネルを備えた情報処理システム又は情報処理装置において、例えばカーソル等の操作対象を移動させるために用いることもできる。
 [7.付記]以上のような記載から、本発明は例えば以下のように把握される。なお、本発明の理解を容易にするために、適宜図面に記載された符号を括弧書きで記載するが、それにより本発明が図示の態様に限定されるものではない。
 1)本発明の一態様に係るゲームシステム(1)は、方向指示操作を受け付ける受付領域(E10)をタッチパネル(TP)に設定する領域設定手段(120)と、前記タッチパネル(TP)のタッチ位置(T)に応じた操作位置(E14)を設定する手段であって、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を移動させる操作位置設定手段(130,132)と、前記受付領域(E10)に対応する基準位置(E12)から前記操作位置(E14)への方向に基づいて指示方向を取得する指示方向取得手段(140)と、前記指示方向に基づいてゲーム処理を実行するゲーム処理実行手段(150)と、を含み、前記操作位置設定手段(132)は、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を、前記タッチ位置(T)の移動方向に対応する方向に、前記タッチ位置(T)の移動距離よりも長い距離移動させる。
 9)本発明の一態様に係るゲーム制御装置(10又は30)は、方向指示操作を受け付ける受付領域(E10)をタッチパネル(TP)に設定する領域設定手段(120)と、前記タッチパネル(TP)のタッチ位置(T)に応じた操作位置(E14)を設定する手段であって、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を移動させる操作位置設定手段(130,132)と、前記受付領域(E10)に対応する基準位置(E12)から前記操作位置(E14)への方向に基づいて指示方向を取得する指示方向取得手段(140)と、を含み、前記操作位置設定手段(132)は、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を、前記タッチ位置(T)の移動方向に対応する方向に、前記タッチ位置(T)の移動距離よりも長い距離移動させる。
 10)本発明の一態様に係るプログラムは、1)~8)のいずれかに記載のゲームシステム(1)、又は、9)に記載のゲーム制御装置(10又は30)としてコンピュータを機能させるためのプログラムである。
 11)本発明の一態様に係る情報記憶媒体は、10)に記載のプログラムを記録したコンピュータで読み取り可能な情報記憶媒体である。
 12)本発明の一態様に係るゲームシステム(1)又はゲーム制御装置(10又は30)の制御方法は、方向指示操作を受け付ける受付領域(E10)をタッチパネル(TP)に設定する領域設定ステップ(S150)と、前記タッチパネル(TP)のタッチ位置(T)に応じた操作位置(E14)を設定するステップであって、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を移動させる操作位置設定ステップ(S162)と、前記受付領域(E10)に対応する基準位置(E12)から前記操作位置(E14)への方向に基づいて指示方向を取得する指示方向取得ステップ(S166)と、を含み、前記操作位置設定ステップ(S162)では、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を、前記タッチ位置(T)の移動方向に対応する方向に、前記タッチ位置(T)の移動距離よりも長い距離移動させる。
 1)、9)~12)に記載の発明では、受付領域に対応する基準位置からタッチ位置に応じた操作位置への方向に基づいて指示方向が取得され、当該指示方向に基づいてゲーム処理が実行される。このようなゲームでは、方向を指示するために必要なタッチ位置の移動距離よりも実際のユーザのタッチ位置の移動距離が短くなる傾向があるため、従来、ユーザが所望の方向に対応する領域まで操作位置が移動するようにタッチ位置を移動させたつもりでいるにもかかわらず、実際には、所望の方向に対応する領域まで操作位置が移動していないことによって、ゲーム側では所望の方向以外の方向が指示されていると判定されてしまうという不都合が発生するおそれがあったが、本発明によれば、タッチ位置の移動に応じて、操作位置を、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離よりも長い距離移動させるため、上記のような不都合が発生し難くなる。
 2)本発明の一態様では、前記領域設定手段(120)は、前記受付領域(E10)よりも小さい対応領域(E15)を設定する手段(122)を含み、前記操作位置設定手段(132)は、前記操作位置(E14)と前記受付領域(E10)に対応する基準位置(E12)との位置関係が前記タッチ位置(T)と前記対応領域(E15)に対応する基準位置(E12)との位置関係に対応するようにして、前記操作位置(E14)を設定し、前記操作位置設定手段(132)は、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を、前記タッチ位置(T)の移動方向に対応する方向に、前記対応領域(E15)に対する前記受付領域(E10)の相対的なサイズに応じて前記タッチ位置(T)の移動距離を長くすることによって得られる距離移動させるようにしてもよい。
 2)に記載の発明によれば、操作位置と受付領域に対応する基準位置との位置関係がタッチ位置と対応領域に対応する基準位置との位置関係に対応するようにして、操作位置を設定し、対応領域に対する受付領域の相対的なサイズに応じてタッチ位置の移動距離を長くするようにして、操作位置の移動距離を設定すればすむため、タッチ位置の移動距離よりも長く操作位置が移動するような操作位置の設定に関わる処理を簡略化できる。
 3)本発明の一態様では、前記対応領域(E15)は、前記受付領域(E10)を1/n(n:1よりも大きい正の数値)に縮小した領域に相当する領域であり、前記操作位置設定手段(132)は、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を、前記タッチ位置(T)の移動方向に対応する方向に、前記タッチ位置(T)の移動距離をn倍することによって得られる距離移動させるようにしてもよい。
 3)に記載の発明によれば、操作位置の移動距離をタッチ位置の移動距離をn倍することによって得られる距離に設定すればすむため、タッチ位置の移動距離よりも長く操作位置が移動するような操作位置の設定に関わる処理を簡略化できる。
 4)本発明の一態様では、前記対応領域(E15)内から前記対応領域(E15)外に前記タッチ位置(T)が移動することに伴って、前記対応領域(E15)と前記受付領域(E10)とを移動させる領域移動手段(162)を含むようにしてもよい。
 4)に記載の発明によれば、ユーザが無意識のうちに、タッチ位置を対応領域内から対応領域外に向けて移動させてしまった場合であっても、対応領域と受付領域とが当該タッチ位置の移動に伴って移動するため、ユーザは方向指示操作を続行できる。
 5)本発明の一態様では、前記領域設定手段(120)は、前記タッチパネル(TP)の第1領域(LA)内がタッチされた場合に、前記タッチ位置(T)に基づいて、前記第1領域(LA)内に前記受付領域(E10)及び前記対応領域を(E15)設定し、前記タッチパネル(T)の第1領域(LA)以外の第2領域(RA)内がタッチされた場合に、前記受付領域(E10)及び前記対応領域(E15)を設定しないようにしてもよい。
 5)に記載の発明によれば、タッチパネルの第1領域内がタッチされた場合に、タッチされた位置に基づいて、第1領域内に受付領域を設定し、タッチパネルの第1領域以外の第2領域内がタッチされた場合に、受付領域を設定しないため、タッチパネルの第1領域を方向指示操作のために用い、タッチパネルの第2領域を方向指示操作以外の操作のために用いることができる。すなわち、方向指示操作を行う領域と、方向指示操作以外の操作を行う領域とを分けることができ、その結果、ユーザが操作を行い易くなる。
 6)本発明の一態様では、前記領域移動手段(162)は、前記領域設定手段(120)によって前記受付領域(E10)及び前記対応領域(E15)が設定された後で前記タッチ位置(T)が前記第2領域(RA)内に移動することに伴って、前記受付領域(E10)及び前記対応領域(E15)を前記第2領域(RA)内に移動させるようにしてもよい。
 6)に記載の発明によれば、ユーザが無意識のうちに、受付領域及び対応領域が設定された後で操作位置を第2領域内に移動させてしまった場合であっても、受付領域及び対応領域が第2領域内に移動するため、ユーザは方向指示操作を続行できる。
 7)本発明の一態様では、前記ゲーム処理実行手段(150)は、ユーザの操作対象(UC)に関する制御処理を実行し、前記ゲーム処理実行手段(150)は、前記指示方向に基づいて、前記操作対象(UC)の移動制御処理を実行する手段と、前記第2領域(RA)内がタッチされた場合に、前記タッチ位置又は前記タッチ位置の移動軌跡に基づいて、前記操作対象(UC)に関する制御処理であって前記移動制御処理以外の制御処理を実行する手段と、を含むようにしてもよい。
 7)に記載の発明によれば、指示方向に基づいて操作対象の移動制御処理が実行され、第2領域内がタッチされた場合に、タッチ位置又はタッチ位置の移動軌跡に基づいて、操作対象に関する制御処理であって移動制御処理以外の制御処理が実行されるため、タッチパネルの第1領域を操作対象の移動操作のために用いることができ、タッチパネルの第2領域を操作対象の移動操作以外の操作のために用いることができる。
 8)本発明の一態様では、前記操作位置設定手段(130)は、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を、前記タッチ位置(T)の移動方向に対応する方向に、前記タッチ位置(T)の移動距離移動させる第1移動手段(131)と、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を、前記タッチ位置(T)の移動方向に対応する方向に、前記タッチ位置(T)の移動距離よりも長い距離移動させる第2移動手段(132)と、を含み、前記ゲームシステム(1)は、前記操作位置(E14)を移動させるために用いる手段として前記第1移動手段(131)又は前記第2移動手段(132)のいずれかの選択を受け付ける選択受付手段(110)をさらに含むようにしてもよい。
 8)に記載の発明によれば、ユーザは、操作位置の移動モードとして、「操作位置を、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離よりも長い距離移動させるモード」と、「操作位置を、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離移動させるモード」のいずれかを任意に選択できる。
 13)また、本発明の一態様に係る情報処理システム(1)は、方向指示操作を受け付ける受付領域(E10)をタッチパネル(TP)に設定する領域設定手段(120)と、前記タッチパネル(TP)のタッチ位置(T)に応じた操作位置(E14)を設定する手段であって、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を移動させる操作位置設定手段(130,132)と、前記受付領域(E10)に対応する基準位置(E12)から前記操作位置(E14)への方向に基づいて指示方向を取得する指示方向取得手段(140)と、前記指示方向に基づいて処理を実行する処理実行手段(150)と、を含み、前記操作位置設定手段(132)は、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を、前記タッチ位置(T)の移動方向に対応する方向に、前記タッチ位置(T)の移動距離よりも長い距離移動させる。
 14)また、本発明の一態様に係る情報処理装置(10又は30)は、方向指示操作を受け付ける受付領域(E10)をタッチパネル(TP)に設定する領域設定手段(120)と、前記タッチパネル(TP)のタッチ位置(T)に応じた操作位置(E14)を設定する手段であって、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を移動させる操作位置設定手段(130,132)と、前記受付領域(E10)に対応する基準位置(E12)から前記操作位置(E14)への方向に基づいて指示方向を取得する指示方向取得手段(140)と、を含み、前記操作位置設定手段(132)は、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を、前記タッチ位置(T)の移動方向に対応する方向に、前記タッチ位置(T)の移動距離よりも長い距離移動させる。
 15)本発明の一態様に係るプログラムは、13)に記載の情報処理システム(1)又は14)に記載の情報処理装置(10又は30)としてコンピュータを機能させるためのプログラムである。
 16)本発明の一態様に係る情報記憶媒体は、15)に記載のプログラムを記録したコンピュータで読み取り可能な情報記憶媒体である。
 16)本発明の一態様に係る情報処理システム(1)又は情報処理装置(10又は30)の制御方法は、方向指示操作を受け付ける受付領域(E10)をタッチパネル(TP)に設定する領域設定ステップ(S150)と、前記タッチパネル(TP)のタッチ位置(T)に応じた操作位置(E14)を設定するステップであって、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を移動させる操作位置設定ステップ(S162)と、前記受付領域(E10)に対応する基準位置(E12)から前記操作位置(E14)への方向に基づいて指示方向を取得する指示方向取得ステップ(S166)と、を含み、前記操作位置設定ステップ(S162)では、前記タッチ位置(T)の移動に応じて、前記操作位置(E14)を、前記タッチ位置(T)の移動方向に対応する方向に、前記タッチ位置(T)の移動距離よりも長い距離移動させる。
 10)~14)に記載の発明によれば、受付領域に対応する基準位置からタッチ位置に応じた操作位置への方向に基づいて指示方向が取得され、当該指示方向に基づいて処理が実行される。このような場合、方向を指示するために必要なタッチ位置の移動距離よりも実際のユーザのタッチ位置の移動距離が短くなる傾向があるため、従来、ユーザが所望の方向に対応する領域まで操作位置が移動するようにタッチ位置を移動させたつもりでいるにもかかわらず、実際には、所望の方向に対応する領域まで操作位置が移動していないことによって、システム又は装置側では所望の方向以外の方向が指示されていると判定されてしまうという不都合が発生するおそれがあったが、本発明によれば、タッチ位置の移動に応じて、操作位置を、タッチ位置の移動方向に対応する方向に、タッチ位置の移動距離よりも長い距離移動させるため、上記のような不都合が発生し難くなる。
 1 ゲームシステム、N ネットワーク、10 ゲーム端末、11 制御部、12 記憶部、13 通信部、14 操作部、15 表示部、16 音出力部、TP タッチパネル、30 サーバ、31 制御部、32 記憶部、33 通信部、DB データベース、100 データ記憶部、D101 ゲーム状況データ、D102 操作状況データ、110 選択受付部、120 領域設定部、121 受付領域設定部、122 対応領域設定部、130 操作位置取得部、131 第1操作位置移動部、132 第2操作位置移動部、140 指示方向取得部、150 処理実行部、160 領域移動部、161 第1領域移動部、162 第2領域移動部、VW 仮想世界、VC 仮想カメラ、PT ピッチ、GL ゴール、TL タッチライン、EL ゴールライン、HL ハーフウェーライン、UC ユーザキャラクタ、OC 対戦相手キャラクタ、B ボール、C カーソル、LA 左側領域、RA 右側領域、F 指、G1 仮想世界画像、E10 方向パッド、E11 ベース部、E12 中心点、E13 ポインタ部、E14 中心点、E15 基準領域、A16 判定領域、E18-1 第1ボタン、E18-2 第2ボタン、T タッチ位置、G2 動作モード選択画像、E20-1,E20-2 オプションボタン、E21 設定ボタン、PA,PB,PC,PD,PE,PF,PG,PH,PI,PJ,PK 位置、D,DA,DB,DC,DD,DE,DF,DG 方向、L,LX,LY 距離。

Claims (10)

  1.  方向指示操作を受け付ける受付領域をタッチパネルに設定する領域設定手段と、
     前記タッチパネルのタッチ位置に応じた操作位置を設定する手段であって、前記タッチ位置の移動に応じて、前記操作位置を、前記タッチ位置の移動方向に対応する方向に、前記タッチ位置の移動距離よりも長い距離移動させる操作位置設定手段と、
     前記受付領域に対応する基準位置から前記操作位置への方向に基づいて指示方向を取得する指示方向取得手段と、
     前記指示方向に基づいてゲーム処理を実行するゲーム処理実行手段と、
     を含むゲームシステム。
  2.  請求項1に記載のゲームシステムにおいて、
     前記領域設定手段は、前記受付領域よりも小さい対応領域を設定する手段を含み、
     前記操作位置設定手段は、前記操作位置と前記受付領域に対応する基準位置との位置関係が前記タッチ位置と前記対応領域に対応する基準位置との位置関係に対応するようにして、前記操作位置を設定し、
     前記操作位置設定手段は、前記タッチ位置の移動に応じて、前記操作位置を、前記タッチ位置の移動方向に対応する方向に、前記対応領域に対する前記受付領域の相対的なサイズに応じて前記タッチ位置の移動距離を長くすることによって得られる距離移動させる、
     ゲームシステム。
  3.  請求項2に記載のゲームシステムにおいて、
     前記対応領域は、前記受付領域を1/n(n:1よりも大きい正の数値)に縮小した領域に相当する領域であり、
     前記操作位置設定手段は、前記タッチ位置の移動に応じて、前記操作位置を、前記タッチ位置の移動方向に対応する方向に、前記タッチ位置の移動距離をn倍することによって得られる距離移動させる、
     ゲームシステム。
  4.  請求項2又は3に記載のゲームシステムにおいて、
     前記対応領域内から前記対応領域外に前記タッチ位置が移動することに伴って、前記対応領域と前記受付領域とを移動させる領域移動手段を含む、
     ゲームシステム。
  5.  請求項2乃至4のいずれかに記載のゲームシステムにおいて、
     前記領域設定手段は、前記タッチパネルの第1領域内がタッチされた場合に、前記タッチ位置に基づいて、前記第1領域内に前記受付領域及び前記対応領域を設定し、前記タッチパネルの第1領域以外の第2領域内がタッチされた場合に、前記受付領域及び前記対応領域を設定しない、
     ゲームシステム。
  6.  請求項4に従属する請求項5に記載のゲームシステムにおいて、
     前記領域移動手段は、前記領域設定手段によって前記受付領域及び前記対応領域が設定された後で前記タッチ位置が前記第2領域内に移動することに伴って、前記受付領域及び前記対応領域を前記第2領域内に移動させる、
     ゲームシステム。
  7.  請求項5又は6に記載のゲームシステムにおいて、
     前記ゲーム処理実行手段は、ユーザの操作対象に関する制御処理を実行し、
     前記ゲーム処理実行手段は、
     前記指示方向に基づいて、前記操作対象の移動制御処理を実行する手段と、
     前記第2領域内がタッチされた場合に、前記タッチ位置又は前記タッチ位置の移動軌跡に基づいて、前記操作対象に関する制御処理であって前記移動制御処理以外の制御処理を実行する手段と、を含む、
     ゲームシステム。
  8.  請求項1乃至7のいずれかに記載のゲームシステムにおいて、
     前記操作位置設定手段は、
     前記タッチ位置の移動に応じて、前記操作位置を、前記タッチ位置の移動方向に対応する方向に、前記タッチ位置の移動距離移動させる第1移動手段と、
     前記タッチ位置の移動に応じて、前記操作位置を、前記タッチ位置の移動方向に対応する方向に、前記タッチ位置の移動距離よりも長い距離移動させる第2移動手段と、を含み、
     前記ゲームシステムは、前記操作位置を移動させるために用いる手段として前記第1移動手段又は前記第2移動手段のいずれかの選択を受け付ける選択受付手段をさらに含む、
     ゲームシステム。
  9.  方向指示操作を受け付ける受付領域をタッチパネルに設定する領域設定手段と、
     前記タッチパネルのタッチ位置に応じた操作位置を設定する手段であって、前記タッチ位置の移動に応じて、前記操作位置を、前記タッチ位置の移動方向に対応する方向に、前記タッチ位置の移動距離よりも長い距離移動させる操作位置設定手段と、
     前記受付領域に対応する基準位置から前記操作位置への方向に基づいて指示方向を取得する指示方向取得手段と、
     を含むゲーム制御装置。
  10.  請求項1乃至8のいずれかに記載のゲームシステム、又は、請求項9に記載のゲーム制御装置としてコンピュータを機能させるためのプログラム。

     
PCT/JP2018/010280 2017-03-27 2018-03-15 ゲームシステム、ゲーム制御装置、及びプログラム WO2018180553A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880022991.XA CN110545889B (zh) 2017-03-27 2018-03-15 游戏系统、游戏控制装置以及程序
KR1020197027926A KR102358390B1 (ko) 2017-03-27 2018-03-15 게임 시스템, 게임 제어 장치 및 컴퓨터 판독가능 기록 매체
US16/584,896 US11266904B2 (en) 2017-03-27 2019-09-26 Game system, game control device, and information storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017061954A JP6450794B2 (ja) 2017-03-27 2017-03-27 ゲームシステム、ゲーム制御装置、及びプログラム
JP2017-061954 2017-03-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/584,896 Continuation US11266904B2 (en) 2017-03-27 2019-09-26 Game system, game control device, and information storage medium

Publications (1)

Publication Number Publication Date
WO2018180553A1 true WO2018180553A1 (ja) 2018-10-04

Family

ID=63675418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010280 WO2018180553A1 (ja) 2017-03-27 2018-03-15 ゲームシステム、ゲーム制御装置、及びプログラム

Country Status (5)

Country Link
US (1) US11266904B2 (ja)
JP (1) JP6450794B2 (ja)
KR (1) KR102358390B1 (ja)
CN (1) CN110545889B (ja)
WO (1) WO2018180553A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6614381B1 (ja) * 2019-03-27 2019-12-04 株式会社セガゲームス プログラム及び情報処理装置
US20230070909A1 (en) 2020-02-18 2023-03-09 Hitachi Astemo, Ltd. Vehicle control apparatus, vehicle control method, and vehicle control system
US11577157B2 (en) * 2020-07-08 2023-02-14 Nintendo Co., Ltd. Systems and method of controlling game operations based on touch input
CN111840994A (zh) * 2020-07-17 2020-10-30 歌尔科技有限公司 游戏控制方法、系统、游戏手柄、游戏端及可读存储介质
CN112807672A (zh) * 2021-01-27 2021-05-18 上海众链科技有限公司 触摸设备的游戏轮盘加速控制方法及系统
US20220266138A1 (en) * 2021-02-22 2022-08-25 Neople Inc. Method and apparatus for providing touch screen interface
KR102362707B1 (ko) * 2021-11-23 2022-02-15 (유)에이스톰 게임용 가상패드의 화면상 위치 및 크기를 조정하는 방법 및 이를 이용한 서버

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018480A1 (ja) * 2011-07-29 2013-02-07 Kddi株式会社 タッチ入力が可能な画面内に原画像を縮小表示するタッチパッドを有するユーザインタフェース装置、入力処理方法及びプログラム
EP2799971A2 (en) * 2013-05-03 2014-11-05 Samsung Electronics Co., Ltd. Method of operating touch screen and electronic device thereof
JP2016009473A (ja) * 2014-06-26 2016-01-18 ガンホー・オンライン・エンターテイメント株式会社 端末装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3734819B1 (ja) 2004-07-26 2006-01-11 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
KR101030398B1 (ko) * 2008-12-15 2011-04-20 삼성전자주식회사 단말의 사용자 인터페이스 모드에 따른 감도 가변 터치 센서 및 그 제공 방법
JP5576061B2 (ja) * 2009-05-28 2014-08-20 株式会社バンダイナムコゲームス プログラム及びゲーム装置
JP4932010B2 (ja) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP5350304B2 (ja) * 2010-03-29 2013-11-27 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP5237325B2 (ja) * 2010-04-28 2013-07-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
US9411509B2 (en) * 2010-12-29 2016-08-09 Microsoft Technology Licensing, Llc Virtual controller for touch display
US8678927B2 (en) * 2011-10-04 2014-03-25 Microsoft Corporation Game controller on mobile touch-enabled devices
JP5373876B2 (ja) * 2011-10-20 2013-12-18 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP5941008B2 (ja) * 2013-03-28 2016-06-29 株式会社コナミデジタルエンタテインメント ゲーム装置及びプログラム
JP5787238B2 (ja) 2013-04-10 2015-09-30 コニカミノルタ株式会社 制御装置及び操作制御方法並びに操作制御プログラム
US9937416B2 (en) * 2013-06-11 2018-04-10 Microsoft Technology Licensing, Llc Adaptive touch input controls
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller
JP6616072B2 (ja) * 2014-12-26 2019-12-04 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
JP6018265B2 (ja) * 2015-07-13 2016-11-02 株式会社Cygames ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP6194532B2 (ja) * 2015-11-13 2017-09-13 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018480A1 (ja) * 2011-07-29 2013-02-07 Kddi株式会社 タッチ入力が可能な画面内に原画像を縮小表示するタッチパッドを有するユーザインタフェース装置、入力処理方法及びプログラム
EP2799971A2 (en) * 2013-05-03 2014-11-05 Samsung Electronics Co., Ltd. Method of operating touch screen and electronic device thereof
JP2016009473A (ja) * 2014-06-26 2016-01-18 ガンホー・オンライン・エンターテイメント株式会社 端末装置

Also Published As

Publication number Publication date
KR20190120311A (ko) 2019-10-23
CN110545889B (zh) 2023-05-09
JP2018161447A (ja) 2018-10-18
JP6450794B2 (ja) 2019-01-09
CN110545889A (zh) 2019-12-06
KR102358390B1 (ko) 2022-02-07
US20200038746A1 (en) 2020-02-06
US11266904B2 (en) 2022-03-08

Similar Documents

Publication Publication Date Title
JP6450794B2 (ja) ゲームシステム、ゲーム制御装置、及びプログラム
US10857462B2 (en) Virtual character controlling method and apparatus, electronic device, and storage medium
US11623142B2 (en) Data processing method and mobile terminal
US11707669B2 (en) Program, control method, and information processing apparatus
JP6447853B1 (ja) ゲーム制御装置、ゲームシステム、及びプログラム
KR101582296B1 (ko) 모바일 게임을 위한 자동 조준 시스템 및 방법
EP2595035A1 (en) Method for controlling computer that is held and operated by user
CN108525294B (zh) 射击游戏的控制方法和装置
JP6217000B2 (ja) ゲーム装置及びプログラム
JP5937773B1 (ja) プログラム及び携帯端末
JP5918285B2 (ja) 移動制御装置及びプログラム
JP6969066B2 (ja) ゲームシステム、ゲーム制御装置、及びプログラム
WO2018180552A1 (ja) ゲームシステム、ゲーム制御装置、及びプログラム
US10956027B2 (en) Program and portable terminal for selecting a command using a finger and executing the command in response to an operation performed with a second finger in an acceptable area
JP6964884B2 (ja) ゲーム制御装置、ゲームシステム、及びプログラム
JP7163526B1 (ja) 情報処理システム、プログラム及び情報処理方法
JP7286856B2 (ja) 情報処理システム、プログラム及び情報処理方法
JP7286857B2 (ja) 情報処理システム、プログラム及び情報処理方法
WO2023002907A1 (ja) 情報処理システム、プログラム及び情報処理方法
JP6206781B2 (ja) 移動制御装置及びプログラム
JP2023015979A (ja) 情報処理システム、プログラム及び情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18777946

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197027926

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18777946

Country of ref document: EP

Kind code of ref document: A1