WO2020067133A1 - プログラム、処理装置及び処理方法 - Google Patents

プログラム、処理装置及び処理方法 Download PDF

Info

Publication number
WO2020067133A1
WO2020067133A1 PCT/JP2019/037538 JP2019037538W WO2020067133A1 WO 2020067133 A1 WO2020067133 A1 WO 2020067133A1 JP 2019037538 W JP2019037538 W JP 2019037538W WO 2020067133 A1 WO2020067133 A1 WO 2020067133A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
coordinates
continuation
reference position
condition
Prior art date
Application number
PCT/JP2019/037538
Other languages
English (en)
French (fr)
Inventor
弘樹 松浦
光佑 肥後
悠樹 富沢
優介 松井
Original Assignee
株式会社Cygames
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Cygames filed Critical 株式会社Cygames
Publication of WO2020067133A1 publication Critical patent/WO2020067133A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to a program, a processing device, and a processing method.
  • Patent Document 1 discloses a game control method for moving a character in a direction determined based on a reference position and a touch position.
  • Point S in FIG. 1 is the reference position, and point N is the current touch position.
  • the touch at the point N is continued, and the character C continues to move in the direction from the point S to the point N (upward in the figure).
  • Moving the mobile when switching the moving direction of a character C in FIG right in the ongoing touch position rightward of the reference point S at any position, for example the point M 1 of the concrete on the line L 1 is Need to be done. That is, to change to the right in the drawing direction the moving direction of the character C in progress upward in the drawing, the lower right direction touched position: it is made to slide (eg direction from point N to point M 1)
  • the lower right direction touched position it is made to slide (eg direction from point N to point M 1)
  • Computer Touch information acquisition unit that acquires presence / absence of a touch on the touch panel, and touch information indicating coordinates on a coordinate plane corresponding to a touch position on the touch panel at predetermined time intervals, A reference position management unit that manages the coordinates of the reference position set on the coordinate plane, An object control unit that moves an object displayed on a screen in a movement direction determined based on the touch position indicated by the touch information and the reference position, and While the acquisition of the touch information indicating that there is a touch on the touch panel is continued, a reference touch continuation that manages coordinates of a reference touch continuation position that is a position on the coordinate plane where the touch continuation time satisfies a setting condition during that time.
  • Location management, Function as A program is provided, wherein the reference position management unit updates the coordinates of the reference position to the coordinates of the reference touch continuation position when the touch position, the reference touch continuation position, and the reference position satisfy a reference position change condition.
  • Computer The presence or absence of a touch on the touch panel, and acquires touch information indicating coordinates on a coordinate plane corresponding to the touch position on the touch panel at predetermined time intervals, Manage the coordinates of the reference position set on the coordinate plane, The touch position indicated by the touch information, in the moving direction determined based on the reference position, move the object displayed on the screen, While the acquisition of the touch information indicating that there is a touch on the touch panel is continued, manages the coordinates of a reference touch continuation position, which is a position on the coordinate plane where the touch continuation time satisfies a setting condition during that time, When the touch position, the reference touch continuation position, and the reference position satisfy a reference position change condition, a processing method for updating the coordinates of the reference position to the coordinates of the reference touch continuation position is provided.
  • Touch information acquisition unit that acquires presence / absence of a touch on the touch panel, and touch information indicating coordinates on a coordinate plane corresponding to a touch position on the touch panel at predetermined time intervals
  • a reference position management unit that manages the coordinates of the reference position set on the coordinate plane
  • An object control unit that moves an object displayed on a screen in a movement direction determined based on the touch position indicated by the touch information and the reference position, and While the acquisition of the touch information indicating that there is a touch on the touch panel is continued, a reference touch continuation that manages coordinates of a reference touch continuation position that is a position on the coordinate plane where the touch continuation time satisfies a setting condition during that time.
  • Location management, Has A processing device is provided in which the reference position management unit updates the coordinates of the reference position to the coordinates of the reference touch continuation position when the touch position, the reference touch continuation position, and the reference position satisfy a reference position change condition. Is done.
  • a touch operation to be performed can be intuitively grasped.
  • FIG. 2 is a diagram illustrating an example of a hardware configuration of a processing device according to the present embodiment.
  • FIG. 2 is a diagram illustrating an example of a functional block diagram of a processing device according to the present embodiment. It is a figure which shows an example of the information which the processing apparatus of this embodiment processes typically.
  • 5 is a flowchart illustrating an example of a processing flow of the processing device of the present embodiment. It is a figure which shows an example of the information which the processing apparatus of this embodiment processes typically.
  • 5 is a flowchart illustrating an example of a processing flow of the processing device of the present embodiment.
  • FIG. 5 is a flowchart illustrating an example of a processing flow of the processing device of the present embodiment.
  • 5 is a flowchart illustrating an example of a processing flow of the processing device of the present embodiment. It is a figure for explaining an operation effect of a processing device of this embodiment.
  • FIG. 2 is a diagram illustrating an example of a functional block diagram of a processing device according to the present embodiment.
  • 5 is a flowchart illustrating an example of a processing flow of the processing device of the present embodiment. It is a figure for explaining an operation effect of a processing device of this embodiment. It is a figure for explaining an operation effect of a processing device of this embodiment. It is a figure for explaining an operation effect of a processing device of this embodiment. It is a figure for explaining an operation effect of a processing device of this embodiment.
  • the processing device of the present embodiment performs game control for moving a character in a direction determined based on a reference position and a touch position.
  • the processing device of the present embodiment has a function that makes it easy to intuitively grasp a touch operation to be performed when the moving direction of the character moving in a certain direction is changed.
  • the function of the processing apparatus will be briefly described with reference to FIG.
  • Point S in FIG. 1 is the reference position, and point N is the current touch position.
  • the processing device moves the character C in a direction from the point S to the point N (upward in the figure).
  • the display position of the character C may be moved upward in the figure, or the background may be scrolled while the display position of the character C is fixed, so that the character C appears to be moving upward in the figure. You may.
  • the processing device when receiving a touch operation satisfying the reference position change condition, changes the reference position according to the touch operation. For example, the continuous touch at point N, when the character C continues to move from the point S in the direction toward the point N (upward direction in the figure), a touch sliding the touch position from the point N to point M 2 Assume that the operation has been accepted. Then, it is assumed that the touch operation satisfies the reference position change condition. In this case, the processing device changes the reference position from the point S to the point N according to the touch operation. The processor moves the character C in the direction from the point N is a new reference position M 2 that it is the current touched position.
  • the moving direction of the changed character C in moved in a certain direction, both because (to the sliding direction of the touch position coincide, the direction from the point N to point M 2 ), It is easy to intuitively grasp the touch operation to be performed.
  • the processing device is a computer device having a touch panel, such as a smartphone, a tablet, a portable game machine, and a personal computer.
  • FIG. 2 is a block diagram illustrating a hardware configuration of the processing device.
  • the processing device includes a processor 1A, a memory 2A, an input / output interface 3A, a peripheral circuit 4A, a bus 5A, a touch panel 6A, a communication unit 7A, and the like.
  • the peripheral circuit 4A includes various modules. The peripheral circuit 4A may not be provided.
  • the bus 5A is a data transmission path through which the processor 1A, the memory 2A, the peripheral circuit 4A, and the input / output I / F (interface) 3A mutually transmit and receive data.
  • the processor 1A is an arithmetic processing device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the memory 2A is a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • the input / output I / F 3A includes an input device (eg, a touch panel 6A, a microphone, a physical button, etc.), an output device (eg, a touch panel 6A, a speaker, etc.), and a communication unit 7A for connecting to a network such as the Internet. Is connected.
  • the processor 1A can issue a command to each module and perform a calculation based on the calculation results.
  • the touch panel 6A includes a display for displaying an image and a position input sensor.
  • the position input sensor When a touch operation is performed on touch panel 6A, the position input sensor outputs a signal (detection result) based on the touched position.
  • the signal output from touch panel 6A is input to processor 1A via input / output I / F 3A.
  • the processor 1A executes a program for converting a signal output from the touch panel 6A into coordinates on an arbitrary coordinate plane, and converts a signal output from the touch panel 6A into coordinates on the coordinate plane.
  • the coordinate plane is, for example, a two-dimensional coordinate system in which an arbitrary point on a touched surface of the touch panel 6A is set as an origin, and an X axis and a Y axis are defined in arbitrary directions parallel to the touched surface.
  • Examples of the position input sensor include a capacitance type and a resistive type.
  • the touch operation refers to a state in which an object (eg, a finger) is brought into contact with or in proximity to a position input sensor to cause the position input sensor to detect contact or proximity of the object, or a state in which the object is brought into contact with or approaching the position input sensor.
  • This refers to an operation of changing the position at which the object is brought into contact with or approaching the position input sensor while maintaining the position, or separating the object from the position input sensor to cancel the detection by the position input sensor.
  • touch coordinates the coordinates specified based on the position detected by the touch operation
  • touch position the position specified by the touch coordinates
  • FIG. 3 shows an example of a functional block diagram of the processing device 10.
  • the processing device 10 includes a touch information acquisition unit 11, a reference position management unit 12, an object control unit 13, a reference touch continuation position management unit 14, and an angle condition determination unit 15.
  • These functional units included in the processing device include a processor 1A, a memory 2A, an input / output I / F 3A, hardware such as a module (such as a touch panel 6A and a communication unit 7A) connected to the input / output I / F 3A, and a built-in memory ( This is realized by an arbitrary combination with a program (software) stored in a ROM, a hard disk, or the like and loaded in a RAM or the like. It will be understood by those skilled in the art that there are various modifications in the method and apparatus for realizing the method.
  • the programs stored in the built-in memory include programs stored in advance from the stage of shipment of the processing device, programs downloaded from servers on the Internet, and the like. These assumptions apply to the following embodiments.
  • the touch information acquisition unit 11 acquires a detection result of the position input sensor from the touch panel 6A, and indicates whether or not there is a touch on the touch panel 6A, and a touch indicating coordinates (touch coordinates) on a coordinate plane corresponding to a touch position on the touch panel 6A. Information is generated at predetermined time intervals.
  • the touch information acquiring unit 11 detects the presence or absence of a touch operation on the touch panel 6A at predetermined time intervals, and further detects the touch position (touch coordinates) when a touch operation is performed.
  • the predetermined time is a design matter.
  • the touch information acquisition unit 11 may perform the detection for each frame (for each frame) to generate touch information, or may perform the detection for every several frames to generate touch information. . If the frame rate is 60 fps, one frame corresponds to 1/60 second, and if the frame rate is 30 fps, one frame corresponds to 1/30 second.
  • FIG. 4 schematically shows an example of the touch information obtained by the touch information obtaining unit 11.
  • touch information including information indicating presence / absence of a touch and information indicating a touch coordinate is arranged in chronological order (acquisition order).
  • the touch information may not include the information indicating the presence or absence of the touch, but may include only the information indicating the touch coordinates.
  • the presence or absence of a touch can be determined based on the information indicating the touch coordinates. That is, the information indicating the touch coordinates indicates both the presence or absence of a touch and the touch coordinates.
  • the reference touch continuation position management unit 14 is a position on the coordinate plane in which the touch continuation time satisfies the setting condition. Manage the coordinates of the reference touch continuation position.
  • “management” means registration, updating, and clearing (erasing).
  • the setting condition is that the touch duration time exceeds the reference time.
  • the reference touch continuation position management unit 14 registers, as the reference time, the time (touch continuation time) at which the touch continues at the coordinates newly registered as the reference touch continuation position. Then, when the reference touch continuation position management unit 14 newly detects the coordinates where the touch continuation time exceeds the reference time, the reference touch continuation position is updated to the newly detected coordinates, and the reference time is newly detected. The time is updated to the time during which the touch is continued (touch continuation time) at the set coordinates.
  • the reference touch continuation position management unit 14 clears the coordinates of the reference touch continuation position and the reference time according to the acquisition of the touch information indicating that there is no touch on the touch panel 6A.
  • the reference touch continuation position management unit 14 can execute the flow of FIG. 5 every time new touch information is acquired by the touch information acquisition unit 11, for example.
  • the reference touch continuation position management unit 14 manages the reference touch continuation position information and the ongoing touch position information shown in FIG. Reference touch duration location information, the coordinates and the reference mentioned above time reference touch duration position and a T k.
  • the ongoing touch position information includes the coordinates of the position where the touch is continued at that time (continuous touch position) and the duration time Tr during which the touch is continued at that position.
  • the reference time Tk and the duration time Tr may be indicated in units of time such as minutes or seconds, or may be indicated by the number of frames.
  • the reference touch continuation position management unit 14 determines whether or not the touch information is touch information indicating that there is a touch on the touch panel 6A (S401). .
  • the reference touch continuation position management unit 14 determines whether the coordinates of the reference touch continuation position and the coordinates of the ongoing touch position are registered at that time. A determination is made (S402).
  • the reference touch continuation position management unit 14 converts the coordinates of the touch position indicated by the touch information into the reference touch continuation.
  • the coordinates of the position and the coordinates of the ongoing touch position are registered (S408).
  • the reference touch continuation position management unit 14 registers one frame or a time corresponding to one frame as the reference time Tk and the continuation time Tr . Then, the reference touch continuation position management unit 14 ends the processing.
  • the reference touch continuation position management unit 14 indicates the coordinates of the continuation touch position and the touch information. Then, it is determined whether the touch position is continued by comparing the coordinates of the touch position to be touched (S403). For example, the reference touch continuation position management unit 14 determines whether the coordinates of the ongoing touch position match the coordinates of the touch position indicated by the touch information, or the coordinates of the ongoing touch position and the coordinates of the touch position indicated by the touch information. If the distance from the coordinates is equal to or less than the reference value, it can be determined that the touch position is continuing.
  • the reference touch continued position management unit 14 updates the duration Tr (S404). For example, the reference touch duration position management unit 14, or adds 1 to the number of frames that have been registered as a duration T r, or by adding one of the frame time to the time that is registered as a duration T r .
  • the reference touch duration position management unit 14 determines greater than the reference time duration T r T k (S405). If the duration T r is the reference time greater than T k (Yes in S405), the reference touch duration position management unit 14 updates the coordinates of the reference touch duration position in the coordinate of the touch position continued (S406). Further, the reference touch continuation position management unit 14 updates the reference time Tk to the continuation time Tr . Then, the reference touch continuation position management unit 14 ends the processing.
  • the reference touch continuation position management unit 14 updates the coordinates of the ongoing touch position to the coordinates of the touch position indicated by the touch information (S407). Further, the reference touch continuation position management unit 14 updates the duration Tr to one frame or a time corresponding to one frame. Then, the reference touch continuation position management unit 14 ends the processing.
  • the reference touch continuation position management unit 14 registers the coordinates of the reference touch continuation position and the coordinates of the ongoing touch position at that time. Is determined (S409). If the coordinates of the reference touch continuation position and the coordinates of the continuation touch position are not registered (No in S409), the reference touch continuation position management unit 14 ends the process.
  • the reference touch continuation position management unit 14 sets the coordinates of the reference touch continuation position and the coordinates of the continuation touch position.
  • the coordinates, the reference time Tk, and the duration Tr are cleared (S410). Then, the reference touch continuation position management unit 14 ends the processing.
  • the reference position management unit 12 manages the coordinates of the reference position set on the coordinate plane.
  • the reference position management unit 12 determines the coordinates of the touch position indicated by the touch information indicating that there is a touch on the touch panel 6A acquired immediately after the touch information indicating that there is no touch on the touch panel 6A, or determines based on the coordinates. (Eg, arbitrary coordinates around the touch position) can be registered as the coordinates of the reference position. That is, the reference position management unit 12 can register, as the reference position, the position touched for the first time from the state where the touch on the touch panel 6A is not performed or the position determined based on the touched position.
  • the reference position management unit 12 can clear the coordinates of the reference position according to the acquisition of the touch information indicating that there is no touch on the touch panel 6A. That is, when the touch position on the touch panel 6A is not touched, the reference position management unit 12 can clear the coordinates of the reference position registered at that time, and can change the reference position to a state where the reference position is not registered.
  • the reference position management unit 12 updates the coordinates of the reference position to the coordinates of the reference touch continuation position.
  • the reference position change condition of the present embodiment is that the touch position indicated by the touch information, the reference touch continuation position and the reference position satisfy the angle condition, specifically, the touch position indicated by the touch information and the reference touch continuation position The angle determined by the reference position satisfies the angle condition. Whether the touch position, the reference touch continuation position, and the reference position indicated by the touch information satisfy the angle condition is determined by an angle condition determination unit 15 described later.
  • the reference position management unit 12 may register the coordinates of the initial reference position stored in advance as the coordinates of the reference position. Then, the reference position management unit 12 may update the coordinates of the reference position according to a touch operation satisfying the angle condition.
  • the reference position management unit 12 can execute the flow of FIG. 7 every time new touch information is acquired by the touch information acquisition unit 11, for example.
  • the reference position management unit 12 manages the reference position information shown in FIG.
  • the reference position information includes the coordinates of the reference position.
  • the reference position management unit 12 determines whether the touch information is touch information indicating that a touch has been made on the touch panel 6A (S201).
  • the reference position management unit 12 determines whether the coordinates of the reference position are registered at that time (S202).
  • the reference position management unit 12 registers the coordinates of the touch position indicated by the touch information as the coordinates of the reference position (S205), and ends the process.
  • the reference position management unit 12 determines whether or not the determination result of the angle condition determination unit 15 satisfies the angle condition (S203). If the determination result is that the angle condition is satisfied (Yes in S203), the reference position management unit 12 updates the coordinates of the reference position to the coordinates of the reference touch continuation position (S204), and ends the process. If the determination result is that the angle condition is not satisfied (No in S203), the reference position management unit 12 ends the processing.
  • the reference position management unit 12 determines whether the coordinates of the reference position are registered at that time (S206). If the coordinates of the reference position have not been registered (No in S206), the reference position management unit 12 ends the processing.
  • the reference position management unit 12 clears the coordinates of the reference position (S207), and ends the processing.
  • the angle condition determination unit 15 determines whether an angle defined by the touch position indicated by the touch information, the reference touch continuation position, and the reference position satisfies the angle condition. The determination will be described with reference to FIG.
  • the illustrated point S is the reference position
  • the point K is the reference touch continuation position
  • the point N is the current touch position indicated by the touch information.
  • the angles determined by the current touch position (point N), the reference touch continuation position (point K), and the reference position (point S) are: ⁇ angle of point K point N point S, ⁇ angle of point K point S point N, The angle of the point N point K point S and the like are exemplified.
  • the angle condition determination unit 15 may determine whether the angle of the illustrated ⁇ point K point N point S satisfies a predetermined angle condition. That is, the angle condition determination unit 15 connects the straight line connecting the current touch position (point N) and the reference touch continuation position (point K) to the current touch position (point N) and the reference position (point S). It may be determined whether the angle ⁇ formed with the straight line satisfies the angle condition.
  • the angle condition may be determined by an angle such as “ ⁇ 1 degree or more and ⁇ 2 degree or less”.
  • Other, angle conditions, trigonometry (sine, cosine, etc.) may be defined as "alpha 1 or alpha 2 or less" in the value of.
  • the object control unit 13 moves the object (eg, character) displayed on the screen in the movement direction determined based on the coordinates of the touch position indicated by the touch information and the coordinates of the reference position.
  • the object control unit 13 calculates a vector (a vector between two points) starting from the coordinates of the reference position and ending at the coordinates of the touch position indicated by the touch information. Then, the object control unit 13 determines the direction indicated by the vector as the direction in which the object is moved. Further, the object control unit 13 can determine the moving speed of the object according to the size indicated by the vector.
  • the object control unit 13 can execute the flow of FIG. 9 every time new touch information is acquired by the touch information acquisition unit 11, for example.
  • the object control unit 13 determines whether the touch information is touch information indicating that a touch has been made on the touch panel 6A (S301). If the touch information indicates that there is no touch on the touch panel 6A (No in S301), the object control unit 13 ends the process without moving the object.
  • the object control unit 13 calculates a vector having the coordinates of the reference position as the start point and the coordinates of the touch position indicated by the touch information as the end point. (S302). Then, the object control unit 13 determines the direction indicated by the vector as the direction for moving the object (S303). Further, the object control unit 13 determines a moving speed of the object according to the size indicated by the vector.
  • the object control unit 13 controls the screen display so as to move the object in the determined direction at the determined speed (S304).
  • the object control unit 13 calculates a direction starting from the coordinates of the reference position and ending at the coordinates of the touch position indicated by the touch information, and determines the calculated direction as the direction in which the object is moved. That is, the vector need not be calculated as in the example described above.
  • the moving speed of the object may be fixed (always constant) at a predetermined speed.
  • the moving speed of the object is set to start moving, for example, "the first speed is set to the moving speed for several frames immediately after the start of the movement, and the second speed is set to the moving speed after a lapse of several frames from the start of the movement.” It may be changed according to the elapsed time from the timing.
  • the processing device 10 acquires new touch information every predetermined time, for example, every frame.
  • the processing device 10 executes a reference position management process (S200).
  • the reference position management process is a process executed by the reference position management unit 12, and is shown, for example, in the flowchart of FIG. Thereafter, the processing device 10 executes an object control process (S300).
  • the object control process is a process executed by the object control unit 13, and is shown, for example, in the flowchart of FIG. Thereafter, the processing device 10 executes a reference touch continuation position management process (S400).
  • the reference touch continuation position management process is a process executed by the reference touch continuation position management unit 14, and is shown, for example, in the flowchart of FIG. Note that the processing order of the object control processing in S300 and the reference touch continuation position management processing in S400 may be reversed.
  • the processing device 10 described above can update the coordinates of the reference position to the coordinates of the reference touch continuation position. For example, as shown in FIG. 1, when the touch at the point N is continued and the character C continues to move from the point S, which is the reference position, to the point N (upward in the figure), the touch position is changed. accepts a touch operation to slide from point N to point M 2 (angle satisfying touch operation), the processing unit 10 changes the reference position from the point S to a point N. Then, the processing unit 10 moves the character C in the direction from the point N is a new reference position M 2 that it is the current touched position.
  • the touch operation to be performed when the moving direction of the character moving in the first direction is changed to the second direction is to slide the touch position in the second direction. Operation. Since the moving direction after the change of the character matches the sliding direction of the touch position, it is easy to intuitively grasp the touch operation to be performed.
  • FIG. 11 shows that the touch at the point N is continued for a certain period of time, the movement of the character C in the direction from the point S to the point N is continued, and then the touch is performed to change the moving direction of the character C to the right in the figure.
  • 7 shows a scene in which a touch operation of sliding a position to the right in the drawing is performed.
  • the touch operation suddenly changes from a still state (a state where the touch at the point N is continued to be touched) to a moving state (a state where the touch position is slid rightward from the point N)
  • the touch operation is smoothly performed. can not be run in, originally despite wanted to slide from point N to point M 2, after you slide from point N to point M 2 ', and became a situation that slide to the point M 2.
  • the point M 2 ′ input in such a situation is a position touched by the player unintentionally. If the coordinates of such a position are registered as the coordinates of the reference position, the moving direction of the character C after the change is changed by the player. Tends to be unintended. On the other hand, according to the processing device 10 in which the coordinates of the reference touch continuation position (the coordinates of the point N in FIG. 11) that has been stably touched for a long time are the coordinates of the reference position, the touch operation as described above is performed. , The moving direction of the character C after the change is likely to be the one intended by the player.
  • the angle defined by the point M 2 ′, the point M 2, and the reference position (point S) includes the point M 2 ′ which is the position where the player has unintentionally touched, the angle not intended by the player easily.
  • stable reference touch duration position has been touched long (in the case of FIG. 11, the point N) angle determined out with the point M 2 and the reference position (point S) is likely to become the intended angle of the player .
  • the processing apparatus 10 updates the coordinates of the reference position to the coordinates of the reference touch continuation position when receiving a touch operation that satisfies the distance condition in addition to the angle condition described in the first embodiment. This is different from the first embodiment. The details will be described below.
  • FIG. 12 shows an example of a functional block diagram of the processing device 10.
  • the processing device 10 includes a touch information acquisition unit 11, a reference position management unit 12, an object control unit 13, a reference touch continuation position management unit 14, an angle condition determination unit 15, a distance condition determination unit 16.
  • the configurations of the touch information acquisition unit 11, the object control unit 13, the reference touch continuation position management unit 14, and the angle condition determination unit 15 are the same as in the first embodiment.
  • the distance condition determination unit 16 determines a first touch position (current touch position) indicated by the first touch information and a second touch information indicated by the second touch information acquired immediately before the first touch information. It is determined whether or not the distance from the touch position (the distance between the coordinates) satisfies the distance condition. Note that the distance condition determination unit 16 may determine whether the distance between the first touch position indicated by the first touch information and the reference touch continuation position satisfies the distance condition. The distance condition is “distance is equal to or greater than a reference value”.
  • the reference position change condition of the present embodiment is such that the first touch position, the reference touch continuation position, and the reference position satisfy the angle condition, and the first touch position and the second touch position or the reference touch continuation position The distance between them satisfies the distance condition.
  • the reference position management unit 12 updates the coordinates of the reference position to the coordinates of the reference touch continuation position.
  • Other configurations of the reference position management unit 12 are the same as those of the first embodiment.
  • FIG. 13 differs from the flowchart of FIG. 7 described in the first embodiment in the content of S203. That is, in the flowchart of FIG. 7, in S203, the reference position management unit 12 determines whether or not the angle defined by the touch position indicated by the touch information, the reference touch continuation position, and the reference position satisfies the angle condition. doing. In contrast, in the flowchart of FIG.
  • the reference position management unit 12 determines that the angle defined by the touch position indicated by the touch information, the reference touch continuation position, and the reference position satisfies the angle condition, and It is determined whether or not the distance between the touch position indicated by the touch information and the touch position indicated by the immediately preceding touch information is determined to satisfy the distance condition. Note that “the touch position indicated by the touch information acquired immediately before” may be replaced with “reference touch continuation position”.
  • the player can perform a touch operation for slightly shifting the moving direction of the character and a touch operation for greatly changing the moving direction of the character.
  • the touch position may be slid small so as not to satisfy the distance condition (point N ⁇ point M 2 ). Even if the touch operation satisfies the angle condition but does not satisfy the distance condition, the reference position is maintained as the point S. Therefore, in accordance with the touch operation, the movement direction of a character C, from the direction from the point S to the point N, it is finely adjusted in the direction from the point S to the point M 2.
  • the moving direction of the character is greatly changed. If it is desired to do so, as shown in FIG. 16, the touch position may be greatly slid so as to satisfy the distance condition (point N ⁇ point M 2 ). If the touch operation satisfies the angle condition and the distance condition, the reference position is updated from point S to point N. Therefore, in accordance with the touch operation, the movement direction of a character C, from the direction toward the point N from point S in FIG. 14 is greatly changed in the direction toward the point M 2 from point S in FIG. 16.
  • the processing device 10 of the present embodiment it is possible to perform the touch operation for slightly shifting the moving direction of the character and the touch operation for largely changing the moving direction of the character separately.
  • the processing device 10 may employ a speed condition instead of the distance condition. That is, the distance condition determination unit 16 determines whether the first touch position indicated by the first touch information is equal to the second touch position indicated by the second touch information acquired immediately before the first touch information. It may be determined whether the speed at which the touch position is slid between the two satisfies the speed condition. Then, the reference position management unit 12 determines that the speed of sliding the touch position between the first touch position and the second touch position satisfies the speed condition, and that the first touch position, the reference touch continuation position, and the reference If the angle determined by the position satisfies the angle condition, the coordinates of the reference position may be updated to the coordinates of the reference touch continuation position. Also in this modification, the same operation and effect as those of the above-described first and second embodiments are realized.
  • the processing device 10 of the present embodiment attenuates or clears the reference time T k (see FIG. 6) included in the reference touch continuation position information according to the elapsed time from the timing at which the coordinates of the reference touch continuation position are updated. This is different from the first and second embodiments. The details will be described below.
  • the processing device 10 includes a touch information acquisition unit 11, a reference position management unit 12, an object control unit 13, a reference touch continuation position management unit 14, and an angle condition determination unit 15. Further, the processing device 10 can further include a distance condition determination unit 16.
  • the configurations of the touch information acquisition unit 11, the reference position management unit 12, the object control unit 13, the angle condition determination unit 15, and the distance condition determination unit 16 are the same as those in the first and second embodiments.
  • the reference touch continuation position management unit 14 can attenuate the reference time according to the elapsed time from the timing at which the coordinates of the reference touch continuation position are updated. For example, the reference touch continuation position management unit 14 may attenuate the predetermined value each time a predetermined frame elapses.
  • the reference touch continuation position management unit 14 can clear the coordinates of the reference touch continuation position when a predetermined time elapses from the timing of updating the coordinates of the reference touch continuation position.
  • the touch position is slid many times while keeping the touch, and the movement direction of the character described in the first and second embodiments is changed many times.
  • the touch at the first touch position is continued, the movement of the character in the first direction is continued, and then the touch operation satisfying the angle condition and the distance condition is performed to change the moving direction of the character to the second direction.
  • the touch operation satisfying the angle condition and the distance condition is performed to change the moving direction of the character to the second direction.
  • performing a touch operation satisfying the angle condition and the distance condition to change the movement direction of the character to the third direction It is assumed that the operation is performed.
  • the first touch position is set as the reference touch continuation position, and the determination of the angle condition or the like is performed. , The reference position is updated. As a result, the content is not intended by the player.
  • the processing device that attenuates or clears the reference time T k (see FIG. 6) included in the reference touch continuation position information according to the elapsed time from the timing at which the coordinates of the reference touch continuation position are updated. According to 10, the inconvenience as described above can be reduced.
  • the processing apparatus 10 of the present embodiment is different from the first to third embodiments in that the processing apparatus 10 performs a two-stage determination in which the content such as the angle condition is changed. The details will be described below.
  • the processing device 10 includes a touch information acquisition unit 11, a reference position management unit 12, an object control unit 13, a reference touch continuation position management unit 14, and an angle condition determination unit 15. Further, the processing device 10 can further include a distance condition determination unit 16.
  • the configurations of the touch information acquisition unit 11, the object control unit 13, and the reference touch continuation position management unit 14 are the same as those of the first to third embodiments.
  • the reference position management unit 12 and the angle condition determination unit 15 perform the following processing every time new touch information is acquired.
  • the angle condition determination unit 15 determines a first touch position indicated by the first touch information, a second touch position indicated by the second touch information acquired immediately before the first touch information, It is determined whether the angle determined by the reference position satisfies the first angle condition. If the first angle condition is satisfied, the reference position management unit 12 updates the coordinates of the reference position to the coordinates of the second touch position.
  • the angle condition determination unit 15 determines that the angle defined by the first touch position, the reference touch continuation position, and the reference position indicated by the first touch information is the second angle condition. It is determined whether or not the condition is satisfied. Note that the first angle condition is different from the second angle condition. If the second angle condition is satisfied, the reference position management unit 12 updates the coordinates of the reference position to the coordinates of the reference touch continuation position. On the other hand, if the second angle condition is not satisfied, the process ends without updating the reference position.
  • the reference position management unit 12, the angle condition determination unit 15, and the distance condition determination unit 16 perform the following processing every time new touch information is acquired.
  • the angle condition determination unit 15 determines a first touch position indicated by the first touch information, a second touch position indicated by the second touch information acquired immediately before the first touch information, It is determined whether the angle determined by the reference position satisfies the first angle condition. Further, the distance condition determining unit 16 determines whether the distance between the first touch position and the second touch position satisfies the first distance condition. When the first angle condition and the first distance condition are satisfied, the reference position management unit 12 updates the coordinates of the reference position to the coordinates of the second touch position.
  • the angle condition determination unit 15 determines the first touch position, the reference touch continuation position, and the reference position indicated by the first touch information. It is determined whether the angle determined by satisfies the second angle condition.
  • the distance condition determination unit 16 determines that the distance between the first touch position indicated by the first touch information and the second touch position or the reference touch continuation position indicated by the second touch information is the second touch position. It is determined whether the distance condition is satisfied. Note that the first angle condition is different from the second angle condition. Further, the first distance condition and the second distance condition are different.
  • the reference position management unit 12 updates the coordinates of the reference position to the coordinates of the reference touch continuation position.
  • the process ends without updating the reference position.
  • Computer Touch information acquisition unit that acquires presence / absence of a touch on the touch panel, and touch information indicating coordinates on a coordinate plane corresponding to a touch position on the touch panel at predetermined time intervals, A reference position management unit that manages the coordinates of the reference position set on the coordinate plane, An object control unit that moves an object displayed on a screen in a movement direction determined based on the touch position indicated by the touch information and the reference position, and While the acquisition of the touch information indicating that there is a touch on the touch panel is continued, a reference touch continuation that manages coordinates of a reference touch continuation position that is a position on the coordinate plane where the touch continuation time satisfies a setting condition during that time.
  • the reference position management unit Function as A program for updating, when the touch position, the reference touch continuation position, and the reference position satisfy a reference position change condition, the reference position management unit updates the coordinates of the reference position with the coordinates of the reference touch continuation position.
  • the computer functioning as an angle condition determination unit that determines whether an angle determined by the touch position, the reference touch continuation position, and the reference position satisfies an angle condition
  • the program in which the reference position change condition is that the touch position, the reference touch continuation position, and the reference position satisfy the angle condition.
  • a program for determining whether an angle formed by a straight line connecting the touch position and the reference touch continuation position and a straight line connecting the touch position and the reference position satisfies an angle condition. 4.
  • a first touch position indicated by the first touch information and a second touch position indicated by the second touch information acquired immediately before the first touch information or the reference touch continuation position The distance between them is made to function as a distance condition determination unit that determines whether the distance condition is satisfied,
  • the reference position change condition is such that the first touch position, the reference touch continuation position, and the reference position satisfy the angle condition, and the first touch position, the second touch position, or the reference touch A program in which the distance to the continuation position satisfies the distance condition. 5.
  • the reference touch continuation position management unit When updating the coordinates of the reference touch continuation position, register the continuation time during which the touch continued at the coordinates newly registered as the reference touch continuation position as a reference time, The program in which the setting condition is that the touch duration time exceeds the reference time. 6.
  • the reference touch continuation position management unit is a program that attenuates the reference time according to an elapsed time from a timing at which coordinates of the reference touch continuation position are updated. 7.
  • the reference position management unit The coordinates of the touch position indicated by the touch information indicating that there is a touch on the touch panel acquired immediately after the touch information indicating no touch on the touch panel, or other coordinates determined based on the coordinates, the reference position Register as coordinates A program for clearing the coordinates of the reference position in response to acquisition of the touch information indicating no touch on the touch panel. 10.
  • the presence or absence of a touch on the touch panel and acquires touch information indicating coordinates on a coordinate plane corresponding to the touch position on the touch panel at predetermined time intervals, Manage the coordinates of the reference position set on the coordinate plane, The touch position indicated by the touch information, in the moving direction determined based on the reference position, move the object displayed on the screen, While the acquisition of the touch information indicating that there is a touch on the touch panel is continued, manages the coordinates of a reference touch continuation position, which is a position on the coordinate plane where the touch continuation time satisfies a setting condition during that time, When the touch position, the reference touch continuation position, and the reference position satisfy a reference position change condition, the processing method updates the coordinates of the reference position to the coordinates of the reference touch continuation position.
  • Touch information acquisition unit that acquires presence / absence of a touch on the touch panel, and touch information indicating coordinates on a coordinate plane corresponding to a touch position on the touch panel at predetermined time intervals, A reference position management unit that manages the coordinates of the reference position set on the coordinate plane, An object control unit that moves an object displayed on a screen in a movement direction determined based on the touch position indicated by the touch information and the reference position, and While the acquisition of the touch information indicating that there is a touch on the touch panel is continued, a reference touch continuation that manages coordinates of a reference touch continuation position that is a position on the coordinate plane where the touch continuation time satisfies a setting condition during that time.
  • Location management, Has The processing device, wherein the reference position management unit updates the coordinates of the reference position to the coordinates of the reference touch continuation position when the touch position, the reference touch continuation position, and the reference position satisfy a reference position change condition.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明は、コンピュータを、タッチパネルに対するタッチの有無、及び、タッチパネル上のタッチ位置に対応する座標平面上の座標を示すタッチ情報を所定時間毎に取得するタッチ情報取得部(11)と、座標平面上に設定された基準位置の座標を管理する基準位置管理部(12)と、タッチ情報で示されるタッチ位置と基準位置とに基づき決定した移動方向に、画面表示されたオブジェクトを移動させるオブジェクト制御部(13)と、タッチパネルに対するタッチ有を示すタッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした座標平面上の位置である基準タッチ継続位置の座標を管理する基準タッチ継続位置管理部(14)として機能させ、基準位置管理部(12)は、タッチ位置、基準タッチ継続位置及び基準位置が基準位置変更条件を満たす場合、基準位置の座標を、基準タッチ継続位置の座標に更新するプログラムを提供する。

Description

プログラム、処理装置及び処理方法
 本発明は、プログラム、処理装置及び処理方法に関する。
 特許文献1に、基準位置とタッチ位置とに基づき決定した方向にキャラクターを移動させるゲーム制御方法が開示されている。
特許第5830806号公報
 基準位置とタッチ位置とに基づき決定した方向にキャラクターを移動させるゲーム制御方法の場合、ある方向に移動中のキャラクターの移動方向を変更させる場合に行うべきタッチ操作を、直感的に把握し難いという問題がある。図1を用いて説明する。
 図1の点Sが基準位置であり、点Nが現在のタッチ位置である。点Nにおけるタッチが継続され、キャラクターCは点Sから点Nに向かう方向(図中上方向)への移動を継続している。当該移動を継続中にキャラクターCの移動方向を図中右方向に切り替える場合には、タッチ位置を基準点Sの右方向、具体的には線L上の任意の位置例えば点Mに移動させる必要がある。すなわち、図中上方向に進行中のキャラクターCの移動方向を図中右方向に変更するためには、タッチ位置を右斜め下方向(例:点Nから点Mに向かう方向)にスライドさせる必要がある。このように、キャラクターCの変更後の移動方向と、タッチ位置のスライド方向とが一致しないため、実行すべきタッチ操作を直感的に把握し難くなる。
 本発明は、実行すべきタッチ操作を直感的に把握できるようにすることを課題とする。
 本発明によれば、
 コンピュータを、
  タッチパネルに対するタッチの有無、及び、前記タッチパネル上のタッチ位置に対応する座標平面上の座標を示すタッチ情報を所定時間毎に取得するタッチ情報取得部、
  前記座標平面上に設定された基準位置の座標を管理する基準位置管理部、
  前記タッチ情報で示される前記タッチ位置と、前記基準位置とに基づき決定した移動方向に、画面表示されたオブジェクトを移動させるオブジェクト制御部、及び、
  前記タッチパネルに対するタッチ有を示す前記タッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした前記座標平面上の位置である基準タッチ継続位置の座標を管理する基準タッチ継続位置管理部、
として機能させ、
 前記基準位置管理部は、前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が基準位置変更条件を満たす場合、前記基準位置の座標を、前記基準タッチ継続位置の座標に更新するプログラムが提供される。
 また、本発明によれば、
 コンピュータが、
  タッチパネルに対するタッチの有無、及び、前記タッチパネル上のタッチ位置に対応する座標平面上の座標を示すタッチ情報を所定時間毎に取得し、
  前記座標平面上に設定された基準位置の座標を管理し、
  前記タッチ情報で示される前記タッチ位置と、前記基準位置とに基づき決定した移動方向に、画面表示されたオブジェクトを移動させ、
  前記タッチパネルに対するタッチ有を示す前記タッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした前記座標平面上の位置である基準タッチ継続位置の座標を管理し、
 前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が基準位置変更条件を満たす場合、前記基準位置の座標を、前記基準タッチ継続位置の座標に更新する処理方法が提供される。
 また、本発明によれば、
 タッチパネルに対するタッチの有無、及び、前記タッチパネル上のタッチ位置に対応する座標平面上の座標を示すタッチ情報を所定時間毎に取得するタッチ情報取得部、
 前記座標平面上に設定された基準位置の座標を管理する基準位置管理部、
 前記タッチ情報で示される前記タッチ位置と、前記基準位置とに基づき決定した移動方向に、画面表示されたオブジェクトを移動させるオブジェクト制御部、及び、
 前記タッチパネルに対するタッチ有を示す前記タッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした前記座標平面上の位置である基準タッチ継続位置の座標を管理する基準タッチ継続位置管理部、
を有し、
 前記基準位置管理部は、前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が基準位置変更条件を満たす場合、前記基準位置の座標を、前記基準タッチ継続位置の座標に更新する処理装置が提供される。
 本発明によれば、実行すべきタッチ操作を直感的に把握できるようになる。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本実施形態の処理装置の課題及び作用効果を説明するための図である。 本実施形態の処理装置のハードウエア構成の一例を示す図である。 本実施形態の処理装置の機能ブロック図の一例を示す図である。 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の角度条件の判定で参照する角度の一例を示す図である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置の作用効果を説明するための図である。 本実施形態の処理装置の機能ブロック図の一例を示す図である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置の作用効果を説明するための図である。 本実施形態の処理装置の作用効果を説明するための図である。 本実施形態の処理装置の作用効果を説明するための図である。
<<第1の実施形態>>
<概要>
 本実施形態の処理装置は、基準位置とタッチ位置とに基づき決定した方向にキャラクターを移動させるゲーム制御を行う。そして、本実施形態の処理装置は、ある方向に移動中のキャラクターの移動方向を変更させる場合に行うべきタッチ操作が直感的に把握しやすくなる機能を備える。図1を用いて処理装置の機能を簡単に説明する。
 図1の点Sが基準位置であり、点Nが現在のタッチ位置である。この場合、処理装置は、キャラクターCを点Sから点Nに向かう方向(図中上方向)に移動させる。なお、キャラクターCの表示位置を図中上方向に移動させてもよいし、キャラクターCの表示位置を固定したまま背景をスクロールして、キャラクターCが図中上方向に移動しているように見せてもよい。
 そして、処理装置は、基準位置変更条件を満たすタッチ操作を受付けると、当該タッチ操作に応じて基準位置を変更する。例えば、点Nにおけるタッチが継続され、キャラクターCが点Sから点Nに向かう方向(図中上方向)への移動を継続している時に、タッチ位置を点Nから点Mにスライドさせるタッチ操作を受付けたとする。そして、当該タッチ操作が基準位置変更条件を満たしたとする。この場合、処理装置は、当該タッチ操作に応じて基準位置を点Sから点Nに変更する。そして、処理装置は、新たな基準位置である点Nから現在のタッチ位置である点Mに向かう方向にキャラクターCを移動させる。このような処理装置の機能によれば、ある方向に移動中のキャラクターCの変更後の移動方向と、タッチ位置のスライド方向とが一致するため(いずれも、点Nから点Mに向かう方向)、実行すべきタッチ操作を直感的に把握しやすくなる。
<構成>
 次に、本実施形態の処理装置の構成を詳細に説明する。
 まず、処理装置のハードウエア構成の一例について説明する。処理装置は、タッチパネルを備えたコンピュータ装置であり、例えばスマートフォン、タブレット、携帯ゲーム機、パソコンなどである。
 図2は、処理装置のハードウエア構成を例示するブロック図である。図2に示すように、処理装置は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5A、タッチパネル6A、通信部7Aなどを有する。周辺回路4Aには、様々なモジュールが含まれる。なお、周辺回路4Aを有さなくてもよい。
 バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力I/F(インターフェイス)3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力I/F3Aには、入力装置(例:タッチパネル6A、マイク、物理ボタンなど)や、出力装置(例:タッチパネル6A、スピーカなど)や、インターネットなどのネットワークに接続するための通信部7Aなどが接続される。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
 タッチパネル6Aは、画像を表示するディスプレイと、位置入力センサとにより構成される。タッチパネル6Aに対してタッチ操作がなされると、位置入力センサはタッチされた位置に基づいた信号(検出結果)を出力する。タッチパネル6Aから出力された信号は、入出力I/F3Aを介してプロセッサ1Aに入力される。プロセッサ1Aは、タッチパネル6Aから出力された信号を任意の座標平面上の座標に変換するプログラムを実行し、タッチパネル6Aから出力された信号を上記座標平面上の座標に変換する。上記座標平面は、例えば、タッチパネル6Aのタッチされる面上の任意の点を原点とし、当該面と平行な任意の方向にX軸及びY軸を定めた2次元座標系である。位置入力センサは、静電容量式又は抵抗膜式などが例示される。
 ここで、タッチ操作とは、物体(例:指)を位置入力センサに接触又は近接させて物体の接触又は近接を位置入力センサに検出させたり、物体を位置入力センサに接触又は近接させた状態を維持したまま物体を位置入力センサに接触又は近接させる位置を変更したり、物体を位置入力センサから離して位置入力センサによる検出を解除したりする操作をいう。以降、タッチ操作により検出された位置に基づき特定された座標を「タッチ座標」といい、タッチ座標で特定される位置を「タッチ位置」という。
 次に、処理装置の機能構成を説明する。図3に、処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、タッチ情報取得部11と、基準位置管理部12と、オブジェクト制御部13と、基準タッチ継続位置管理部14と、角度条件判定部15とを有する。
 処理装置が備えるこれらの機能部は、プロセッサ1A、メモリ2A、入出力I/F3A、入出力I/F3Aに接続されたモジュール(タッチパネル6A、通信部7Aなど)などのハードウエアと、内蔵メモリ(ROM、ハードディスクなど)に格納され、RAMなどにロードされるプログラム(ソフトウエア)との任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。なお、内蔵メモリに格納されるプログラムは、あらかじめ処理装置の出荷段階から格納されているプログラムのほか、インターネット上のサーバなどからダウンロードされたプログラムなども含む。これらの前提は、以下の実施形態も同様である。
 以下、各機能部を詳細に説明する。
 タッチ情報取得部11は、タッチパネル6Aから位置入力センサの検出結果を取得し、タッチパネル6Aに対するタッチの有無、及び、タッチパネル6A上のタッチ位置に対応する座標平面上の座標(タッチ座標)を示すタッチ情報を所定時間毎に生成する。
 具体的には、タッチ情報取得部11は、所定時間毎に、タッチパネル6Aに対するタッチ操作の有無を検出し、タッチ操作があった場合にはそのタッチ位置(タッチ座標)をさらに検出する。所定時間は設計的事項である。例えば、タッチ情報取得部11は、フレーム毎に(1フレーム毎に)上記検出を行い、タッチ情報を生成してもよいし、数フレーム毎に上記検出を行い、タッチ情報を生成してもよい。なお、フレームレートが60fpsなら1フレームは1/60秒に相当し、30fpsなら1フレームは1/30秒に相当する。
 図4に、タッチ情報取得部11が取得したタッチ情報の一例を模式的に示す。図示する例では、タッチの有無を示す情報及びタッチ座標を示す情報を含むタッチ情報が時系列順(取得順)に並んでいる。なお、図4とは異なる例として、タッチ情報はタッチの有無を示す情報を含まず、タッチ座標を示す情報のみを含んでもよい。この場合、タッチ座標を示す情報に基づき、タッチの有無を判定することができる。すなわち、タッチ座標を示す情報が、タッチの有無及びタッチ座標の両方を示す。
 図3に戻り、基準タッチ継続位置管理部14は、タッチパネル6Aに対するタッチ有を示すタッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした座標平面上の位置である基準タッチ継続位置の座標を管理する。本実施形態において「管理」は登録、更新及びクリア(消去)を意味する。
 設定条件は、「タッチ継続時間が参照時間を超えること」である。基準タッチ継続位置管理部14は、基準タッチ継続位置の座標を更新する場合に、新たに基準タッチ継続位置として登録される座標においてタッチが継続した時間(タッチ継続時間)を参照時間として登録する。そして、基準タッチ継続位置管理部14は、タッチ継続時間が参照時間を超えた座標を新たに検出すると、基準タッチ継続位置の座標を新たに検出した座標に更新するとともに、参照時間を新たに検出した座標においてタッチが継続した時間(タッチ継続時間)に更新する。
 また、基準タッチ継続位置管理部14は、タッチパネル6Aに対するタッチ無を示すタッチ情報の取得に応じて、基準タッチ継続位置の座標及び参照時間をクリアする。
 ここで、図5のフローチャートを用いて、基準タッチ継続位置管理部14による処理の流れの一例を説明する。基準タッチ継続位置管理部14は、例えばタッチ情報取得部11により新たなタッチ情報が取得される毎に図5のフローを実行することができる。
 なお、基準タッチ継続位置管理部14は、図6に示す基準タッチ継続位置情報と継続中タッチ位置情報とを管理するものとする。基準タッチ継続位置情報は、基準タッチ継続位置の座標と上述した参照時間Tとを含む。継続中タッチ位置情報は、その時点でタッチが継続されている位置(継続中タッチ位置)の座標とその位置でタッチが継続されている継続時間Tとを含む。なお、参照時間T及び継続時間Tは、分、秒などの時間の単位で示されてもよいし、フレーム数で示されてもよい。
 図5に戻り、タッチ情報取得部11が新たなタッチ情報を取得すると、基準タッチ継続位置管理部14は、そのタッチ情報がタッチパネル6Aに対するタッチ有を示すタッチ情報か否かを判定する(S401)。
 タッチパネル6Aに対するタッチ有を示すタッチ情報である場合(S401のYes)、基準タッチ継続位置管理部14は、その時点で基準タッチ継続位置の座標、及び、継続中タッチ位置の座標が登録されているか判定する(S402)。
 基準タッチ継続位置の座標、及び、継続中タッチ位置の座標が登録されていない場合(S402のNo)、基準タッチ継続位置管理部14は、タッチ情報で示されるタッチ位置の座標を、基準タッチ継続位置の座標、及び、継続中タッチ位置の座標として登録する(S408)。また、基準タッチ継続位置管理部14は、参照時間T及び継続時間Tとして1フレーム又は1フレーム分の時間を登録する。そして、基準タッチ継続位置管理部14は処理を終了する。
 一方、基準タッチ継続位置の座標、及び、継続中タッチ位置の座標が登録されている場合(S402のYes)、基準タッチ継続位置管理部14は、継続中タッチ位置の座標と、タッチ情報で示されるタッチ位置の座標とを比較し、タッチ位置が継続しているか否かを判定する(S403)。例えば、基準タッチ継続位置管理部14は、継続中タッチ位置の座標とタッチ情報で示されるタッチ位置の座標とが一致する場合、又は、継続中タッチ位置の座標とタッチ情報で示されるタッチ位置の座標との間の距離が基準値以下である場合、タッチ位置が継続していると判定することができる。
 タッチ位置が継続していると判定した場合(S403のYes)、基準タッチ継続位置管理部14は、継続時間Tを更新する(S404)。例えば、基準タッチ継続位置管理部14は、継続時間Tとして登録されているフレーム数に1を加算したり、継続時間Tとして登録されている時間に1フレーム分の時間を加算したりする。
 次いで、基準タッチ継続位置管理部14は、継続時間Tが参照時間Tより大きいか判定する(S405)。継続時間Tが参照時間Tより大きい場合(S405のYes)、基準タッチ継続位置管理部14は、基準タッチ継続位置の座標を継続中タッチ位置の座標に更新する(S406)。また、基準タッチ継続位置管理部14は、参照時間Tを継続時間Tに更新する。そして、基準タッチ継続位置管理部14は処理を終了する。
 一方、継続時間Tが参照時間Tより大きくない場合(S405のNo)、基準タッチ継続位置管理部14は処理を終了する。
 また、タッチ位置が継続していないと判定した場合(S403のNo)、基準タッチ継続位置管理部14は、継続中タッチ位置の座標を、タッチ情報で示されるタッチ位置の座標に更新する(S407)。また、基準タッチ継続位置管理部14は、継続時間Tを、1フレーム又は1フレーム分の時間に更新する。そして、基準タッチ継続位置管理部14は処理を終了する。
 また、タッチパネル6Aに対するタッチ無を示すタッチ情報である場合(S401のNo)、基準タッチ継続位置管理部14は、その時点で基準タッチ継続位置の座標、及び、継続中タッチ位置の座標が登録されているか判定する(S409)。基準タッチ継続位置の座標、及び、継続中タッチ位置の座標が登録されていない場合(S409のNo)、基準タッチ継続位置管理部14は処理を終了する。
 一方、基準タッチ継続位置の座標、及び、継続中タッチ位置の座標が登録されている場合(S409のYes)、基準タッチ継続位置管理部14は、基準タッチ継続位置の座標、継続中タッチ位置の座標、参照時間T及び継続時間Tをクリアする(S410)。そして、基準タッチ継続位置管理部14は処理を終了する。
 図3に戻り、基準位置管理部12は、座標平面上に設定された基準位置の座標を管理する。
 例えば、基準位置管理部12は、タッチパネル6Aに対するタッチ無を示すタッチ情報の直後に取得されたタッチパネル6Aに対するタッチ有を示すタッチ情報で示されるタッチ位置の座標、又は、当該座標に基づき決定した他の座標(例:タッチ位置の周辺の任意の座標など)を、基準位置の座標として登録することができる。すなわち、基準位置管理部12は、タッチパネル6Aに対するタッチがなされていない状態から初めてタッチされた位置又はそのタッチ位置に基づき決定した位置を、基準位置として登録することができる。
 そして、基準位置管理部12は、タッチパネル6Aに対するタッチ無を示すタッチ情報の取得に応じて、基準位置の座標をクリアすることができる。すなわち、基準位置管理部12は、タッチパネル6Aに対するタッチがなされていない状態になると、その時点で登録されていた基準位置の座標をクリアし、基準位置が登録されていない状態にすることができる。
 また、基準位置管理部12は、タッチ情報で示されるタッチ位置、基準タッチ継続位置及び基準位置が基準位置変更条件を満たす場合、基準位置の座標を、基準タッチ継続位置の座標に更新する。本実施形態の基準位置変更条件は、タッチ情報で示されるタッチ位置、基準タッチ継続位置及び基準位置が角度条件を満たすこと、具体的には、タッチ情報で示されるタッチ位置と基準タッチ継続位置と基準位置とで定まる角度が角度条件を満たすことである。タッチ情報で示されるタッチ位置、基準タッチ継続位置及び基準位置が角度条件を満たすか否かの判定は、後述する角度条件判定部15が行う。
 変形例として、基準位置管理部12は、予め記憶されていた初期基準位置の座標を基準位置の座標として登録してもよい。そして、基準位置管理部12は、上記角度条件を満たすタッチ操作に応じて、基準位置の座標を更新してもよい。
 ここで、図7のフローチャートを用いて、基準位置管理部12よる処理の流れの一例を説明する。基準位置管理部12は、例えばタッチ情報取得部11により新たなタッチ情報が取得される毎に図7のフローを実行することができる。
 なお、基準位置管理部12は、図6に示す基準位置情報を管理するものとする。基準位置情報は、基準位置の座標を含む。
 図7に戻り、タッチ情報取得部11が新たなタッチ情報を取得すると、基準位置管理部12は、そのタッチ情報がタッチパネル6Aに対するタッチ有を示すタッチ情報か否かを判定する(S201)。
 タッチパネル6Aに対するタッチ有を示すタッチ情報である場合(S201のYes)、基準位置管理部12は、その時点で基準位置の座標が登録されているか判定する(S202)。
 基準位置の座標が登録されていない場合(S202のNo)、基準位置管理部12は、タッチ情報で示されるタッチ位置の座標を、基準位置の座標として登録し(S205)、処理を終了する。
 一方、基準位置の座標が登録されている場合(S202のYes)、基準位置管理部12は、角度条件判定部15の判定結果が「角度条件を満たすか否か」を判定する(S203)。判定結果が角度条件を満たすである場合(S203のYes)、基準位置管理部12は、基準位置の座標を、基準タッチ継続位置の座標に更新し(S204)、処理を終了する。判定結果が角度条件を満たさないである場合(S203のNo)、基準位置管理部12は処理を終了する。
 また、タッチパネル6Aに対するタッチ無を示すタッチ情報である場合(S201のNos)、基準位置管理部12は、その時点で基準位置の座標が登録されているか判定する(S206)。基準位置の座標が登録されていない場合(S206のNo)、基準位置管理部12は処理を終了する。
 一方、基準位置の座標が登録されている場合(S206のYes)、基準位置管理部12は基準位置の座標をクリアし(S207)、処理を終了する。
 図3に戻り、角度条件判定部15は、タッチ情報で示されるタッチ位置と、基準タッチ継続位置と、基準位置とで定まる角度が角度条件を満たすか判定する。図8を用いて、当該判定について説明する。図示する点Sが基準位置であり、点Kが基準タッチ継続位置であり、点Nがタッチ情報で示される現在のタッチ位置である。
 現在のタッチ位置(点N)と基準タッチ継続位置(点K)と基準位置(点S)とで定まる角度は、∠点K点N点Sの角度、∠点K点S点Nの角度、∠点N点K点Sの角度等が例示される。角度条件判定部15は、例えば、図示する∠点K点N点Sの角度が所定の角度条件を満たすか判定してもよい。すなわち、角度条件判定部15は、現在のタッチ位置(点N)と基準タッチ継続位置(点K)とを結ぶ直線と、現在のタッチ位置(点N)と基準位置(点S)とを結ぶ直線とのなす角θが角度条件を満たすか判定してもよい。角度条件は、「θ度以上、θ度以下」のように角度で定めてもよい。その他、角度条件は、三角比(正弦、余弦等)の値で「α以上α以下」のように定めてもよい。
 図3に戻り、オブジェクト制御部13は、タッチ情報で示されるタッチ位置の座標と、基準位置の座標とに基づき決定した移動方向に、画面表示されたオブジェクト(例:キャラクター)を移動させる。オブジェクト制御部13は、基準位置の座標を始点とし、タッチ情報で示されるタッチ位置の座標を終点とするベクトル(2点間のベクトル)を算出する。そして、オブジェクト制御部13は、そのベクトルが示す方向を、オブジェクトを移動させる方向として決定する。また、オブジェクト制御部13は、そのベクトルが示す大きさに応じて、オブジェクトを移動させる速さを決定することができる。
 ここで、図9のフローチャートを用いて、オブジェクト制御部13による処理の流れの一例を説明する。オブジェクト制御部13は、例えばタッチ情報取得部11により新たなタッチ情報が取得される毎に図9のフローを実行することができる。
 タッチ情報取得部11が新たなタッチ情報を取得すると、オブジェクト制御部13は、そのタッチ情報がタッチパネル6Aに対するタッチ有を示すタッチ情報か否かを判定する(S301)。タッチパネル6Aに対するタッチ無を示すタッチ情報である場合(S301のNo)、オブジェクト制御部13はオブジェクトを移動させないまま処理を終了する。
 一方、タッチパネル6Aに対するタッチ有を示すタッチ情報である場合(S301のYes)オブジェクト制御部13は、基準位置の座標を始点とし、タッチ情報で示されるタッチ位置の座標を終点とするベクトルを算出する(S302)。そして、オブジェクト制御部13は、当該ベクトルが示す方向を、オブジェクトを移動させる方向として決定する(S303)。また、オブジェクト制御部13は、そのベクトルが示す大きさに応じて、オブジェクトを移動させる速さを決定する。
 次いで、オブジェクト制御部13は、決定した方向に決定した速さでオブジェクトを移動させるように、画面表示を制御する(S304)。
 なお、変形例として、オブジェクト制御部13は、基準位置の座標を始点とし、タッチ情報で示されるタッチ位置の座標を終点とする方向を算出し、算出した方向を、オブジェクトを移動させる方向として決定してもよい、すなわち、上述した例のようにベクトルを算出しなくてもよい。この場合のオブジェクトの移動速度は、予め定められた所定の速度で固定(常に一定)であってもよい。その他、「移動開始直後の数フレームの間は第1の速度を移動速度とし、移動開始から数フレーム経過後は第2の速度を移動速度とする」のように、オブジェクトの移動速度を移動開始タイミングからの経過時間に応じて変化させてもよい。
 次に、図10のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。処理装置10は、所定時間毎に、例えば1フレーム毎に、新たなタッチ情報を取得する。新たなタッチ情報を取得すると(S100のYes)、処理装置10は、基準位置管理処理を実行する(S200)。基準位置管理処理は基準位置管理部12により実行される処理であり、例えば図7のフローチャートで示される。その後、処理装置10は、オブジェクト制御処理を実行する(S300)。オブジェクト制御処理はオブジェクト制御部13により実行される処理であり、例えば図9のフローチャートで示される。その後、処理装置10は、基準タッチ継続位置管理処理を実行する(S400)。基準タッチ継続位置管理処理は基準タッチ継続位置管理部14により実行される処理であり、例えば図5のフローチャートで示される。なお、S300のオブジェクト制御処理とS400の基準タッチ継続位置管理処理の処理順は逆であってもよい。
<作用効果>
 以上説明した処理装置10は、角度条件を満たすタッチ操作を受付けると、基準位置の座標を基準タッチ継続位置の座標に更新することができる。例えば、図1に示すように点Nにおけるタッチが継続され、キャラクターCが基準位置である点Sから点Nに向かう方向(図中上方向)への移動を継続している時に、タッチ位置を点Nから点Mにスライドさせるタッチ操作(角度条件を満たすタッチ操作)を受付けると、処理装置10は、基準位置を点Sから点Nに変更する。そして、処理装置10は、新たな基準位置である点Nから現在のタッチ位置である点Mに向かう方向にキャラクターCを移動させる。
 このように、処理装置10によれば、第1の方向に移動中のキャラクターの移動方向を第2の方向に変更させる場合に実行すべきタッチ操作は、タッチ位置を第2の方向にスライドさせる操作となる。キャラクターの変更後の移動方向と、タッチ位置のスライド方向とが一致するため、実行すべきタッチ操作が直感的に把握しやすくなる。
 また、基準タッチ継続位置の座標を利用する処理装置10によれば、次のような作用効果が得られる。
 まず、図11に示す状況を想定する。図11は、点Nにおけるタッチを一定時間継続し、点Sから点Nに向かう方向へのキャラクターCの移動を継続した後、キャラクターCの移動方向を図中右方向に変更するために、タッチ位置を図中右方向にスライドさせるタッチ操作を行った場面を示す。しかし、静の状態(点Nでのタッチを継続する状態)から動の状態(点Nから図中右方向にタッチ位置をスライドさせる状態)に急激に変わるタッチ操作のため、当該タッチ操作を滑らかに実行できず、本来は点Nから点Mにスライドさせたかったにも関わらず、点Nから点M´にスライドした後に、点Mにスライドするという状況になったとする。
 このような状況で入力された点M´は、プレイヤが意図せずタッチした位置であり、このような位置の座標を基準位置の座標として登録すると、キャラクターCの変更後の移動方向がプレイヤの意図しないものとなり易い。これに対し、安定的に長時間タッチされていた基準タッチ継続位置の座標(図11の場合、点Nの座標)を基準位置の座標とする処理装置10によれば、上述のようなタッチ操作のミスがあっても、キャラクターCの変更後の移動方向がプレイヤの意図したものとなり易い。
 また、上述のような点M´と点Mと基準位置(点S)とで定まる角度は、プレイヤが意図せずタッチした位置である点M´を含むため、プレイヤの意図しない角度となり易い。これに対し、安定的に長時間タッチされていた基準タッチ継続位置(図11の場合、点N)と点Mと基準位置(点S)とで定まる角度は、プレイヤの意図した角度となり易い。
 このように、基準タッチ継続位置の座標を利用することで、プレイヤの意図通りの入力を受付け、プレイヤの意図通りの結果に導くことができる。
<<第2の実施形態>>
<概要>
 本実施形態の処理装置10は、第1の実施形態で説明した角度条件に加えて、距離条件を満たすタッチ操作を受付けた場合に、基準位置の座標を基準タッチ継続位置の座標に更新する点で、第1の実施形態と異なる。以下、詳細に説明する。
<構成>
 処理装置10のハードウエア構成の一例は、第1の実施形態と同様である。
 図12に、処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、タッチ情報取得部11と、基準位置管理部12と、オブジェクト制御部13と、基準タッチ継続位置管理部14と、角度条件判定部15と、距離条件判定部16とを有する。タッチ情報取得部11、オブジェクト制御部13、基準タッチ継続位置管理部14及び角度条件判定部15の構成は、第1の実施形態と同様である。
 距離条件判定部16は、第1のタッチ情報で示される第1のタッチ位置(現在のタッチ位置)と、第1のタッチ情報の直前に取得された第2のタッチ情報で示される第2のタッチ位置との間の距離(座標間の距離)が、距離条件を満たすか判定する。なお、距離条件判定部16は、第1のタッチ情報で示される第1のタッチ位置と、基準タッチ継続位置との間の距離が、距離条件を満たすか判定してもよい。距離条件は、「距離が基準値以上」である。
 本実施形態の基準位置変更条件は、第1のタッチ位置、基準タッチ継続位置及び基準位置が角度条件を満たし、かつ、第1のタッチ位置と、第2のタッチ位置又は基準タッチ継続位置との間の距離が距離条件を満たすことである。基準位置管理部12は、第1のタッチ位置、基準タッチ継続位置及び基準位置がこのような基準位置変更条件を満たす場合、基準位置の座標を基準タッチ継続位置の座標に更新する。基準位置管理部12のその他の構成は、第1の実施形態と同様である。
 ここで、図13のフローチャートを用いて、本実施形態の基準位置管理部12の処理の流れの一例を示す。図13のフローチャートは、第1の実施形態で説明した図7のフローチャートと比較して、S203の内容が異なる。すなわち、図7のフローチャートでは、S203において、基準位置管理部12は、タッチ情報で示されるタッチ位置と基準タッチ継続位置と基準位置とで定まる角度が角度条件を満たすと判定されたか否かを判定している。これに対し、図13のフローチャートでは、S203において、基準位置管理部12は、タッチ情報で示されるタッチ位置と基準タッチ継続位置と基準位置とで定まる角度が角度条件を満たすと判定され、かつ、タッチ情報で示されるタッチ位置と直前に取得されたタッチ情報で示されるタッチ位置との距離が距離条件を満たすと判定されたか否かを判定している。なお、「直前に取得されたタッチ情報で示されるタッチ位置」を「基準タッチ継続位置」に置き換えてもよい。
 本実施形態の処理装置10の処理の流れの一例は、図10のフローチャートを用いて第1の実施形態で説明した処理装置10の処理の流れの一例と同様である。
<作用効果>
 以上説明した処理装置10によれば、第1の実施形態と同様な作用効果を実現できる。
 ところで、タッチ位置を厳密に同じ位置で維持させるのは困難であるため、タッチ位置のわずかなずれは生じ得る。このため、例えば、図14に示すように点Sから点Nに向かう方向(図中上方向)へのキャラクターCの移動を継続させるために、点Nにおけるタッチを継続する場合においても、タッチ位置のずれが生じ得る。そして、ずれる前のタッチ位置とずれた後のタッチ位置とが第1の実施形態で説明した角度条件を満たし得る。
 このような、プレイヤの意図しないタッチ位置のずれに応じて基準位置を更新し、キャラクターの移動方向を大きく変更してしまうと、キャラクターCがプレイヤの意図しない動きを行ってしまう。距離条件の判定を加えた本実施形態の処理装置10によれば、このような問題を解消できる。
 また、距離条件を加えることで、プレイヤは、キャラクターの移動方向をわずかにずらすタッチ操作と、キャラクターの移動方向を大きく変更するタッチ操作とを区別して行うことができる。
 例えば、図14に示すように点Nにおけるタッチを継続し、キャラクターCが基準位置である点Sから点Nに向かう方向(図中上方向)への移動を継続している時に、キャラクターCの移動方向をわずかにずらしたい場合には、図15に示すように、距離条件を満たさないようにタッチ位置を小さくスライドさせればよい(点N→点M)。このタッチ操作が角度条件を満たしても、距離条件を満たさなければ、基準位置は点Sのままで維持される。このため、当該タッチ操作に応じて、キャラクターCの移動方向は、点Sから点Nに向かう方向から、点Sから点Mに向かう方向に微調整される。
 一方、図14に示すように点Nにおけるタッチを継続し、キャラクターCが点Sから点Nに向かう方向(図中上方向)への移動を継続している時に、キャラクターの移動方向を大きく変更したい場合には、図16に示すように、距離条件を満たすようにタッチ位置を大きくスライドさせればよい(点N→点M)。このタッチ操作が角度条件及び距離条件を満たせば、基準位置は点Sから点Nに更新される。このため、当該タッチ操作に応じて、キャラクターCの移動方向は、図14の点Sから点Nに向かう方向から、図16の点Sから点Mに向かう方向に大きく変更される。
 このように、本実施形態の処理装置10によれば、キャラクターの移動方向をわずかにずらすタッチ操作と、キャラクターの移動方向を大きく変更するタッチ操作とを区別して行うことが可能となる。
<変形例>
 処理装置10は、距離条件に代えて、速度条件を採用してもよい。すなわち、距離条件判定部16は、第1のタッチ情報で示される第1のタッチ位置と、第1のタッチ情報の直前に取得された第2のタッチ情報で示される第2のタッチ位置との間におけるタッチ位置をスライドさせる速度が速度条件を満たすか判定してもよい。そして、基準位置管理部12は、第1のタッチ位置と第2のタッチ位置との間におけるタッチ位置をスライドさせる速度が速度条件を満たし、かつ、第1のタッチ位置と基準タッチ継続位置と基準位置とで定まる角度が角度条件を満たす場合、基準位置の座標を基準タッチ継続位置の座標に更新してもよい。当該変形例においても、上述した第1及び第2の実施形態の作用効果と同様の作用効果が実現される。
<<第3の実施形態>>
<概要>
 本実施形態の処理装置10は、基準タッチ継続位置情報に含まれる参照時間T(図6参照)を、基準タッチ継続位置の座標を更新したタイミングからの経過時間に応じて減衰させたり、クリアしたりする点で、第1及び第2の実施形態と異なる。以下、詳細に説明する。
<構成>
 処理装置10のハードウエア構成の一例は、第1及び第2の実施形態と同様である。
 処理装置10の機能ブロック図の一例は、図3又は図12で示される。図示するように、処理装置10は、タッチ情報取得部11と、基準位置管理部12と、オブジェクト制御部13と、基準タッチ継続位置管理部14と、角度条件判定部15とを有する。また、処理装置10は、さらに距離条件判定部16を有することができる。タッチ情報取得部11、基準位置管理部12、オブジェクト制御部13、角度条件判定部15及び距離条件判定部16の構成は、第1及び第2の実施形態と同様である。
 基準タッチ継続位置管理部14は、基準タッチ継続位置の座標を更新したタイミングからの経過時間に応じて、参照時間を減衰させることができる。例えば、基準タッチ継続位置管理部14は、所定フレーム経過毎に所定値を減衰させてもよい。
 他の例として、基準タッチ継続位置管理部14は、基準タッチ継続位置の座標を更新したタイミングから所定時間経過すると、基準タッチ継続位置の座標をクリアすることができる。
 基準タッチ継続位置管理部14のその他の構成は、第1及び第2の実施形態と同様である。
 本実施形態の処理装置10の処理の流れの一例は、図10のフローチャートを用いて第1の実施形態で説明した処理装置10の処理の流れの一例と同様である。
<作用効果>
 以上説明した処理装置10によれば、第1及び第2の実施形態と同様な作用効果を実現できる。
 ところで、タッチを継続したままタッチ位置を何度もスライドさせ、第1及び第2の実施形態で説明したキャラクターの移動方向の変更を何度も行う場合が考えられる。例えば、第1のタッチ位置でのタッチを継続し、第1の方向へのキャラクターの移動を継続した後に角度条件や距離条件を満たすタッチ操作を行ってキャラクターの移動方向を第2の方向に変更し、第2のタッチ位置でのタッチを継続して第2の方向へのキャラクターの移動を継続した後に角度条件や距離条件を満たすタッチ操作を行ってキャラクターの移動方向を第3の方向に変更するという操作が想定される。このような場面において、第2のタッチ位置でのタッチ継続時間が第1のタッチ位置でのタッチ継続時間を超えなかった場合、第1のタッチ位置を基準タッチ継続位置として、角度条件の判定や、基準位置の更新などが行われることとなる。結果、プレイヤの意図しない内容となってしまう。
 基準タッチ継続位置情報に含まれる参照時間T(図6参照)を、基準タッチ継続位置の座標を更新したタイミングからの経過時間に応じて減衰させたり、クリアしたりする本実施形態の処理装置10によれば、上述のような不都合を軽減できる。
<<第4の実施形態>>
<概要>
 本実施形態の処理装置10は、角度条件等の内容を変えた2段階の判定を行う点で、第1乃至第3の実施形態と異なる。以下、詳細に説明する。
<構成>
 処理装置10のハードウエア構成の一例は、第1乃至第3の実施形態と同様である。
 処理装置10の機能ブロック図の一例は、図3又は図12で示される。図示するように、処理装置10は、タッチ情報取得部11と、基準位置管理部12と、オブジェクト制御部13と、基準タッチ継続位置管理部14と、角度条件判定部15とを有する。また、処理装置10は、さらに距離条件判定部16を有することができる。タッチ情報取得部11、オブジェクト制御部13及び基準タッチ継続位置管理部14の構成は、第1乃至第3の実施形態と同様である。
 処理装置10が図3で示される場合、基準位置管理部12及び角度条件判定部15は、新たなタッチ情報が取得される毎に、次の処理を行う。
 まず、角度条件判定部15は、第1のタッチ情報で示される第1のタッチ位置と、第1のタッチ情報の直前に取得された第2のタッチ情報で示される第2のタッチ位置と、基準位置とで定まる角度が第1の角度条件を満たすか判定する。第1の角度条件を満たす場合、基準位置管理部12は、基準位置の座標を、第2のタッチ位置の座標に更新する。
 一方、第1の角度条件を満たさない場合、角度条件判定部15は、第1のタッチ情報で示される第1のタッチ位置と基準タッチ継続位置と基準位置とで定まる角度が第2の角度条件を満たすか判定する。なお、第1の角度条件と第2の角度条件とは異なる。第2の角度条件を満たす場合、基準位置管理部12は、基準位置の座標を、基準タッチ継続位置の座標に更新する。一方、第2の角度条件を満たさない場合、基準位置が更新されないまま終了する。
 処理装置10が図12で示される場合、基準位置管理部12、角度条件判定部15及び距離条件判定部16は、新たなタッチ情報が取得される毎に、次の処理を行う。
 まず、角度条件判定部15は、第1のタッチ情報で示される第1のタッチ位置と、第1のタッチ情報の直前に取得された第2のタッチ情報で示される第2のタッチ位置と、基準位置とで定まる角度が第1の角度条件を満たすか判定する。また、距離条件判定部16は、第1のタッチ位置と第2のタッチ位置との間の距離が第1の距離条件を満たすか判定する。第1の角度条件及び第1の距離条件を満たす場合、基準位置管理部12は、基準位置の座標を、第2のタッチ位置の座標に更新する。
 一方、第1の角度条件及び第1の距離条件の少なくとも一方を満たさない場合、角度条件判定部15は、第1のタッチ情報で示される第1のタッチ位置と基準タッチ継続位置と基準位置とで定まる角度が第2の角度条件を満たすか判定する。また、距離条件判定部16は、第1のタッチ情報で示される第1のタッチ位置と、第2のタッチ情報で示される第2のタッチ位置又は基準タッチ継続位置との間の距離が第2の距離条件を満たすか判定する。なお、第1の角度条件と第2の角度条件とは異なる。また、第1の距離条件と第2の距離条件とは異なる。第2の角度条件及び第2の距離条件を満たす場合、基準位置管理部12は、基準位置の座標を、基準タッチ継続位置の座標に更新する。一方、第2の角度条件及び第2の距離条件の少なくとも一方を満たさない場合、基準位置が更新されないまま終了する。
 基準位置管理部12、角度条件判定部15及び距離条件判定部16のその他の構成は、第1乃至第3の実施形態と同様である。
<作用効果>
 以上説明した処理装置10によれば、第1乃至第3の実施形態と同様な作用効果を実現できる。また、本実施形態によれば、各種判定を組み合わせることで、ゲームの興趣性が向上する。
 以下、参考形態の例を付記する。
1. コンピュータを、
  タッチパネルに対するタッチの有無、及び、前記タッチパネル上のタッチ位置に対応する座標平面上の座標を示すタッチ情報を所定時間毎に取得するタッチ情報取得部、
  前記座標平面上に設定された基準位置の座標を管理する基準位置管理部、
  前記タッチ情報で示される前記タッチ位置と、前記基準位置とに基づき決定した移動方向に、画面表示されたオブジェクトを移動させるオブジェクト制御部、及び、
  前記タッチパネルに対するタッチ有を示す前記タッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした前記座標平面上の位置である基準タッチ継続位置の座標を管理する基準タッチ継続位置管理部、
として機能させ、
 前記基準位置管理部は、前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が基準位置変更条件を満たす場合、前記基準位置の座標を、前記基準タッチ継続位置の座標に更新するプログラム。
2. 1に記載のプログラムにおいて、
 前記コンピュータを、前記タッチ位置と前記基準タッチ継続位置と前記基準位置とで定まる角度が角度条件を満たすか判定する角度条件判定部として機能させ、
 前記基準位置変更条件は、前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が前記角度条件を満たすことであるプログラム。
3. 2に記載のプログラムにおいて、
 前記角度条件判定部は、前記タッチ位置と前記基準タッチ継続位置とを結ぶ直線と、前記タッチ位置と前記基準位置とを結ぶ直線とのなす角が角度条件を満たすか判定するプログラム。
4. 2又は3に記載のプログラムにおいて、
 前記コンピュータを、
  第1の前記タッチ情報で示される第1のタッチ位置と、前記第1のタッチ情報の直前に取得された第2の前記タッチ情報で示される第2のタッチ位置又は前記基準タッチ継続位置との間の距離が、距離条件を満たすか判定する距離条件判定部として機能させ、
 前記基準位置変更条件は、前記第1のタッチ位置、前記基準タッチ継続位置及び前記基準位置が前記角度条件を満たし、かつ、前記第1のタッチ位置と、前記第2のタッチ位置又は前記基準タッチ継続位置との間の距離が前記距離条件を満たすことである
 プログラム。
5. 1から4のいずれかに記載のプログラムにおいて、
 前記基準タッチ継続位置管理部は、
  前記基準タッチ継続位置の座標を更新する場合に、新たに前記基準タッチ継続位置として登録される座標においてタッチが継続した継続時間を参照時間として登録し、
 前記設定条件は、前記タッチ継続時間が前記参照時間を超えることであるプログラム。
6. 5に記載のプログラムにおいて、
 前記基準タッチ継続位置管理部は、前記基準タッチ継続位置の座標を更新したタイミングからの経過時間に応じて、前記参照時間を減衰させるプログラム。
7. 1から6のいずれかに記載のプログラムにおいて、
 前記基準タッチ継続位置管理部は、前記基準タッチ継続位置の座標を更新したタイミングから所定時間経過すると、前記基準タッチ継続位置の座標をクリアするプログラム。
8. 1から7のいずれかに記載のプログラムにおいて、
 前記基準タッチ継続位置管理部は、前記タッチパネルに対するタッチ無を示す前記タッチ情報の取得に応じて、前記基準タッチ継続位置の座標をクリアするプログラム。
9. 1から8のいずれかに記載のプログラムにおいて、
 前記基準位置管理部は、
  前記タッチパネルに対するタッチ無を示す前記タッチ情報の直後に取得された前記タッチパネルに対するタッチ有を示す前記タッチ情報で示されるタッチ位置の座標、又は、当該座標に基づき決定した他の座標を、前記基準位置の座標として登録し、
  前記タッチパネルに対するタッチ無を示す前記タッチ情報の取得に応じて、前記基準位置の座標をクリアするプログラム。
10. コンピュータが、
  タッチパネルに対するタッチの有無、及び、前記タッチパネル上のタッチ位置に対応する座標平面上の座標を示すタッチ情報を所定時間毎に取得し、
  前記座標平面上に設定された基準位置の座標を管理し、
  前記タッチ情報で示される前記タッチ位置と、前記基準位置とに基づき決定した移動方向に、画面表示されたオブジェクトを移動させ、
  前記タッチパネルに対するタッチ有を示す前記タッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした前記座標平面上の位置である基準タッチ継続位置の座標を管理し、
 前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が基準位置変更条件を満たす場合、前記基準位置の座標を、前記基準タッチ継続位置の座標に更新する処理方法。
11. タッチパネルに対するタッチの有無、及び、前記タッチパネル上のタッチ位置に対応する座標平面上の座標を示すタッチ情報を所定時間毎に取得するタッチ情報取得部、
 前記座標平面上に設定された基準位置の座標を管理する基準位置管理部、
 前記タッチ情報で示される前記タッチ位置と、前記基準位置とに基づき決定した移動方向に、画面表示されたオブジェクトを移動させるオブジェクト制御部、及び、
 前記タッチパネルに対するタッチ有を示す前記タッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした前記座標平面上の位置である基準タッチ継続位置の座標を管理する基準タッチ継続位置管理部、
を有し、
 前記基準位置管理部は、前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が基準位置変更条件を満たす場合、前記基準位置の座標を、前記基準タッチ継続位置の座標に更新する処理装置。
 この出願は、2018年9月26日に出願された日本出願特願2018-180101号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (11)

  1.  コンピュータを、
      タッチパネルに対するタッチの有無、及び、前記タッチパネル上のタッチ位置に対応する座標平面上の座標を示すタッチ情報を所定時間毎に取得するタッチ情報取得部、
      前記座標平面上に設定された基準位置の座標を管理する基準位置管理部、
      前記タッチ情報で示される前記タッチ位置と、前記基準位置とに基づき決定した移動方向に、画面表示されたオブジェクトを移動させるオブジェクト制御部、及び、
      前記タッチパネルに対するタッチ有を示す前記タッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした前記座標平面上の位置である基準タッチ継続位置の座標を管理する基準タッチ継続位置管理部、
    として機能させ、
     前記基準位置管理部は、前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が基準位置変更条件を満たす場合、前記基準位置の座標を、前記基準タッチ継続位置の座標に更新するプログラム。
  2.  請求項1に記載のプログラムにおいて、
     前記コンピュータを、前記タッチ位置と前記基準タッチ継続位置と前記基準位置とで定まる角度が角度条件を満たすか判定する角度条件判定部として機能させ、
     前記基準位置変更条件は、前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が前記角度条件を満たすことであるプログラム。
  3.  請求項2に記載のプログラムにおいて、
     前記角度条件判定部は、前記タッチ位置と前記基準タッチ継続位置とを結ぶ直線と、前記タッチ位置と前記基準位置とを結ぶ直線とのなす角が角度条件を満たすか判定するプログラム。
  4.  請求項2又は3に記載のプログラムにおいて、
     前記コンピュータを、
      第1の前記タッチ情報で示される第1のタッチ位置と、前記第1のタッチ情報の直前に取得された第2の前記タッチ情報で示される第2のタッチ位置又は前記基準タッチ継続位置との間の距離が、距離条件を満たすか判定する距離条件判定部として機能させ、
     前記基準位置変更条件は、前記第1のタッチ位置、前記基準タッチ継続位置及び前記基準位置が前記角度条件を満たし、かつ、前記第1のタッチ位置と、前記第2のタッチ位置又は前記基準タッチ継続位置との間の距離が前記距離条件を満たすことである
     プログラム。
  5.  請求項1から4のいずれか1項に記載のプログラムにおいて、
     前記基準タッチ継続位置管理部は、
      前記基準タッチ継続位置の座標を更新する場合に、新たに前記基準タッチ継続位置として登録される座標においてタッチが継続した継続時間を参照時間として登録し、
     前記設定条件は、前記タッチ継続時間が前記参照時間を超えることであるプログラム。
  6.  請求項5に記載のプログラムにおいて、
     前記基準タッチ継続位置管理部は、前記基準タッチ継続位置の座標を更新したタイミングからの経過時間に応じて、前記参照時間を減衰させるプログラム。
  7.  請求項1から6のいずれか1項に記載のプログラムにおいて、
     前記基準タッチ継続位置管理部は、前記基準タッチ継続位置の座標を更新したタイミングから所定時間経過すると、前記基準タッチ継続位置の座標をクリアするプログラム。
  8.  請求項1から7のいずれか1項に記載のプログラムにおいて、
     前記基準タッチ継続位置管理部は、前記タッチパネルに対するタッチ無を示す前記タッチ情報の取得に応じて、前記基準タッチ継続位置の座標をクリアするプログラム。
  9.  請求項1から8のいずれか1項に記載のプログラムにおいて、
     前記基準位置管理部は、
      前記タッチパネルに対するタッチ無を示す前記タッチ情報の直後に取得された前記タッチパネルに対するタッチ有を示す前記タッチ情報で示されるタッチ位置の座標、又は、当該座標に基づき決定した他の座標を、前記基準位置の座標として登録し、
      前記タッチパネルに対するタッチ無を示す前記タッチ情報の取得に応じて、前記基準位置の座標をクリアするプログラム。
  10.  コンピュータが、
      タッチパネルに対するタッチの有無、及び、前記タッチパネル上のタッチ位置に対応する座標平面上の座標を示すタッチ情報を所定時間毎に取得し、
      前記座標平面上に設定された基準位置の座標を管理し、
      前記タッチ情報で示される前記タッチ位置と、前記基準位置とに基づき決定した移動方向に、画面表示されたオブジェクトを移動させ、
      前記タッチパネルに対するタッチ有を示す前記タッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした前記座標平面上の位置である基準タッチ継続位置の座標を管理し、
     前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が基準位置変更条件を満たす場合、前記基準位置の座標を、前記基準タッチ継続位置の座標に更新する処理方法。
  11.  タッチパネルに対するタッチの有無、及び、前記タッチパネル上のタッチ位置に対応する座標平面上の座標を示すタッチ情報を所定時間毎に取得するタッチ情報取得部、
     前記座標平面上に設定された基準位置の座標を管理する基準位置管理部、
     前記タッチ情報で示される前記タッチ位置と、前記基準位置とに基づき決定した移動方向に、画面表示されたオブジェクトを移動させるオブジェクト制御部、及び、
     前記タッチパネルに対するタッチ有を示す前記タッチ情報の取得が継続している間、その間にタッチ継続時間が設定条件を満たした前記座標平面上の位置である基準タッチ継続位置の座標を管理する基準タッチ継続位置管理部、
    を有し、
     前記基準位置管理部は、前記タッチ位置、前記基準タッチ継続位置及び前記基準位置が基準位置変更条件を満たす場合、前記基準位置の座標を、前記基準タッチ継続位置の座標に更新する処理装置。
PCT/JP2019/037538 2018-09-26 2019-09-25 プログラム、処理装置及び処理方法 WO2020067133A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-180101 2018-09-26
JP2018180101A JP6554220B1 (ja) 2018-09-26 2018-09-26 プログラム、処理装置及び処理方法

Publications (1)

Publication Number Publication Date
WO2020067133A1 true WO2020067133A1 (ja) 2020-04-02

Family

ID=67473307

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/037538 WO2020067133A1 (ja) 2018-09-26 2019-09-25 プログラム、処理装置及び処理方法

Country Status (2)

Country Link
JP (1) JP6554220B1 (ja)
WO (1) WO2020067133A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5830806B2 (ja) * 1976-01-12 1983-07-01 大成建設株式会社 偏心緊張プレキヤストコンクリ−ト構築材の製造方法
JP2012133481A (ja) * 2010-12-20 2012-07-12 Namco Bandai Games Inc プログラム、情報記憶媒体及び端末装置
JP2013127683A (ja) * 2011-12-16 2013-06-27 Namco Bandai Games Inc プログラム、情報記憶媒体、端末、サーバ及びネットワークシステム
JP2014016712A (ja) * 2012-07-06 2014-01-30 Nec Casio Mobile Communications Ltd 情報処理装置、情報処理方法、およびプログラム
JP2016126512A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
US20160199728A1 (en) * 2015-01-08 2016-07-14 LINE Plus Corporation Game methods for controlling game using virtual buttons and systems for performing the same
JP2017191436A (ja) * 2016-04-13 2017-10-19 株式会社カプコン コンピュータプログラム、及びゲームシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5830806B1 (ja) * 2015-04-13 2015-12-09 株式会社Cygames ユーザ入力の操作性を向上させるプログラム、電子装置、及び方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5830806B2 (ja) * 1976-01-12 1983-07-01 大成建設株式会社 偏心緊張プレキヤストコンクリ−ト構築材の製造方法
JP2012133481A (ja) * 2010-12-20 2012-07-12 Namco Bandai Games Inc プログラム、情報記憶媒体及び端末装置
JP2013127683A (ja) * 2011-12-16 2013-06-27 Namco Bandai Games Inc プログラム、情報記憶媒体、端末、サーバ及びネットワークシステム
JP2014016712A (ja) * 2012-07-06 2014-01-30 Nec Casio Mobile Communications Ltd 情報処理装置、情報処理方法、およびプログラム
JP2016126512A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
US20160199728A1 (en) * 2015-01-08 2016-07-14 LINE Plus Corporation Game methods for controlling game using virtual buttons and systems for performing the same
JP2017191436A (ja) * 2016-04-13 2017-10-19 株式会社カプコン コンピュータプログラム、及びゲームシステム

Also Published As

Publication number Publication date
JP6554220B1 (ja) 2019-07-31
JP2020052620A (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
US10478734B2 (en) Game control program, game control method, and game control device
US9961251B2 (en) Methods for adjusting control parameters on an image capture device
US10592101B2 (en) Display device, display controlling method, and computer program
KR102090750B1 (ko) 지문 인식을 위한 전자 장치 및 방법
CN107636590B (zh) 用于电子装置上所执行的游戏的介质、服务器、装置和方法
US20140340204A1 (en) Interactive multi-touch remote control
JP6921193B2 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
US10095277B2 (en) Electronic apparatus and display control method thereof
JP2021168972A (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
JP2018506118A (ja) ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体
WO2018216079A1 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
JP2018049432A5 (ja)
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
US20150222947A1 (en) Method and device for controlling a display device
JP6387239B2 (ja) プログラム及びサーバ
US20210005014A1 (en) Non-transitory computer-readable medium, image processing method, and image processing system
KR102260409B1 (ko) 게임 인터페이스 방법 및 장치
CN107111930B (zh) 显示装置及其控制方法
US9875020B2 (en) Method for capturing user input from a touch screen and device having a touch screen
WO2020067133A1 (ja) プログラム、処理装置及び処理方法
KR20190110625A (ko) 터치 입력 판정 장치, 터치 패널 입력 장치, 터치 입력 판정 방법, 및 터치 입력 판정 프로그램
WO2022196222A1 (ja) 検出処理装置、検出処理方法、情報処理システム
CN115061585A (zh) 光标移动方法、装置和电子设备
KR20150098960A (ko) 웨어러블 디바이스의 제어 방법 및 그 장치
JP2019150441A (ja) プログラム、処理装置及び処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19864301

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19864301

Country of ref document: EP

Kind code of ref document: A1