WO2017115570A1 - プログラム及び情報処理方法 - Google Patents

プログラム及び情報処理方法 Download PDF

Info

Publication number
WO2017115570A1
WO2017115570A1 PCT/JP2016/083785 JP2016083785W WO2017115570A1 WO 2017115570 A1 WO2017115570 A1 WO 2017115570A1 JP 2016083785 W JP2016083785 W JP 2016083785W WO 2017115570 A1 WO2017115570 A1 WO 2017115570A1
Authority
WO
WIPO (PCT)
Prior art keywords
game character
action
ratchet function
amount
predetermined
Prior art date
Application number
PCT/JP2016/083785
Other languages
English (en)
French (fr)
Inventor
修一 倉林
Original Assignee
株式会社Cygames
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Cygames filed Critical 株式会社Cygames
Priority to CN201680076458.2A priority Critical patent/CN108541224B/zh
Priority to KR1020187019933A priority patent/KR102031173B1/ko
Publication of WO2017115570A1 publication Critical patent/WO2017115570A1/ja
Priority to US16/016,949 priority patent/US10474275B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1056Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving pressure sensitive buttons
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Definitions

  • the present invention relates to a program and an information processing method.
  • a controller for a real object is provided separately from the game apparatus main body as an operation tool.
  • Such a controller for a real object is not suitable as an operation application for a game executed on a mobile terminal such as a smartphone.
  • the virtual controller displayed on the touch panel of the said portable terminal is used for operation of the game performed with a portable terminal (for example, refer patent document 1).
  • a conventional virtual controller used for instructing operation of a game character employs an instruction operation for setting a moving speed of a game character in accordance with a moving distance of a finger from the center of the virtual controller. This is because the game character can be moved intuitively.
  • the moving area of the finger increases accordingly, and the visibility is further impaired. Therefore, it is required for the player to realize a virtual controller that can move the game character intuitively while reducing the finger movement area.
  • the present invention has been made in view of such a situation, and makes it possible to realize a virtual controller that allows a player to move a game character intuitively while reducing the finger movement area. For the purpose.
  • a display medium that displays on the display surface an image including a game character that changes its action according to an operation of touching an object on the display surface;
  • First detection means for detecting a predetermined physical quantity relating to the display medium, which changes according to the degree of contact of the object with the display surface;
  • a ratchet function output step of inputting a detection result of the first detection means into a predetermined ratchet function, and outputting an output amount of the ratchet function to the outside;
  • a motion amount determining step for determining a predetermined amount of motion of the game character according to the output amount of the ratchet function;
  • An action control execution step for executing control to change the action of the game character by the predetermined amount determined in the process of the action amount determination step;
  • the control process including is executed.
  • An information processing method corresponding to the information program of one aspect of the present invention is also provided as an information processing method of one aspect of the present invention.
  • the “moving image” includes an image displayed by each of the following first to third processes.
  • the first process refers to a process in which a series of still images composed of a plurality of images are continuously switched over time and displayed for each motion of an object (for example, a game character) in a planar image (2D image).
  • 2D image a planar image
  • two-dimensional animation so-called flip-flopping processing, corresponds to the first processing.
  • the second process is to set a game character action corresponding to each action of an object (for example, a game character) in a stereoscopic image (3D model image), and change the action of the game character over time.
  • the process to display.
  • a three-dimensional animation corresponds to the second process.
  • the third process refers to a process in which videos (that is, moving images) corresponding to respective actions of an object (for example, a game character) are prepared and the video is played over time.
  • FIG. 1 is a block diagram showing a hardware configuration of a player terminal 1 according to an embodiment of the present invention.
  • the player terminal 1 is composed of a smartphone or the like.
  • the player terminal 1 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, a bus 24, an input / output interface 25, a touch operation input unit 26, a display Unit 27, input unit 28, storage unit 29, communication unit 30, drive 31, touch pressure detection unit 41, and touch position detection unit 42.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 21 executes various processes according to a program recorded in the ROM 22 or a program loaded from the storage unit 29 to the RAM 23.
  • the RAM 23 appropriately stores data necessary for the CPU 21 to execute various processes.
  • the CPU 21, ROM 22, and RAM 23 are connected to each other via a bus 24.
  • An input / output interface 25 is also connected to the bus 24.
  • a touch operation input unit 26, a display unit 27, an input unit 28, a storage unit 29, a communication unit 30, and a drive 31 are connected to the input / output interface 25.
  • the touch operation input unit 26 includes a touch pressure detection unit 41 and a touch position detection unit 42, and detects a touch operation input by the player.
  • the touch operation refers to an operation of contacting an object with respect to the touch operation input unit 26.
  • the object that comes into contact with the touch operation input unit 26 is, for example, a player's finger or a touch pen.
  • touch position the position where the touch operation is performed
  • touch coordinates the coordinates of the touch position
  • the touch pressure detection unit 41 is configured by, for example, a pressure sensor, and detects pressure generated by a touch operation on the touch operation input unit 26 (hereinafter referred to as “touch pressure”).
  • the touch position detection unit 42 includes, for example, a capacitance type or resistance film type (pressure sensitive) position input sensor stacked on the display unit 27, and detects touch coordinates.
  • the display unit 27 includes a display such as a liquid crystal display, and displays various images such as an image related to a game.
  • the touch operation input unit 26 and the display unit 27 constitute a touch panel.
  • the display part 27 is not simply meant but the "touch panel” comprised from the touch operation input part 26 and the display part 27 is meant.
  • swipes and flicks exist as types of touch operations on the touch panel, for example.
  • both the swipe and the flick are the second state in which the contact with the display medium is maintained and the position of the object is changed or maintained from the first state in which the contact of the object with the display medium is started (the touch position is changed or maintained).
  • the second state) is a series of operations up to the third state (third state in which the object is separated from the display medium) in which the contact of the object with the display medium is released. Therefore, in this specification, such a series of operations will be collectively referred to as “swipe”.
  • the “swipe” in the present specification is a broad concept including the above-described flicks in addition to the commonly called swipe.
  • the input unit 28 is configured with various hardware buttons and the like, and inputs various information according to the player's instruction operation.
  • the storage unit 29 is configured by a DRAM (Dynamic Random Access Memory) or the like and stores various data.
  • the communication unit 30 controls communication performed with another device (a server (not shown) or another player terminal (not shown)) via a network including the Internet (not shown).
  • the drive 31 is provided as necessary.
  • a removable medium 32 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 31.
  • the program read from the removable medium 32 by the drive 31 is installed in the storage unit 29 as necessary.
  • the removable medium 32 can also store various data stored in the storage unit 29 in the same manner as the storage unit 29.
  • FIG. 2 is a diagram illustrating a basic operation method of the game character C using the 3D virtual pad VP displayed on the player terminal 1 of FIG.
  • a 3D virtual pad VP is shown as a virtual controller for instructing the player to move the game character C by swiping with the touch panel.
  • the 3D virtual pad VP is a GUI (Graphical User Interface) imitating a physical cross button.
  • the 3D virtual pad VP of the present embodiment has a circular shape, and indicates the moving direction of the game character C according to the direction of the player's touch position with respect to the center, and when the player's touch operation is performed. This is a GUI for instructing the moving speed (acceleration / deceleration) of the game character C with the touch pressure.
  • FIG. 2 shows a game character C that moves in the virtual space in the game in response to the player's swipe to the touch panel.
  • the game character C means an object that can be operated by the player among objects in the game. That is, the “game character C” here is a broad concept including not only human-like objects shown in FIG. 2 but also inanimate objects such as cars, airplanes, and balls in ball games.
  • the 3D virtual pad VP is not visible to the player when the player's finger or the like that has been separated from the touch panel touches the touch panel, that is, at the time of the first swipe state. .
  • the second state of swipe is entered, as shown in the upper part of FIG. 2
  • the 3D virtual pad VP is visible to the player with the touch position in the first state of swipe as the center or center of gravity on the display surface. Is displayed. That is, the player visually recognizes the 3D virtual pad VP as if it appeared at the first touch position on the touch panel.
  • the game character C starts walking at a low speed in the direction corresponding to the predetermined direction in the virtual space in the game.
  • the touch pressure touch pressure detection unit 41.
  • Output value increases.
  • the game character C is accelerated and moved so as to have a moving speed corresponding to the strength of the touch pressure.
  • the operation in which the game character C accelerates by pressing the touch panel strongly is similar to, for example, an accelerator operation in driving a car, and thus is an intuitive operation for the player.
  • the player in addition to swiping the touch panel, the player can run the game character C while accelerating or decelerating it vertically and horizontally by simply operating the degree of pressing.
  • the 3D virtual pad VP has a smaller range of movement of the player's finger on the touch panel screen than the existing virtual controller, and therefore the objects (including the game character C) displayed on the touch panel screen are reduced. Visibility can be prevented from being impaired.
  • the player terminal 1 when a terminal having a relatively small display screen such as a smartphone is adopted as the player terminal 1, the amount that can be displayed on the screen at a time is limited. However, as in the present embodiment, if the game character C can be moved freely by simply pressing the touch panel with one finger and the movement area of the player's finger can be reduced, the game is being executed. The visibility of the object (including game character C) can be ensured on the display surface.
  • the moving speed (acceleration / deceleration amount) of the game character C changes according to the touch pressure (the output value of the touch pressure detection unit 41).
  • the time series of the raw data of the touch pressure becomes unstable and discontinuous (repeated vibration) as long as the player is a natural person. Therefore, if the moving speed of the game character C is determined using the raw data of the touch pressure itself, the movement (acceleration / deceleration) of the game character C becomes unstable. Therefore, in the present embodiment, as shown in FIG. 3, a method is adopted in which touch pressure is input to the ratchet function as an input parameter, and the moving speed of the game character C is determined using the output of the ratchet function. Yes.
  • the ratchet function is a function that inputs a predetermined physical quantity as an input parameter, and even if the predetermined physical quantity fluctuates, a function that outputs the maximum amount of the predetermined physical quantity that has been input so far.
  • the graph shown on the left side of FIG. 3 shows a time-series transition of the raw data of the touch pressure (output value of the touch pressure detection unit 41). That is, on the left side of FIG. 3, the vertical axis represents the touch pressure (output value of the touch pressure detection unit 41), and the horizontal axis represents time. That is, the length of the horizontal axis in which the graph is continuous represents the length of time that the player's finger or the like is in contact with the touch panel.
  • the raw data of the touch pressure is used for setting the moving speed of the game character C.
  • the game character C is unnecessarily accelerated / decelerated (acceleration / deceleration becomes discontinuous), which is inappropriate. Therefore, in the present embodiment, as shown in FIG. 3, a method is adopted in which the touch pressure is input as an input parameter of the ratchet function, and the output value of the ratchet function is used for setting the moving speed of the game character C. Is done.
  • the moving speed of the game character C using the output value of the ratchet function, that is, the maximum value of the touch pressure. That is, by applying the ratchet function, the discontinuous change in touch pressure shown on the left side of FIG. 4 can be converted into a continuous change as shown on the right side of FIG.
  • the game character C can continuously accelerate and decelerate. Specifically, for example, even if the touch pressure is reduced, as long as the player's finger or the like is not separated from the touch panel, the game character C is at a speed corresponding to the maximum value of the touch pressure, that is, without inadvertently reducing the moving speed. You can keep running. In this way, the player can move the game character C intuitively by merely moving a finger with a small area on the display screen without pressing the touch panel of the player terminal 1 strongly. .
  • FIG. 5 is a diagram showing the behavior of the interrupt processing.
  • the interrupt process refers to another process in which an execution request is given from the outside (a place different from the execution request for the predetermined process) during execution of the predetermined process.
  • the execution request given from the outside is hereinafter referred to as “interrupt”.
  • the predetermined process a process of moving the game character C at a set moving speed in the set moving direction is employed.
  • a process of jumping the game character C is employed as the interrupt process. That is, if the interrupt process occurs while the game character C is moving at the set moving speed in the set moving direction, the game character C jumps.
  • the interrupt process is a process for jumping the game character C, but is not particularly limited to this.
  • a process for decelerating the moving speed of the game character C may be used. It is also possible to perform processing that causes the attacking action.
  • the conditions for the generation of the interrupt are not particularly limited, but in this embodiment, the game character C is in a state where the player's finger is in contact with the touch panel (hence, the moving speed according to the output value of the ratchet function).
  • the condition that the degree of pressing on the touch panel is increased for a very short time (for example, 100 milliseconds) and then the operation for decreasing the degree of pressing is detected is detected.
  • the touch pressure changes abruptly for an extremely short time as shown in the left graph of FIG. As shown in FIG. 5, when a sudden change in the touch pressure for a very short time is detected, an interrupt is generated.
  • the game character C jumps.
  • the change in the touch pressure for an extremely short time is directly input (applied) to the ratchet function, the output of the ratchet function will change. Therefore, when a sudden change in the touch pressure for an extremely short time is detected, the touch pressure (raw data) is not input to the ratchet function, but a predetermined value (for example, 0) determined in advance is input. As a result, the output value of the ratchet function does not change, and the game character C can continue the uniform motion even if an interruption occurs.
  • the touch pressure is used as an input parameter of the ratchet function and is used to determine whether or not an interrupt is necessary.
  • the player simply performs an operation of changing the degree of pressing with respect to the touch panel, and the game character C is accelerated and instantaneously moved (jump etc.). Both can be indicated.
  • the GUI for performing such an instruction operation is the 3D virtual pad VP. That is, both acceleration and instantaneous movement of the game character C can be realized by adjusting the degree of pressing with respect to the 3D virtual pad VP on the touch panel.
  • the player accelerates the game character C by increasing the degree of pressing the 3D virtual pad VP for a certain long time (for example, 300 milliseconds), and instantaneously (for example, a short time of about 100 milliseconds).
  • the game character C can be made to make a momentary movement (jump or the like) by pressing it strongly and weakening it immediately.
  • the 3D virtual pad VP is a GUI that can input an acceleration / deceleration command for moving the game character C and an instantaneous movement command without interruption by moving a finger with a small display area such as a smartphone.
  • the above-described control process of movement of the game character C to which the ratchet function or interrupt is applied is realized by the cooperation of hardware and software in the player terminal 1.
  • the player terminal 1 can have a functional configuration shown in FIG. 6, for example.
  • an interruptability determination unit 51 As shown in FIG. 6, in the CPU 21 of the player terminal 1, an interruptability determination unit 51, a ratchet function output unit 52, a game character action amount determination unit 53, a game character action control execution unit 54, and a display control unit 55 function. Further, a transmission function DB 61 is provided as an area of the storage unit 29. Although not shown, it is assumed that a functional block (game execution unit) that controls the execution of a game that operates the game character C using the 3D virtual pad VP functions in the CPU 21.
  • a functional block game execution unit
  • the touch pressure detection unit 41 detects the touch pressure that changes according to the degree of pressing of the finger on the touch panel (display unit 27).
  • the touch position detection unit 42 detects a touch position (touch coordinates) on the touch panel. Specifically, in the touch operation input unit 26, the touch position detection unit 42 detects the touch coordinates (x, y) of the player, and the touch pressure detection unit 41 indicates the touch pressure at the time of the player's touch operation.
  • the interrupt enable / disable determination unit 51 receives the detection result (touch pressure) of the touch pressure detection unit 41 and determines whether to perform interrupt processing based on the change time and change amount of the detection result. In the present embodiment, based on the detection result of the touch pressure detection unit 41, the interruptability determination unit 51 performs “an operation that increases the degree of pressing on the touch panel for an extremely short time (for example, 100 milliseconds) and then decreases the degree of pressing”. It is determined whether or not interrupt processing is to be performed by detecting whether or not.
  • the detection method of “the operation of increasing the degree of pressing on the touch panel for a very short time and then weakening the degree of pressing” is a method based on the change time and the amount of change of the detection result (touch pressure) of the touch pressure detection unit 41. If there is enough.
  • the method shown in FIG. 7 is adopted. That is, FIG. 7 is a diagram illustrating an example of a determination method for determining whether or not an interrupt is applied, which is applied to the interrupt enable / disable determination unit 51 in the player terminal having the functional configuration illustrated in FIG.
  • the vertical axis represents touch pressure
  • the horizontal axis represents time. Note that the minimum value on the vertical axis does not necessarily mean that the touch pressure is 0, but is a predetermined value.
  • the interruptability determination unit 51 it is detected that the operation is “increasing the degree of pressing on the touch panel for a very short time and then reducing the degree of pressing”, and it is determined to interrupt, otherwise it is determined not to interrupt.
  • the time ⁇ and the threshold value ⁇ are values that can be arbitrarily changed by a designer or the like.
  • the interruption availability determination unit 51 provides the detection result (touch pressure) of the touch pressure detection unit 41 to the ratchet function output unit 52 as it is.
  • the interruptability determination unit 51 interrupts the game character action control execution unit 54.
  • the interruptability determination unit 51 prohibits providing the detection result (touch pressure) of the touch pressure detection unit 41 to the ratchet function output unit 52, or processes the detection result and outputs the ratchet function output unit 52.
  • the interrupt availability determination unit 51 determines to perform the interrupt process, the detection is performed. “0” is provided to the ratchet function output unit 52 as a value obtained by processing the result.
  • the touch pressure is provided to the ratchet function output unit 52 as it is, the following problems occur. That is, the player may only increase the touch pressure for interruption (such as a jump instruction for the game character C), but the maximum value may be updated if the touch pressure is directly input to the ratchet function. In such a case, the output of the ratchet function increases, and the moving speed of the game character C increases accordingly. That is, there is a problem that the game character C is accelerated even though the player does not think that the acceleration instruction operation is performed. Therefore, in order to prevent such a problem from occurring, in this embodiment, when it is determined to interrupt, the processed value “0” is supplied to the ratchet function output unit 52 instead of the touch pressure itself.
  • the ratchet function output unit 52 inputs the detection result of the touch pressure detection unit 41 (more accurately, a processed value such as “0” when interrupting) to a predetermined ratchet function, and outputs the ratchet function. Is supplied to the game character motion amount determination unit 53.
  • the game character motion amount determination unit 53 determines the moving speed of the game character C according to the output of the ratchet function.
  • the method for determining the moving speed is not particularly limited as long as it is a method for determining based on the output amount of the ratchet function.
  • a plurality of types of patterns are held in advance in the transmission function DB 61 as a function for converting the output of the ratchet function into the moving speed of the game character C (hereinafter referred to as “transmission function”).
  • transmission function a function for converting the output of the ratchet function into the moving speed of the game character C
  • transmission function a technique for converting the output of the ratchet function into the moving speed of the game character C
  • FIG. 8 and 9 are diagrams showing various examples of transmission functions applied to the game character motion amount determination unit 53 in the player terminal 1 having the functional configuration shown in FIG. 8 and 9, the vertical axis represents the transmission function output, that is, the moving speed of the game character C, and the horizontal axis represents the transmission function input, that is, the ratchet function output.
  • the transmission function in the example of FIG. 8A simulates the state of acceleration when the human game character C runs.
  • the transmission function in the example of FIG. 8B simulates the state of acceleration of an automobile, that is, simulates multistage gear changes.
  • the transmission function in the example of FIG. 8C simulates the state of acceleration of an airplane, that is, the behavior of a jet engine that gradually accelerates to a predetermined moment and accelerates exponentially at a stroke from the predetermined moment. Is imitated.
  • the transmission function in the example of FIG. 8 is an example of various patterns in which the moving speed of the game character C increases as the output of the ratchet function increases, that is, an acceleration pattern.
  • the transmission function is not particularly limited to the pattern that accelerates, and as shown in FIG. 9, a pattern that accompanies deceleration, a pattern that accompanies a limit, in other words, a non-linear pattern can also be adopted.
  • the transmission function in the example of FIG. 9A mimics the behavior of performing deceleration processing by a brake.
  • the transmission function shown in FIG. 9B simulates the behavior of controlling a vehicle that decelerates after acceleration.
  • FIGS. 8 and 9 simulates a behavior that represents a person who cannot run at a certain speed because he / she has a heavy load, that is, has a limit on the moving speed.
  • the transmission functions shown in FIGS. 8 and 9 are merely examples, and various types of patterns can be employed according to various situations and the characteristics of the game character C.
  • various game characters C such as humans, automobiles, airplanes, and the like.
  • the movement speed according to various states in the game such as the state where movement is slowed down by the magic of the enemy, can be easily realized by selectively switching between multiple patterns of transmission functions. become.
  • the game character movement control execution unit 54 moves the game character C in the movement direction based on the detection result of the touch position detection unit 42 at the movement speed determined by the game character movement amount determination unit 53. Execute. That is, the game character action control execution unit 54 is detected by the touch position detection unit 42 at a moving speed determined based on the acceleration or deceleration method (predetermined pattern of transmission function) selected by the game character action amount determination unit 53. Control for moving the game character C in the direction determined by the touched position is executed. Further, when an interrupt from the interruptability determination unit 51 occurs during the movement of such a character, the game character action control execution unit 54 executes a predetermined interrupt process (for example, a control process for causing the game character C to jump). .
  • a predetermined interrupt process for example, a control process for causing the game character C to jump.
  • the display control unit 55 executes a control for arranging the game character C whose motion is controlled by the game character motion control execution unit 54 in the virtual space in the game and displaying the game character C on the display unit 27.
  • the display control unit 55 also executes control for causing the display unit 27 to display the 3D virtual pad VP. That is, the game character action control execution unit 54 detects a swipe based on the detection result of the touch position detection unit 42 and notifies the display control unit 55 of the swipe state. The display control unit 55 performs control to display the 3D virtual pad VP on the display unit 27 by arranging the 3D virtual pad VP at the touch position in the first swipe state on the display surface of the display unit 27. To do.
  • the game character motion control execution unit 54 determines the moving direction of the game character C based on the moving direction of the object in the second state of the swipe (the direction from the center of the virtual pad VP toward the current finger touch position). . Further, the game character motion amount determination unit 53 determines the moving speed of the game character C according to the output of the ratchet function in the second state of the swipe.
  • FIG. 10 is a diagram illustrating a specific example of the control of the action of the game character C by the game character action control execution unit 54.
  • the vertical axis indicates the touch pressure or the moving speed
  • the horizontal axis indicates time.
  • a dotted line TP represents a time transition of the touch pressure (output value of the touch pressure detection unit 41).
  • a solid line CS indicates a time transition of the output of the ratchet function when the touch pressure is input.
  • the player gradually increases the degree of pressing on the touch panel, and performs an operation to loosen the degree of pressing when the degree of pressing reaches a certain level. Since the player is a natural person, even if he intends to gradually increase the degree of pressing, the actual touch pressure TP fluctuates and becomes discontinuous. However, since the ratchet function is adopted, the moving speed CS based on the output increases continuously. That is, the game character C can be accelerated naturally. Since the maximum value of the touch pressure TP is immediately before the player loosens the degree of pressing, the moving speed CS thereafter becomes a constant speed. That is, the game character C continues to run at a constant speed.
  • the player can weaken the degree of pressing on the touch panel after the game character C reaches the target speed. It becomes possible to perform a pressing operation.
  • the momentary pressing operation means an operation of increasing the degree of pressing on the touch panel for an extremely short time (for example, 100 milliseconds) and then decreasing the degree of pressing.
  • the player performs the momentary pressing operation three times.
  • the local change of the touch pressure TP occurs within the time ⁇ (the change time is within the time ⁇ ), and the change amount d is a threshold value. Detected when the condition of exceeding ⁇ is satisfied.
  • an instruction operation such as jumping while the game character C is running is performed with two fingers. That is, the player operates the controller or the like separately by operating the controller or the like separately with the finger of the right hand for the movement (movement direction and movement speed) of the game character C and with the finger of the left hand for the jump of the game character C. Instruction operations such as jumping while running were realized.
  • the player terminal 1 such as a smartphone where the display area of the touch panel is not so large, it is not appropriate to employ the touch operation using two fingers because the display of the game character C or the like is hindered.
  • the player can perform a touch operation combining a conventional swipe and a strength operation of the degree of pressing, that is, a touch operation with one finger. Operation instructions such as jumping while running the game character C can be easily performed.
  • FIG. 11 is a flowchart for explaining an example of the flow of processing executed by the player terminal 1 having the functional configuration of FIG.
  • step S1 the touch pressure detection unit 41 and the touch position detection unit 42 in FIG. 3 detect whether or not the player's finger or object is in contact with the screen of the touch panel. In a state where the player's finger or object is not in contact with the screen, NO is determined in step S1, and the process ends. That is, the input of the action of the game character C using the 3D virtual pad VP is a condition for starting the process that the player's finger or object is in contact with the screen. The separation is a condition for ending the process. Therefore, when the touch pressure detection unit 41 and the touch position detection unit 42 detect a state in which the player's finger or object is in contact with the screen, it is determined as YES in Step S1, and the process proceeds to Step S2. .
  • step S2 the touch pressure detection unit 41 detects the touch pressure, and the touch position detection unit 42 detects the touch position.
  • step S ⁇ b> 3 the interrupt availability determination unit 51 determines whether or not to perform an interrupt process based on the detection result (touch pressure change time and change amount) of the touch pressure detection unit 41. Since the determination method in step S3 is as described with reference to FIG. 7, the description thereof is omitted here. If the interrupt enable / disable determining unit 51 determines to perform interrupt processing, YES is determined in step S3, and the process proceeds to step S4. In step S ⁇ b> 4, the interrupt enable / disable determination unit 51 interrupts the game character action control execution unit 54. That is, the interruptability determination unit 51 sets a game character action (for example, jump) for interrupting and requests the game character action control execution unit 54. Thereafter, the process proceeds to step S10. Step S10 will be described later.
  • a game character action for example, jump
  • step S3 the interrupt enable / disable determining unit 51 determines not to perform interrupt processing, it is determined NO in step S3, and the touch pressure detected in step S2 is provided to the ratchet function output unit 52 to perform processing. Advances to step S5.
  • step S5 the ratchet function output unit 52 determines whether the maximum value of the touch pressure detected in step S2 has changed. If the maximum value of the touch pressure has changed, YES is determined in step S5, and the process proceeds to step S6.
  • step S6 the ratchet function output unit 52 updates the maximum value of the touch pressure, and outputs the ratchet function with the updated value.
  • step S5 the ratchet function output unit 52 outputs the ratchet function using the maximum value of the touch pressure recorded so far. That is, the output of the ratchet function does not change. In this way, when the ratchet function is output in the process of step S6 or S7, the process proceeds to step S8.
  • step S ⁇ b> 8 the game character motion amount determination unit 53 determines the moving speed of the game character C according to the output amount of the ratchet function output from the ratchet function output unit 52. Specifically, in the present embodiment, the game character motion amount determination unit 53 extracts a transmission function having a predetermined pattern from the transmission function DB 61 based on the game situation, the characteristics of the game character C, and the like. The game character action amount determination unit 53 causes the output amount of the ratchet function to be input as an input parameter to the extracted transmission function. The game character motion amount determination unit 53 determines the output value of the transmission function as the moving speed of the game character C.
  • step S9 the game character motion amount determination unit 53 sets the determined movement speed of the game character C to the game character motion control execution unit 54 as a game character motion, and the game character motion control execution unit Request to 54.
  • step S10 the game character action control execution unit 54 performs control so as to execute the game character action requested in step S4 or S0. Thereafter, the process returns to step S1, and the subsequent processes are repeated. That is, as long as the player's finger or object does not move off the screen, the loop process of steps S1 to S10 is repeated.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • the functional configuration of FIG. 6 is merely an example, and is not particularly limited. That is, it is sufficient if the information processing system has a function capable of executing the above-described series of processing as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG.
  • the location of the functional block is not particularly limited to that shown in FIG.
  • each functional block shown in FIG. 6 is provided in the player terminal 1 as a native application in the above-described embodiment, but can be implemented as a web application using HTML and JavaScript (registered trademark).
  • a server or the like can also be provided.
  • one functional block may be constituted by hardware alone, software alone, or a combination thereof.
  • a program constituting the software is installed on a computer or the like from a network or a recording medium.
  • the computer may be a computer incorporated in dedicated hardware.
  • the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or personal computer other than a server.
  • the recording medium including such a program is not only constituted by a removable medium (not shown) distributed separately from the apparatus main body in order to provide the user with the program, but is also provided to the user in a state of being pre-installed in the apparatus main body. It is composed of a provided recording medium or the like.
  • the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually.
  • the process to be executed is also included.
  • the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.
  • the moving speed of the game character C is set based on the output amount of a predetermined ratchet function for inputting the touch pressure, but is not particularly limited thereto. That is, the amount set based on the output amount of the ratchet function does not need to be the moving speed, and may be a predetermined amount for the action of the game character C.
  • the input parameter of the ratchet function is not particularly required to be a touch pressure, and may be a predetermined physical quantity related to the touch panel that changes according to the degree of contact of the object with the display surface of the touch panel. For example, a force sensation on the touch panel or a vibration amount of the touch panel (player terminal 1) may be adopted as an input parameter of the ratchet function.
  • the program to which the present invention is applied is sufficient as long as it allows a computer having a control target to execute a terminal having the following configuration, including the player terminal 1 of FIG. That is, the program to which the present invention is applied is A display medium (for example, the touch panel of FIG. 1, in particular, a display unit) that displays an image including a game character (for example, the character C in FIG. 2 or the like) whose movement is changed according to an operation of touching an object on the display surface. 27) and First detection means (for example, the touch pressure detection unit 41 in FIG.
  • a ratchet function output step (for example, a step executed by the ratchet function output unit 52 in FIG. 6) that inputs the detection result of the first detection means to a predetermined ratchet function and outputs the output amount of the ratchet function to the outside; , A motion amount determining step (for example, a step executed by the game character motion amount determining unit 53 in FIG.
  • a motion control execution step for example, a step executed by the game character motion control execution unit 54 in FIG. 6) for executing control for changing the motion of the game character by the predetermined amount determined in the motion amount determination step; , including.
  • the player can change the predetermined amount of the action of the game character only by changing the contact degree of the object, not the moving distance of the object such as the finger to the display surface. That is, it is possible to realize a virtual controller that allows the player to move the game character intuitively while reducing the finger movement area.
  • the predetermined physical quantity relating to the display medium which changes according to the degree of contact of the object with the display surface, becomes discontinuous (vibrates) as long as the player is a natural person. Therefore, if the predetermined physical quantity is used as it is for setting the predetermined amount of movement of the game character, the change of the predetermined amount of movement of the game character is not continuous, which is inappropriate.
  • the predetermined physical quantity is input to a predetermined ratchet function, and the output amount of the ratchet function is used for setting the predetermined amount of action of the game character.
  • a predetermined amount of change in the action of the game character is continuous, which is preferable.
  • the program to which the present invention is applied is When the detection result of the first detection means is input, it is determined whether or not to interrupt based on the change time and the change amount of the predetermined physical quantity indicated by the detection result.
  • the detection result is prohibited from being provided to the ratchet function output step, or the detection result is processed to the ratchet function output step. Further executing a control process including an interrupt enable / disable determining step to be provided (for example, a step executed by the interrupt enable / disable determining unit 51 in FIG. 6);
  • the motion control execution step may include a step of executing a predetermined interrupt process for the action of the game character when it is determined that the interrupt is performed in the process of the interrupt availability determination step.
  • Another operation by the interrupt processing is not particularly limited, and jump or the like may be adopted as described above.
  • an instruction operation for a predetermined amount (movement speed, etc.) of the game character's motion and an instruction operation for another operation (jump, etc.) of the game character can be realized by a touch operation with only one finger.
  • the moving speed is adopted as the predetermined amount of movement of the game character
  • the player first accelerates the game character by performing an operation of gradually increasing the force of pushing the finger. Then, by weakening the power thereafter, the game character can be moved at a constant speed by the function of the ratchet function.
  • the player can cause the game character to perform another action (jump or the like) as an interruption process by performing an operation that instantaneously applies the power of a finger.
  • another action jump or the like
  • it is prohibited to input the detection result of the first detection means to the ratchet function, or the detection result is processed and input to the ratchet function.
  • the game character can also perform another action (jump etc.) without stopping the constant speed movement.
  • deceleration may be employed as another operation by the interrupt process.
  • the player accelerates the game character and moves it at a constant speed after reaching a constant speed in the same manner as the above-described operation. be able to.
  • the player can give a deceleration command (brake) to the game character as an interruption process by performing an operation that instantaneously applies the power of the finger.
  • an acceleration command such as “run”
  • a deceleration command for character movement can be realized at the same time only by increasing or decreasing the pressing force of one finger. That is, it is possible to easily and appropriately realize a virtual controller that enables the player to move the game character intuitively while reducing the finger movement area.
  • the action amount determination step of the game character uses a predetermined type of pattern among one or more patterns (for example, a transmission function pattern) for converting the output amount of the ratchet function into a predetermined amount of action of the game character. Determining the predetermined amount of the action of the game character, Can be.
  • the terminal further includes second detection means (for example, a touch position detection unit 42 in FIG. 1 or the like) that detects a position of contact of an object with the display surface of the display medium.
  • the operation control execution step includes: A change direction determining step for determining a change direction of the action of the game character based on a detection result of the second detection means; A game character action control execution step for executing control for changing the action of the game character by the predetermined amount determined in the action amount determination step in the change direction determined in the change direction determination step.
  • a change direction determining step for determining a change direction of the action of the game character based on a detection result of the second detection means
  • a game character action control execution step for executing control for changing the action of the game character by the predetermined amount determined in the action amount determination step in the change direction determined in the change direction determination step.
  • the program to which the present invention is applied is Based on the detection result of the second detection means, from the first state where the contact of the object to the display medium is started, through the second state where the contact is maintained and the object moves.
  • An operation detecting step for detecting a series of operations (the above-mentioned swipe) until reaching the third state in which the contact of the object with the display medium is released;
  • a controller having a predetermined shape for example, the circular 3D virtual pad VP in FIG. 2 for instructing and operating the game character's movement is used to contact the object in the first state with the display surface of the display medium.
  • the change direction determining step includes a step of determining a change direction of the action of the game character based on a moving direction of the object in the second state,
  • the action amount determining step includes a step of determining a predetermined amount of action of the game character according to an output amount of the ratchet function in the second state. Can be.
  • the shape of the virtual controller is a circular shape as shown in FIG. 2 in the above-described embodiment.
  • the shape of the virtual controller is not particularly limited to this, and it is possible to instruct the operation of the game character. Any shape can be used.
  • the timing at which the virtual controller is displayed on the display medium by the control of the display control step is not particularly limited. That is, in the above-described embodiment, when the player's finger or the like that has been separated from the touch panel touches the touch panel, that is, when the swipe is in the first state, the 3D virtual pad VP, which is an example of a virtual controller, Was not visible. Then, when transitioning to the second swipe state, as shown in the upper part of FIG.
  • the 3D virtual pad VP is visible to the player with the touch position in the first swipe state as the center or center of gravity on the display surface. It was displayed.
  • a virtual controller such as the 3D virtual pad VP may be originally displayed at a predetermined position on the display medium independently of the player's touch operation. In other words, a virtual controller can be displayed in a place that is always visible from the player.
  • the virtual controller realized in this way is excellent in compatibility with existing virtual pads. That is, since the UI displayed on the screen can be the same as the existing virtual pad, it can be used with the same operability as the existing virtual pad. Therefore, the virtual controller realized in this way can behave as an existing virtual pad on a smartphone that does not have the first detection means (such as a pressure sensor). In other words, the virtual controller realized in this way can be used as an upward compatibility technology for existing virtual pads.

Abstract

プレイヤーにとって指の移動面積を小さくしつつ、かつ、直感的にゲームキャラクタを移動させることが可能となる仮想コントローラを実現可能とすること。 タッチ圧検出部41は、表示部27の表示面へのタッチ操作の度合に応じて変化する、タッチ圧を検出する。割り込み可否判定部51は、タッチ圧の変化時間及び変化量に基づいて割り込みをするか否かを判定する。ラチェット関数出力部52は、割り込みをしない場合、タッチ圧を所定のラチェット関数に入力して、当該ラチェット関数の出力量をゲームキャラクタ動作量決定部53に供給する。ゲームキャラクタ動作量決定部53は、ラチェット関数の出力量に応じて、ゲームキャラクタCのゲームキャラクタの移動速度を決定する。

Description

プログラム及び情報処理方法
 本発明は、プログラム及び情報処理方法に関する。
 従来、据置型のゲーム装置では、操作器具として、実物体のコントローラがゲーム装置本体とは別途設けられていた。
 このような実物体のコントローラは、スマートフォン等の携帯端末で実行されるゲームの操作用途としては不適である。このため、携帯端末で実行されるゲームの操作用に、当該携帯端末のタッチパネルに表示される仮想コントローラが用いられている(例えば特許文献1参照)。
2014-45965号公報
 しかしながら、携帯端末のタッチパネルに表示される従来の仮想コントローラは、当該携帯端末の画面上の比較的広い面積を占有してしまうと、ゲームキャラクタを含むゲーム内のオブジェクトの視認性を失うという問題がある。
 特に、ゲームキャラクタの動作を指示操作する用途の従来の仮想コントローラは、当該仮想コントローラの中心からの指の移動距離に応じて、ゲームキャラクタの移動速度等を設定する指示操作を採用している。直感的にゲームキャラクタを移動させることができるからである。しかしながら、ゲームキャラクタの移動速度等を大きくしようとすると、その分だけ指の移動面積が大きくなるため、より視認性を損なうことになる。
 従って、プレイヤーにとって指の移動面積を小さくしつつ、かつ、直感的にゲームキャラクタを移動させることができる仮想コントローラの実現が要求されている。
 本発明は、このような状況に鑑みてなされたものであり、プレイヤーにとって指の移動面積を小さくしつつ、かつ、直感的にゲームキャラクタを移動させることが可能となる仮想コントローラを実現可能とすることを目的とする。
 上記目的を達成するため、本発明の一態様のプログラムは、
 表示面への物体の接触の操作に応じて動作を変化させるゲームキャラクタを含む画像を、当該表示面に表示させる表示媒体と、
 前記表示面への物体の接触度合に応じて変化する、当該表示媒体に関する所定の物理量を検出する第1検出手段と、
 を備える端末を制御対象とするコンピュータに、
 前記第1検出手段の検出結果を所定のラチェット関数に入力して、当該ラチェット関数の出力量を、外部に出力するラチェット関数出力ステップと、
 前記ラチェット関数の出力量に応じて、前記ゲームキャラクタの動作の所定量を決定する動作量決定ステップと、
 前記動作量決定ステップの処理で決定された前記所定量で、前記ゲームキャラクタの動作を変化させる制御を実行する動作制御実行ステップと、
 を含む制御処理を実行させるものである。
 本発明の一態様の上記情プログラムに対応する情報処理方法も、本発明の一態様の情報処理方法として提供される。
 本発明によれば、プレイヤーにとって指の移動面積を小さくしつつ、かつ、直感的にゲームキャラクタを移動させることが可能となる仮想コントローラが実現可能となる。
本発明の一実施形態に係るプレイヤー端末1のハードウェア構成を示すブロック図である。 図1のプレイヤー端末1に表示されるバーチャルパッドによるキャラクターの基本的な操作方法を示す図である。 図2のキャラクタの移動速度の決定手法を説明する図である。 図3の決定手法で用いられるラチェット関数により、操作の連続性を確保できることを説明する図である。 割り込み処理の振る舞いを表した図である。 図1のプレイヤー端末の機能的構成の一例を示す機能ブロック図である。 図6の機能的構成のプレイヤー端末のうち割り込み可否判定部に適用された、割り込みの要否の判定手法の一例を説明する図である。 図6の機能的構成のプレイヤー端末のうちゲームキャラクタ動作量決定部に適用される、トランスミッション関数の各種例を表す図である。 図6の機能的構成のプレイヤー端末のうちゲームキャラクタ動作量決定部に適用される、トランスミッション関数の各種例を表す図である。 図6の機能的構成のプレイヤー端末のうちゲームキャラクタ動作制御実行部による、キャラクタの動作の制御の具体例を示す図である。 図6の機能的構成を有するプレイヤー端末1が実行する処理の流れの一例を説明するフローチャートである。
  以下、本発明の実施形態について、図面を用いて説明する。
 なお、以下において、単に「画像」と呼ぶ場合には、「動画像」と「静止画像」との両方を含むものとする。
 また、「動画像」には、次の第1処理乃至第3処理の夫々により表示される画像を含むものとする。
 第1処理とは、平面画像(2D画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対して、複数枚からなる一連の静止画像を時間経過と共に連続的に切り替えて表示させる処理をいう。具体的には例えば、2次元アニメーション、いわゆるパラパラ漫画的な処理が第1処理に該当する。
 第2処理とは、立体画像(3Dモデルの画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対応するゲームキャラクタの動作を設定しておき、時間経過と共に当該ゲームキャラクタの動作を変化させて表示させる処理をいう。具体的には例えば、3次元アニメーションが第2処理に該当する。
 第3処理とは、オブジェクト(例えばゲームキャラクタ)の夫々の動作に対応した映像(即ち動画)を準備しておき、時間経過と共に当該映像を流していく処理をいう。
 図1は、本発明の一実施形態に係るプレイヤー端末1のハードウェア構成を示すブロック図である。
 プレイヤー端末1は、スマートフォン等で構成される。
 プレイヤー端末1は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、バス24と、入出力インターフェース25と、タッチ操作入力部26と、表示部27と、入力部28と、記憶部29と、通信部30と、ドライブ31と、タッチ圧検出部41、タッチ位置検出部42を備えている。
 CPU21は、ROM22に記録されているプログラム、又は、記憶部29からRAM23にロードされたプログラムに従って各種の処理を実行する。
 RAM23には、CPU21が各種の処理を実行する上において必要なデータ等も適宜記憶される。
 CPU21、ROM22及びRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インターフェース25も接続されている。入出力インターフェース25には、タッチ操作入力部26、表示部27、入力部28、記憶部29、通信部30、及びドライブ31が接続されている。
 タッチ操作入力部26は、タッチ圧検出部41及びタッチ位置検出部42を含み、プレイヤーにより入力されるタッチ操作を検出する。
 ここで、タッチ操作とは、タッチ操作入力部26に対する物体の接触の操作をいう。タッチ操作入力部26に対して接触する物体は、例えばプレイヤーの指やタッチペン等である。なお、以下、タッチ操作がなされた位置を「タッチ位置」と呼び、タッチ位置の座標を「タッチ座標」と呼ぶ。
 タッチ圧検出部41は、例えば感圧センサにより構成され、タッチ操作入力部26に対するタッチ操作により生じた圧力(以下、「タッチ圧」と呼ぶ)を検出する。
 タッチ位置検出部42は、例えば表示部27に積層される静電容量式又は抵抗膜式(感圧式)の位置入力センサにより構成され、タッチ座標を検出する。
 表示部27は、液晶等のディスプレイにより構成され、ゲームに関する画像等、各種画像を表示する。
 このように、本実施形態では、タッチ操作入力部26及び表示部27により、タッチパネルが構成されている。
 なお、本明細書で「表示媒体」と呼ぶ場合、単に表示部27を意味せず、タッチ操作入力部26及び表示部27から構成される「タッチパネル」を意味する。
 ここで、タッチパネルにおけるタッチ操作の種類としては、例えば、スワイプとフリックが存在する。
 ただし、スワイプもフリックも、表示媒体への物体の接触が開始された第1状態から、表示媒体への接触が維持されて物体の位置が変化又は維持する第2状態(タッチ位置が変化又は維持する第2状態)を経て、表示媒体への物体の接触が解除される第3状態(物体が表示媒体から離間する第3状態)まで至る一連の操作である点は変わらない。そこで、本明細書では、このような一連の操作をまとめて「スワイプ」と呼ぶことにする。
 換言すると、本明細書でいう「スワイプ」は、一般的に呼ばれるスワイプの他、上述のフリック等も含まれる広義な概念である。
 入力部28は、各種ハードウェア釦等で構成され、プレイヤーの指示操作に応じて各種情報を入力する。
 記憶部29は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
 通信部30は、図示せぬインターネットを含むネットワークを介して他の装置(図示せぬサーバや図示せぬ他のプレイヤー端末)との間で行う通信を制御する。
 ドライブ31は、必要に応じて設けられる。ドライブ31には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア32が適宜装着される。ドライブ31によってリムーバブルメディア32から読み出されたプログラムは、必要に応じて記憶部29にインストールされる。また、リムーバブルメディア32は、記憶部29に記憶されている各種データも、記憶部29と同様に記憶することができる。
 このような図1のプレイヤー端末1の各種ハードウェアと各種ソフトウェアとの協働により、プレイヤー端末1でゲームの実行が可能になる。
 例えば本実施形態では、図2に示すような3DバーチャルパッドVPを用いてゲームキャラクタCを操作するゲームが、プレイヤー端末1で実行可能になる。
 即ち、図2は、図1のプレイヤー端末1に表示される3DバーチャルパッドVPによるゲームキャラクタCの基本的な操作方法を説明する図である。
 図2の左方には、プレイヤーがタッチパネルでスワイプを行うことでゲームキャラクタCの移動を指示操作するための仮想コントローラとして、3DバーチャルパッドVPが表されている。
 ここで、3DバーチャルパッドVPとは、物理的な十字ボタンを模したGUI(Graphical User Interface)である。本実施形態の3DバーチャルパッドVPは、円の形状を有しており、その中心に対するプレイヤーのタッチ位置の方向により、ゲームキャラクタCの移動方向を指示すると共に、当該プレイヤーのタッチ操作がなされた際のタッチ圧により、ゲームキャラクタCの移動速度(加減速)を指示するためのGUIである。
 図2の右方には、プレイヤーのタッチパネルへのスワイプに応じて、ゲーム内の仮想空間を移動するゲームキャラクタCが表されている。
 ここで、ゲームキャラクタCとは、ゲーム内のオブジェクトのうち、プレイヤーが操作可能なオブジェクトを意味する。つまり、ここでいう「ゲームキャラクタC」とは、図2に示す人間を模したオブジェクトだけでなく、自動車や飛行機、球技におけるボール等の無生物的なオブジェクトも含む広義の概念である。
 本実施形態では、タッチパネルから離間していたプレイヤーの指等が当該タッチパネルに接触した時点、即ちスワイプの第1状態の時点では、3DバーチャルパッドVPは、プレイヤーが視認可能な状態ではないものとする。
 その後、スワイプの第2状態に移行すると、図2の上方に示すように、スワイプの第1状態におけるタッチ位置を表示面上の中心或いは重心として、3DバーチャルパッドVPがプレイヤーに視認可能な状態で表示される。
 つまり、プレイヤーにとっては、タッチパネルに対する最初のタッチ位置に、3DバーチャルパッドVPがあたかも出現したかのように視認される。
 そして、プレイヤーが所定方向にスワイプをすると(スワイプの第2状態に移行すると)、ゲーム内の仮想空間において、所定方向に対応する方向にゲームキャラクタCが低速で歩き始める。
 さらに、本実施形態では、スワイプの第2状態(指を離間させない状態、即ちスワイプの第3状態に移行する前の状態)において、プレイヤーがタッチパネルを強く押下すると、タッチ圧(タッチ圧検出部41の出力値)が大きくなる。これにより、図2の下方に示す様に、そのタッチ圧の強さに応じた移動速度となるように、ゲームキャラクタCは加速して移動するようになる。
 このように、タッチパネルを強く押し続けてゲームキャラクタCが加速させていく操作は、例えば、自動車運転でのアクセル操作に類似するため、プレイヤーにとって直感的な操作である。
 また、プレイヤーにとっては、タッチパネルに対するスワイプに加えて押下度合の強弱の操作をするだけで、ゲームキャラクタCを縦横無尽に加減速させながら走らせることができる。これにより、3DバーチャルパッドVPは、既存の仮想コントローラと比べ、プレイヤーの指がタッチパネルの画面上で移動する範囲が小さくなるため、タッチパネルの画面上に表示されているオブジェクト(ゲームキャラクタC含む)の視認性を損なわせないようにすることができる。
 即ち、スマートフォンのように比較的小さな表示画面を持つ端末をプレイヤー端末1として採用するとき、画面上に一時に表示できる量には限りがある。しかし、本実施形態のように、タッチパネルを指一本で押下するだけでゲームキャラクタCを自在に動かせることができるようにして、プレイヤーの指の移動面積を小さくすることができれば、ゲーム実行中の表示面において、オブジェクト(ゲームキャラクタC含む)の視認性を確保することができる。
 上述した様に、本実施形態では、タッチ圧(タッチ圧検出部41の出力値)に応じて、ゲームキャラクタCの移動速度(加減速量)が変化する。しかしながら、タッチ圧の生データの時系列は、プレイヤーが自然人である以上、安定せずに非連続(振動を繰り返したもの)になる。従って、タッチ圧の生データそのものを用いてゲームキャラクタCの移動速度を決定すると、ゲームキャラクタCの移動(加減速)は不安定となってしまう。
 そこで、本実施形態では、図3に示す様に、タッチ圧を入力パラメータとしてラチェット関数に入力し、当該ラチェット関数の出力を用いてゲームキャラクタCの移動速度を決定する、という手法が採用されている。
 ここで、ラチェット関数とは、所定の物理量を入力パラメータとして入力する関数であって、当該所定の物理量が変動しても、これまでに入力された当該所定の物理量の最大量を出力する関数をいう。
 図3の左方に示されているグラフは、タッチ圧(タッチ圧検出部41の出力値)の生データの時系列の推移を示している。即ち、図3の左方において、縦軸はタッチ圧(タッチ圧検出部41の出力値)を示し、横軸は時間を示している。つまり、グラフが連続している横軸の長さは、プレイヤーの指等がタッチパネルに接触している時間の長さを表す。
 このように、タッチ圧(タッチ圧検出部41の出力値)の生データの時系列は、非連続(振動が激しい)ことから、タッチ圧の生データをゲームキャラクタCの移動速度の設定に用いると、ゲームキャラクタCが不必要に加減速してしまい(加減速が非連続になってしまい)、不適である。
 そこで、本実施形態では、図3に示すように、タッチ圧をラチェット関数の入力パラメータとして入力して、当該ラチェット関数の出力値を、ゲームキャラクタCの移動速度の設定に用いる、という手法が採用される。
 これにより、図4に示す様に、ラチェット関数の出力値、即ちタッチ圧の最大値を用いて、ゲームキャラクタCの移動速度を決定することが可能になる。
 つまり、ラチェット関数を適用することにより、図4の左方に示す非連続的なタッチ圧の変化を、図4の右方に示すように連続的な変化に変換することができる。このような連続的な変化を用いて、ゲームキャラクタCの移動速度を設定することで、ゲームキャラクタCは連続した加減速をすることができる。具体的には例えばタッチ圧が下がっても、タッチパネルからプレイヤーの指等が離間されない限り、ゲームキャラクタCは、タッチ圧の最大値に応じた速度で、即ち不用意に移動速度を低下させずに、走り続けることができる。
 このようにして、プレイヤーは、表示画面上の少ない面積の指の移動をするだけで、プレイヤー端末1のタッチパネルを強く押し続けなくても、直感的にゲームキャラクタCの移動操作をすることができる。
 さらに、このようなラチェット関数を適用することで、図5に示す様に、ゲームキャラクタCの移動速度を制御しながら、当該ゲームキャラクタCをジャンプさせる等の割り込み処理を適切に行うこともできる。
 図5は、割り込み処理の振る舞いを表した図である。
 ここで、割り込み処理とは、所定の処理実行中に、実行要求が外部(所定の処理の実行要求とは別の場所)から与えられる別の処理をいう。なお、外部から与えられる実行要求を、以下「割り込み」と呼ぶ。
 本実施形態では、所定の処理としては、設定された移動方向に設定された移動速度でゲームキャラクタCを移動させる処理が採用される。そして、例えばゲームキャラクタCをジャンプさせる処理が、割り込み処理として採用される。つまり、設定された移動方向に設定された移動速度でゲームキャラクタCが移動している最中に、割り込み処理が発生すると、当該ゲームキャラクタCはジャンプすることになる。
 なお、本実施形態では、割り込み処理はゲームキャラクタCをジャンプさせる処理とするが、特にこれに限定されず、例えばゲームキャラクタCの移動速度を減速させる処理でもよいし、また例えばゲームキャラクタCに所定の攻撃動作をさせる処理でもよい。
 ここで、割り込みの発生の条件は、特に限定されないが、本実施形態では、プレイヤーの指がタッチパネルに接触されている状態(それゆえ、ラチェット関数の出力値に応じた移動速度でゲームキャラクタCが移動している状態)で、極短時間(例えば100ミリ秒)だけタッチパネルへの押下度合を強め、その後押下度合を弱める操作が検出されるという条件が採用されている。
 ここで、極短時間だけタッチパネルへの押下度合を強めて、その後押下度合を弱める操作をした場合、図5の左方のグラフのように、極短時間だけタッチ圧が急激に変化する。
 図5に示す様に、この極短時間のタッチ圧の急激な変化が検出された場合、割り込みが発生する。これにより、ゲームキャラクタCはジャンプすることになる。
 ここで、この極短時間のタッチ圧の変化がそのままラチェット関数に入力(適用)されてしまうと、当該ラチェット関数の出力が変化してしまうことになる。そこで、この極短時間のタッチ圧の急激な変化が検出された場合、タッチ圧(生データ)はラチェット関数に入力されず、予め決められた所定値(例えば0)が入力される。これにより、ラチェット関数の出力値は変化せず、割り込みが発生しても、ゲームキャラクタCは等速度運動を続けることができる。
 このように本実施形態では、タッチ圧を、ラチェット関数の入力パラメータとして用いると共に、割り込みの発生要否を判定するものとして用いる。
 これにより、プレイヤーは、タッチパネルに指を接触させた後、当該タッチパネルに対する押下度合の強弱を変化させる操作をするだけで、ゲームキャラクタCが移動する際の加速及び瞬発的な動き(ジャンプ等)の両方を指示することができる。そして、このような指示操作をするGUIが、3DバーチャルパッドVPである。
 即ち、ゲームキャラクタCの加速と瞬間的な動きの両方の操作を、タッチパネル上の3DバーチャルパッドVPに対する押下度合の加減で実現することができる。例えば、プレイヤーは、3DバーチャルパッドVPに対して、ある程度長い時間(例えば300ミリ秒)押下度合を強めていくことでゲームキャラクタCを加速させ、また、瞬間的(例えば100ミリ秒程度の短時間)に強く押してすぐに弱めることで当該ゲームキャラクタCに瞬発的な動き(ジャンプ等)をさせることができる。
 このように3DバーチャルパッドVPは、スマートフォン等の表示面の少ない面積の指の移動で、ゲームキャラクタCの移動の加減速命令と瞬発的な移動命令を途切れなく入力することができるGUIである。
 以上説明したラチェット関数や割り込みを適用したゲームキャラクタCの移動の制御処理は、プレイヤー端末1におけるハードウェアとソフトウェアの協働により実現される。この場合、プレイヤー端末1は、例えば、図6に示す機能的構成を有することができる。
 図6に示すように、プレイヤー端末1のCPU21においては、割り込み可否判定部51と、ラチェット関数出力部52と、ゲームキャラクタ動作量決定部53と、ゲームキャラクタ動作制御実行部54と、表示制御部55とが機能する。
 さらに、記憶部29の一領域として、トランスミッション関数DB61が設けされている。
 なお、図示はしないが、前提として、3DバーチャルパッドVPによるゲームキャラクタCを操作するゲームについて、その実行を制御する機能ブロック(ゲーム実行部)がCPU21において機能しているものとする。
 タッチ圧検出部41は、上述した様に、タッチパネル(表示部27)への指の押下度合に応じて変化する、タッチ圧を検出する。
 タッチ位置検出部42は、タッチパネルへのタッチ位置(タッチ座標)を検出する。
 具体的には、タッチ操作入力部26のうち、タッチ位置検出部42は、プレイヤーのタッチ座標(x、y)を検出し、タッチ圧検出部41は、プレイヤーのタッチ操作時のタッチ圧を示す値(z=0~1)を検出する。ここで、z=0はタッチ圧がないことを意味し、z=1はタッチ圧が検出可能な最大値であることを意味する。
 割り込み可否判定部51は、タッチ圧検出部41の検出結果(タッチ圧)を入力し、当該検出結果の変化時間及び変化量に基づいて割り込み処理をするか否かを判定する。
 本実施形態では、割り込み可否判定部51は、タッチ圧検出部41の検出結果に基づいて、「極短時間(例えば100ミリ秒)だけタッチパネルへの押下度合を強め、その後押下度合を弱める操作」がなされたか否かを検出することで、割り込み処理をするか否かを判定する。
 ここで、「極短時間だけタッチパネルへの押下度合を強め、その後押下度合を弱める操作」の検出手法は、タッチ圧検出部41の検出結果(タッチ圧)の変化時間及び変化量に基づく手法であれば足りる。
 例えば、本実施形態では図7に示す手法が採用されている。
 即ち、図7は、図6の機能的構成のプレイヤー端末のうち割り込み可否判定部51に適用された、割り込みの要否の判定手法の一例を説明する図である。
 図7において、縦軸がタッチ圧を表し、横軸が時間を表している。なお、縦軸の最低値は、必ずしもタッチ圧が0を意味せず、所定の値であるものとする。
 図7に示すように、タッチ圧の局地的変化が時間α内に起きており(変化時間が時間α内であり)、変化量dが閾値βを上回る場合、割り込み可否判定部51は、「極短時間だけタッチパネルへの押下度合を強め、その後押下度合を弱める操作」であると検出し、割り込みをすると判定する、それ以外の場合割り込みをしないと判定する。
 なお、時間αと閾値βは、設計者等が任意に変更可能な値である。
 図6に戻り、割り込み可否判定部51は、割り込みをしないと判定した場合、タッチ圧検出部41の検出結果(タッチ圧)をそのままラチェット関数出力部52に提供する。
 これに対して、割り込み可否判定部51は、割り込みをすると判定した場合、ゲームキャラクタ動作制御実行部54に対して割り込みをする。この場合、割り込み可否判定部51は、タッチ圧検出部41の検出結果(タッチ圧)をラチェット関数出力部52に提供することを禁止するか、若しくは当該検出結果を加工してラチェット関数出力部52に提供する。
 具体的には例えばタッチ圧検出部41の検出結果(タッチ圧)が上述のようにz=0~1の値で与えられる場合、割り込み可否判定部51は、割り込み処理をすると判定すると、当該検出結果を加工した値として「0」をラチェット関数出力部52に提供する。
 ここで、割り込みが発生する場合にも、タッチ圧がそのまま、ラチェット関数出力部52に提供されると、次のような不具合が生じる。即ち、プレイヤーは割り込み(ゲームキャラクタCのジャンプ指示等)のためにタッチ圧を強めただけなのに、当該タッチ圧がそのままラチェット関数に入力されると、最大値が更新されてしまう場合があり得る。このような場合、ラチェット関数の出力が上昇し、それに伴いゲームキャラクタCの移動速度が上昇してしまう。つまり、プレイヤーは加速の指示操作をしていないと思っているにも関わらず、ゲームキャラクタCが加速してしまうことになる、といった不具合が生じる。
 そこで、このような不具合が生ずることを防止すべく、本実施形態では、割り込みをすると判定されたた場合、タッチ圧そのものではなく、その加工値「0」がラチェット関数出力部52に供給される。これにより、プレイヤーが加速指示ではなく割り込み指示(ゲームキャラクタCのジャンプ指示等)をした場合に、ラチェット関数の出力が不用意に上昇してしまうことを防止し、その結果、ゲームキャラクタCの移動速度を等速度に保持することができる。
 ラチェット関数出力部52は、タッチ圧検出部41の検出結果(より正確には割り込みをする場合には「0」等の加工値)を所定のラチェット関数に入力して、当該ラチェット関数の出力値を、ゲームキャラクタ動作量決定部53に供給する。
 ゲームキャラクタ動作量決定部53は、ラチェット関数の出力に応じて、ゲームキャラクタCの移動速度を決定する。
 ここで、移動速度の決定手法は、ラチェット関数の出力量に基づいて決定する手法であれば足り、特に限定されない。
 本実施形態では、ラチェット関数の出力をゲームキャラクタCの移動速度に変換する関数(以下、「トランスミッション関数」と呼ぶ)として、複数種類のパターンが予めトランスミッション関数DB61に保持されている。そして、これらの複数のパターンの中から所定のパターンのトランスミッション関数を抽出して、抽出したトランスミッション関数を利用してゲームキャラクタCの移動速度を決定する、という手法が採用されている。
 図8及び図9は、図6の機能的構成のプレイヤー端末1のうちゲームキャラクタ動作量決定部53に適用される、トランスミッション関数の各種例を表す図である。
 図8及び図9において、縦軸がトランスミッション関数の出力、即ちゲームキャラクタCの移動速度を表し、横軸がトランスミッション関数の入力、即ちラチェット関数の出力を表している。
 図8(A)の例のトランスミッション関数は、人間のゲームキャラクタCが走るときの加速の様子を模したものである。
 図8(B)の例のトランスミッション関数は、自動車の加速の様子を模したもの、即ち、多段階のギアチェンジを模したものである。
 図8(C)の例のトランスミッション関数は、飛行機の加速の様子を模したもの、即ち所定の瞬間まで徐々に加速し、当該所定の瞬間から指数関数的に一気に加速するようなジェットエンジンの振る舞いを模したものである。
 このように、図8の例のトランスミッション関数は、ラチェット関数の出力が増大するほど、ゲームキャラクタCの移動速度も増えていく各種パターン、即ち、加速をさせるパターンの例であった。
 しかしながら、トランスミッション関数は、加速をさせるパターンに特に限定されず、図9に示す様に、減速を伴うパターンやリミットを伴うパターン、換言すると非線形なパターンを採用することもできる。
 図9(A)の例のトランスミッション関数は、ブレーキによる減速処理を行うような振る舞いを模したものである。
 図9(B)に示すトランスミッション関数は、加速の後に減速する乗り物の制御を行うような振る舞いを模したものである。
 図9(C)に示すトランスミッション関数は、例えば重い荷物を持っているために一定以上のスピードで走れない人間を表すような振る舞いを模したもの、即ち、移動速度にリミットを設けたものである。
 なお、図8及び図9に示すトランスミッション関数は、例示に過ぎず、多種多彩な状況やゲームキャラクタCの特徴に応じて、各種各様なパターンのものを採用することができる。
 このように、複数パターンのトランスミッション関数を選択的に切り替えて使用することにより、人間、自動車、飛行機等、様々なゲームキャラクタCの移動用に適用することが容易にできる。
 また、敵に魔法をかけられて、移動が遅くなった状態等、ゲーム内の各種状態に応じた移動速度についても、複数パターンのトランスミッション関数を選択的に切り替えて使用することで容易に実現可能になる。
 図6に戻り、ゲームキャラクタ動作制御実行部54は、ゲームキャラクタ動作量決定部53で決定された移動速度で、タッチ位置検出部42の検出結果に基づく移動方向に、ゲームキャラクタCを移動させる制御を実行する。
 つまり、ゲームキャラクタ動作制御実行部54は、ゲームキャラクタ動作量決定部53により選択された加速や減速方法(トランスミッション関数の所定パターン)に基づいて決定される移動速度で、タッチ位置検出部42により検出されたタッチ位置で決定される方向へ、ゲームキャラクタCを移動させる制御を実行する。
 また、このようなキャラクタの移動中に割り込み可否判定部51からの割り込みが発生した場合、ゲームキャラクタ動作制御実行部54は、所定の割り込み処理(例えばゲームキャラクタCをジャンプさせる制御処理)を実行する。
 表示制御部55は、ゲームキャラクタ動作制御実行部54で動作が制御されたゲームキャラクタCを、ゲーム内の仮想空間に配置して表示部27に表示させる制御を実行する。
 表示制御部55はまた、3DバーチャルパッドVPを表示部27に表示させる制御も実行する。
 即ち、ゲームキャラクタ動作制御実行部54は、タッチ位置検出部42の検出結果に基づいて、スワイプを検出し、そのスワイプの状態を表示制御部55に通知する。
 表示制御部55は、3DバーチャルパッドVPを、表示部27の表示面のうちスワイプの第1状態におけるタッチ位置に、その中心がくるように配置させて、当該表示部27に表示させる制御を実行する。
 ゲームキャラクタ動作制御実行部54は、当該スワイプの第2状態における物体の移動方向(バーチャルパッドVPの中心から現在の指のタッチ位置に向かう方向)に基づいて、ゲームキャラクタCの移動方向を決定する。
 また、ゲームキャラクタ動作量決定部53は、当該スワイプの第2状態におけるラチェット関数の出力に応じて、ゲームキャラクタCの移動速度を決定する。
 図10は、ゲームキャラクタ動作制御実行部54によるゲームキャラクタCの動作の制御の具体例を示す図である。
 図10において、縦軸はタッチ圧又は移動速度を示し、横軸は時間を示す。点線TPは、タッチ圧(タッチ圧検出部41の出力値)の時間推移を表している。実線CSは、当該タッチ圧を入力した際のラチェット関数の出力の時間推移を示している。図10の例では、図8(A)のトランスミッション関数が採用されている。つまり、実線CSは、そのままゲームキャラクタCの移動速度も示しているといえる。
 図10に示すように、本実施例では、プレイヤーがタッチパネルへの押下度合を徐々に増加させ、一定の押下度合になったところで、押下度合を緩める操作をしている。プレイヤーは、自然人であるので、押下度合を徐々に増加させているつもりでも、実際のタッチ圧TPは変動して不連続になる。しかしながら、ラチェット関数を採用しているので、その出力に基づく移動速度CSは、連続的に増加していく。つまり、ゲームキャラクタCは、自然に加速していくことができる。
 そして、プレイヤーが押下度合を緩める直前がタッチ圧TPの最大値となるため、それ以降、移動速度CSは定速度になる。つまり、ゲームキャラクタCは、等速で走り続けることになる。
 このように、ラチェット関数を採用することで、プレイヤーは、ゲームキャラクタCが目的の速度に達した後は、タッチパネルへの押下度合を弱めることができるため、その後、割り込みを発生させるための瞬間的な押圧操作をすることができるようになる。ここで、瞬間的な押圧操作とは、上述したように、極短時間(例えば100ミリ秒)だけタッチパネルへの押下度合を強めて、その後押下度合を弱める操作を意味する。
 図10の例では、プレイヤーは、3回の瞬間的な押圧操作をしていることがわかる。この瞬間的な押圧操作は、図7を用いて上述した様に、タッチ圧TPの局地的変化が時間α内に起きており(変化時間が時間α内であり)、変化量dが閾値βを上回るという条件が満たされたときに検出される。そして、このような瞬間的な押圧操作が検出されると、割り込みが発生し、ゲームキャラクタCはジャンプする。
 ここで注意すべきは、ゲームキャラクタCの移動速度は、0になるわけではく(即ちゲームキャラクタCは静止するわけではなく)、一定速度を保持している(即ちゲームキャラクタCは等速で走り続けながらジャンプをする)という点である。この点は、上述した様に、タッチ圧TPの値をそのままラチェット関数に入力させるわけではなく、タッチ圧TPの加工値(例えば0)をラチェット関数に入力させることで可能になる。
 ここで、従来のハードウェアのコントローラ等を用い、テレビジョン受像機等をモニタとして用いるゲームでは、ゲームキャラクタCを走らせながらジャンプをする等の指示操作は2本の指により行っていた。つまり、プレイヤーは、ゲームキャラクタCの移動(移動方向及び移動速度)の指示は右手の指で、ゲームキャラクタCのジャンプは左手の指で、別々にコントローラ等を操作することで、ゲームキャラクタCを走らせながらジャンプをする等の指示操作を実現していた。
 しかしながら、タッチパネルの表示面積がさほど大きくないスマートフォン等のプレイヤー端末1において、指2本を用いたタッチ操作を採用することは、ゲームキャラクタC等の表示を妨げることとなり不適である。
 そこで、本実施形態のようにラチェット関数を採用することで、プレイヤーは、従来からあるスワイプと、押下度合の強弱操作とを組合せたタッチ操作、つまり、指一本のタッチ操作をするだけで、ゲームキャラクタCを走らせながらジャンプをする等の操作指示をすることが容易にできるようになる。
 次に、図11を参照して、図6の機能的構成を有するプレイヤー端末1が実行する処理の流れについて説明する。
 即ち、図11は、図6の機能的構成を有するプレイヤー端末1が実行する処理の流れの一例を説明するフローチャートである。
 ステップS1において、図3のタッチ圧検出部41及びタッチ位置検出部42は、プレイヤーの指又は物体がタッチパネルの画面上に接しているかどうかを検出する。
 プレイヤーの指又は物体が画面上に接していない状態では、ステップS1においてNOであると判断されて、処理終了となる。
 即ち、3DバーチャルパッドVPを用いたゲームキャラクタCの動作を入力することは、プレイヤーの指又は物体が画面上に接していることが処理開始の条件であり、プレイヤーの指又は物体が画面上から離れることが処理終了の条件となっている。
 従って、タッチ圧検出部41及びタッチ位置検出部42がプレイヤーの指又は物体が画面上に接している状態を検出した場合は、ステップS1においてYESであると判定されて、処理はステップS2に進む。
 ステップS2において、タッチ圧検出部41は、タッチ圧を検出し、タッチ位置検出部42は、タッチ位置を検出する。
 ステップS3において、割り込み可否判定部51は、タッチ圧検出部41の検出結果(タッチ圧の変化時間及び変化量)に基づいて、割り込み処理をするか否かを判定する。ステップS3の判定手法は、図7を用いて説明した通りであるので、ここではその説明は省略する。
 割り込み可否判定部51が割り込み処理をすると判定した場合には、ステップS3においてYESと判断されて、処理はステップS4に進む。
 ステップS4において、割り込み可否判定部51は、ゲームキャラクタ動作制御実行部54に対して割り込みをする。即ち、割り込み可否判定部51は、割り込み用のゲームキャラクタ動作(例えばジャンプ)を設定し、ゲームキャラクタ動作制御実行部54に要求する。その後、処理はステップS10に進む。なお、ステップS10については後述する。
 これに対して、割り込み可否判定部51が割り込み処理をしないと判定した場合には、ステップS3においてNOと判断され、ステップS2で検出されたタッチ圧がラチェット関数出力部52に提供されて、処理はステップS5に進む。
 ステップS5において、ラチェット関数出力部52は、ステップS2で検出されたタッチ圧の最大値が変化したかどうかを判定する。
 タッチ圧の最大値が変化した場合には、ステップS5においてYESであると判断されて、処理はステップS6に進む。ステップS6において、ラチェット関数出力部52は、タッチ圧の最大値を更新し、更新後の値でラチェット関数の出力をする。
 これに対して、タッチ圧の最大値が変化していない場合には、ステップS5においてNOと判断されて、処理はステップS7に進む。ステップS7において、ラチェット関数出力部52は、これまでに記録されたタッチ圧の最大値を用いて、ラチェット関数の出力をする。つまり、ラチェット関数の出力は変化しない。
 このようにして、ステップS6又はS7の処理でラチェット関数の出力がなされると、処理はステップS8に進む。
 ステップS8において、ゲームキャラクタ動作量決定部53は、ラチェット関数出力部52から出力されたラチェット関数の出力量に応じて、ゲームキャラクタCの移動速度を決定する。
 具体的には本実施形態では、ゲームキャラクタ動作量決定部53は、ゲームの状況やゲームキャラクタCの特徴等に基づいて、トランスミッション関数DB61から所定パターンのトランスミッション関数を抽出する。ゲームキャラクタ動作量決定部53は、ラチェット関数の出力量を入力パラメータとして、抽出したトランスミッション関数に入力させる。ゲームキャラクタ動作量決定部53は、当該トランスミッション関数の出力値を、ゲームキャラクタCの移動速度として決定する。
 ステップS9において、ゲームキャラクタ動作量決定部53は、ゲームキャラクタ動作制御実行部54に対し、決定されたゲームキャラクタCの移動速度での移動を、ゲームキャラクタ動作として設定し、ゲームキャラクタ動作制御実行部54に要求する。
 ステップS10において、ゲームキャラクタ動作制御実行部54は、ステップS4又はS0において要求されたゲームキャラクタ動作を実行するように制御する。
 その後、処理はステップS1に戻され、それ以降の処理が繰り返される。即ち、プレイヤーの指又は物体が画面上から離れない限りは、ステップS1乃至S10のループ処理が繰り返される。
 以上、本発明の一実施例について説明したが、本発明は、上述の実施例に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
 例えば、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
 換言すると、図6の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6の例に限定されない。また、機能ブロックの存在場所も、図6に特に限定されず、任意でよい。
 具体的には例えば、図6に示す各機能ブロックは、上述の実施形態ではネイティブアプリケーションとしてプレイヤー端末1に備えられていたが、HTMLとJavaScript(登録商標)を用いてWebアプリケーションとして実装することで、図示せぬサーバ等に備えることもできる。
 また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
 一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
 コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
 このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。
 なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
 また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
 また例えば上述の例では、ゲームキャラクタCの移動速度は、タッチ圧を入力する所定のラチェット関数の出力量に基づいて設定されていたが、特にこれに限定されない。
 即ち、ラチェット関数の出力量に基づいて設定される量は、移動速度である必要は特に無く、ゲームキャラクタCの動作の所定量であれば足りる。
 また、ラチェット関数の入力パラメータも、タッチ圧である必要は特になく、タッチパネルの表示面への物体の接触度合に応じて変化する、当該タッチパネルに関する所定の物理量であれば足りる。例えば、タッチパネルに対する力覚や、タッチパネル(プレイヤー端末1)の振動量を、ラチェット関数の入力パラメータとして採用してもよい。
 換言すると、本発明が適用されるプログラムは、上述の図1のプレイヤー端末1を含め、次のような構成を有する端末を制御対象とするコンピュータに実行させるものであれば足りる。
 即ち、本発明が適用されるプログラムは、
 表示面への物体の接触の操作に応じて動作を変化させるゲームキャラクタ(例えば図2等のキャラクタC)を含む画像を、当該表示面に表示させる表示媒体(例えば図1のタッチパネル、特に表示部27)と、
 前記表示面への物体の接触度合に応じて変化する、当該表示媒体に関する所定の物理量(例えば上述のタッチ圧)を検出する第1検出手段(例えば図1のタッチ圧検出部41)と、
 を備える端末を制御対象とするコンピュータに実行させるプログラムである。
 このプログラムは、
 前記第1検出手段の検出結果を所定のラチェット関数に入力して、当該ラチェット関数の出力量を、外部に出力するラチェット関数出力ステップ(例えば図6のラチェット関数出力部52が実行するステップ)と、
 前記ラチェット関数の出力量に応じて、前記ゲームキャラクタの動作の所定量を決定する動作量決定ステップ(例えば図6のゲームキャラクタ動作量決定部53が実行するステップ)と、
 前記動作量決定ステップの処理で決定された前記所定量で、前記ゲームキャラクタの動作を変化させる制御を実行する動作制御実行ステップ(例えば図6のゲームキャラクタ動作制御実行部54が実行するステップ)と、
 を含む。
 このように、プレイヤーは表示面への指等の物体の移動距離ではなく、物体の接触度合を変化させるだけで、ゲームキャラクタの動作の所定量を変化さえることができる。つまり、プレイヤーにとって指の移動面積を小さくしつつ、かつ、直感的にゲームキャラクタを移動させることが可能となる仮想コントローラを実現可能とすることができる。
 ここで、表示面への物体の接触度合に応じて変化する、当該表示媒体に関する所定の物理量は、プレイヤーが自然人である以上、非連続となってしまう(振動をしてしまう)。従って、当該所定の物理量をそのまま、ゲームキャラクタの動作の所定量の設定に用いると、ゲームキャラクタの動作の所定量の変化も非連続になってしまい不適である。
 そこで、当該所定の物理量を所定のラチェット関数に入力して、当該ラチェット関数の出力量を、ゲームキャラクタの動作の所定量の設定に用いている。これにより、ゲームキャラクタの動作の所定量の変化が連続的になり好適である。
 ここで、本発明が適用されるプログラムは、
 前記第1検出手段の検出結果を入力し、当該検出結果が示す前記所定の物理量の変化時間及び変化量に基づいて割り込みをするか否かを判定し、割り込みをしないと判定した場合、当該検出結果を前記ラチェット関数出力ステップに提供し、割り込みをすると判定した場合、当該検出結果を前記ラチェット関数出力ステップに提供することを禁止するか、若しくは当該検出結果を加工して前記ラチェット関数出力ステップに提供する割り込み可否判定ステップ(例えば図6の割り込み可否判定部51が実行するステップ)を
 含む制御処理をさらに実行させ、
 前記動作制御実行ステップは、前記割り込み可否判定ステップの処理において前記割り込みをすると判定された場合、前記ゲームキャラクタの動作に対する所定の割り込み処理を実行するステップを含む
 ようにすることができる。
 これにより、ゲームキャラクタの動作の所定量(移動速度等)を一定にしつつ、当該ゲームキャラクタの別動作をさせる割り込み処理を容易に実現することができる。
 この割り込み処理による別動作は、特に限定されず、上述した様にジャンプ等を採用してもよい。この場合、ゲームキャラクタの動作の所定量(移動速度等)の指示操作と、当該ゲームキャラクタの別動作(ジャンプ等)の指示操作等を、指1本だけのタッチ操作で実現できるようになる。
 具体的には例えば、ゲームキャラクタの動作の所定量として移動速度が採用されているときには、プレイヤーは、最初、徐々に指を押す力を強めていく操作をすることで、ゲームキャラクタを加速させていき、その後力を弱めることで、ラチェット関数の機能により、当該ゲームキャラクタを等速移動させることができる。
 さらに、プレイヤーは、瞬間的に指の力を込める操作をすることで、割り込み処理として当該ゲームキャラクタに別動作(ジャンプ等)をさせることができる。
 ここで、割り込みの場合、第1検出手段の検出結果をラチェット関数に入力することを禁止するか、若しくは当該検出結果を加工してラチェット関数に入力することになる。その結果、ゲームキャラクタは、等速移動を止めることなく、別動作(ジャンプ等)をすることもできる。
 また、割り込み処理による別動作として、減速(ブレーキ)を採用してもよい。この場合、例えばゲームキャラクタの動作の所定量として移動速度が採用されているときには、プレイヤーは、上述の操作と同様にして、ゲームキャラクタを加速させて、一定速度になった後は等速移動させることができる。
 さらに、プレイヤーは、瞬間的に指の力を込める操作をすることで、割り込み処理として当該ゲームキャラクタに対して減速命令(ブレーキ)を与えることができる。これにより、1本の指の押下力の増減だけで、キャラクタ移動の加速命令(“走る”等)と減速命令とを同時に実現できる。
 つまり、プレイヤーにとって指の移動面積を小さくしつつ、かつ、直感的にゲームキャラクタを移動させることが可能となる仮想コントローラをより容易かつ適切に実現可能とすることができる。
 また、本発明が適用されるプログラムにおいて、
 前記ゲームキャラクタの動作量決定ステップは、前記ラチェット関数の出力量を前記ゲームキャラクタの動作の所定量に変換する1種以上のパターン(例えばトランスミッション関数のパターン)のうち、所定種類のパターンを用いて、前記ゲームキャラクタの動作の前記所定量を決定するステップを含む、
 ようにすることができる。
 これにより、拡張性やカスタマイズ性に優れた、ゲームキャラクタの動作の制御を容易に実現することができる。
 即ち、パターン(トランスミッション関数のパターン等)を書き換えたり、選択的に用いることにより、人間、自動車、飛行機等、様々なゲームキャラクタの動作の指示操作を実現することができる。また、敵に魔法をかけられて、移動が遅くなった状態等、ゲーム内の状態に応じたゲームキャラクタの動作の制御も容易に実現可能になる。
 また、本発明が適用されるプログラムにおいて、
 前記端末は、さらに、前記表示媒体の前記表示面への物体の接触の位置を検出する第2検出手段(例えば図1等のタッチ位置検出部42)をさらに備え、
 前記動作制御実行ステップは、
  前記第2検出手段の検出結果に基づいて、前記ゲームキャラクタの動作の変化方向を決定する変化方向決定ステップと、
  前記変化方向決定ステップの処理で決定された前記変化方向に、前記動作量決定ステップの処理で決定された前記所定量で、前記ゲームキャラクタの動作を変化させる制御を実行するゲームキャラクタ動作制御実行ステップと、
 を含むようにすることができる。
 これにより、ゲームキャラクタの動作の所定量(移動速度等)だけでなく、動作の変化方向(移動方向)等の制御も容易に実現可能になるので、多種多様な動作をするゲームキャラクタを含むゲームの実現が可能になる。
 また、本発明が適用されるプログラムは、
 前記第2検出手段の検出結果に基づいて、前記表示媒体への前記物体の接触が開始された第1状態から、前記表示媒体への接触が維持されて前記物体が移動する第2状態を経て、前記表示媒体への前記物体の接触が解除される第3状態に至るまでの一連の操作(上述のスワイプ)を検出する操作検出ステップと、
 前記ゲームキャラクタの動作を指示操作するための所定の形状のコントローラ(例えば図2の円形状の3DバーチャルパッドVP)を、前記表示媒体の前記表示面への前記第1状態における前記物体の接触の位置に、その中心又は重心がくるように配置させて、前記表示媒体に表示させる制御を実行する表示制御ステップと、
 をさらに前記コンピュータに実行させ、
 前記変化方向決定ステップは、前記第2状態における前記物体の移動方向に基づいて、前記ゲームキャラクタの動作の変化方向を決定するステップを含み、
 前記動作量決定ステップは、前記第2状態における前記ラチェット関数の出力量に応じて、前記ゲームキャラクタの動作の所定量を決定するステップを含む、
 ようにすることができる。
 上述した様に、仮想のコントローラの形状は、上述した実施形態では図2に示すように円形状とされたが、特にこれに限定されず、ゲームキャラクタの動作を指示操作することが可能であれば任意の形状とすることができる。
 また、表示制御ステップの制御により、仮想のコントローラを表示媒体に表示させるタイミングは、特に限定されない。
 即ち、上述した実施形態では、タッチパネルから離間していたプレイヤーの指等が当該タッチパネルに接触した時点、即ちスワイプの第1状態の時点では、仮想のコントローラの一例である3DバーチャルパッドVPは、プレイヤーが視認可能な状態ではないものとされた。そして、スワイプの第2状態に移行すると、図2の上方に示すように、スワイプの第1状態におけるタッチ位置を表示面上の中心或いは重心として、3DバーチャルパッドVPがプレイヤーに視認可能な状態で表示された。
 しかしながら、このような表示は例示に過ぎない。即ち、3DバーチャルパッドVP等の仮想のコントローラは、プレイヤーのタッチ操作とは独立して、表示媒体の所定位置に元々表示されていてもよい。つまりプレイヤーから常に視認可能な場所に、仮想のコントローラを表示させておくこともできる。
このようにして、プレイヤーにとって指の移動面積を小さくしつつ、かつ、直感的にゲームキャラクタを移動させることが可能となる仮想コントローラはより簡単に実現可能になる。
 さらに、このようにして実現される仮想のコントローラは、既存のバーチャルパッドとの互換性に優れたものである。
 即ち、画面上に表示されるUIとして、既存のバーチャルパッドと全く同一のものを採用することができるため、既存のバーチャルパッドと同じ操作性で使用することができる。従って、このようにして実現される仮想のコントローラは、第1検出手段(感圧センサ等)を有しないスマートフォン上では、既存のバーチャルパッドとしてふるまうことができる。つまり、このようにして実現される仮想のコントローラは、既存のバーチャルパッドの上位互換技術として使用することが可能になる。
 1・・・プレイヤー端末、21・・・CPU、41・・・タッチ圧検出部、42・・・タッチ位置検出部、51・・・割り込み可否判定部、52・・・ラチェット関数出力部、53・・・ゲームキャラクタ動作量決定部、54・・・ゲームキャラクタ動作制御実行部、55・・・表示制御部、61・・・トランスミッション関数DB

Claims (6)

  1.  表示面への物体の接触の操作に応じて動作を変化させるゲームキャラクタを含む画像を、当該表示面に表示させる表示媒体と、
     前記表示面への物体の接触度合に応じて変化する、当該表示媒体に関する所定の物理量を検出する第1検出手段と、
     を備える端末を制御対象とするコンピュータに、
     前記第1検出手段の検出結果を所定のラチェット関数に入力して、当該ラチェット関数の出力量を、外部に出力するラチェット関数出力ステップと、
     前記ラチェット関数の出力量に応じて、前記ゲームキャラクタの動作の所定量を決定する動作量決定ステップと、
     前記動作量決定ステップの処理で決定された前記所定量で、前記ゲームキャラクタの動作を変化させる制御を実行する動作制御実行ステップと、
     を含む制御処理を実行させるプログラム。
  2.  前記第1検出手段の検出結果を入力し、当該検出結果が示す前記所定の物理量の変化時間及び変化量に基づいて割り込みをするか否かを判定し、割り込みをしないと判定した場合、当該検出結果を前記ラチェット関数出力ステップに提供し、割り込みをすると判定した場合、当該検出結果を前記ラチェット関数出力ステップに提供することを禁止するか、若しくは当該検出結果を加工して前記ラチェット関数出力ステップに提供する割り込み可否判定ステップを
     含む制御処理をさらに実行させ、
     前記動作制御実行ステップは、前記割り込み可否判定ステップの処理において前記割り込みをすると判定された場合、前記ゲームキャラクタの動作に対する所定の割り込み処理を実行するステップを含む
     請求項1に記載のプログラム。
  3.  前記ゲームキャラクタの動作量決定ステップは、前記ラチェット関数の出力量を前記ゲームキャラクタの動作の所定量に変換する1種以上のパターンのうち、所定種類のパターンを用いて、前記ゲームキャラクタの動作の前記所定量を決定するステップを含む、
     請求項1又は2に記載のプログラム。
  4.  前記端末は、さらに、前記表示媒体の前記表示面への物体の接触の位置を検出する第2検出手段をさらに備え、
     前記動作制御実行ステップは、
      前記第2検出手段の検出結果に基づいて、前記ゲームキャラクタの動作の変化方向を決定する変化方向決定ステップと、
      前記変化方向決定ステップの処理で決定された前記変化方向に、前記動作量決定ステップの処理で決定された前記所定量で、前記ゲームキャラクタの動作を変化させる制御を実行するゲームキャラクタ動作制御実行ステップと、
     を含む請求項1乃至3のうち少なくとも一方のプログラム。
  5.  前記第2検出手段の検出結果に基づいて、前記表示媒体への前記物体の接触が開始された第1状態から、前記表示媒体への接触が維持されて前記物体が移動する第2状態を経て、前記表示媒体への前記物体の接触が解除される第3状態に至るまでの一連の操作を検出する操作検出ステップと、
     前記ゲームキャラクタの動作を指示操作するための所定の形状のコントローラを、前記表示媒体の前記表示面への前記第1状態における前記物体の接触の位置に、その中心又は重心がくるように配置させて、前記表示媒体に表示させる制御を実行する表示制御ステップと、
     をさらに前記コンピュータに実行させ、
     前記変化方向決定ステップは、前記第2状態における前記物体の移動方向に基づいて、前記ゲームキャラクタの動作の変化方向を決定するステップを含み、
     前記動作量決定ステップは、前記第2状態における前記ラチェット関数の出力量に応じて、前記ゲームキャラクタの動作の所定量を決定するステップを含む、
     請求項4に記載のプログラム。
  6.  表示面への物体の接触の操作に応じて動作を変化させるゲームキャラクタを含む画像を、当該表示面に表示させる表示媒体と、
     前記表示面への物体の接触の度合に応じて変化する、当該表示媒体に関する所定の物理量を検出する検出手段と、
     を備える情報処理装置が実行する情報処理方法であって、
     前記検出手段の検出結果を所定のラチェット関数に入力して、当該ラチェット関数の出力量を、外部に出力するラチェット関数出力ステップと、
     前記ラチェット関数の出力量に応じて、前記ゲームキャラクタの動作の所定量を決定する動作量決定ステップと、
     前記動作量決定ステップの処理で決定された前記所定量で、前記ゲームキャラクタの動作を変化させる制御を実行する動作制御実行ステップと、
     を含む情報処理方法。
PCT/JP2016/083785 2015-12-28 2016-11-15 プログラム及び情報処理方法 WO2017115570A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680076458.2A CN108541224B (zh) 2015-12-28 2016-11-15 非暂时性计算机可读介质和信息处理方法
KR1020187019933A KR102031173B1 (ko) 2015-12-28 2016-11-15 프로그램 및 정보 처리 방법
US16/016,949 US10474275B2 (en) 2015-12-28 2018-06-25 Program and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-256302 2015-12-28
JP2015256302A JP6005831B1 (ja) 2015-12-28 2015-12-28 プログラム及び情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/016,949 Continuation US10474275B2 (en) 2015-12-28 2018-06-25 Program and information processing method

Publications (1)

Publication Number Publication Date
WO2017115570A1 true WO2017115570A1 (ja) 2017-07-06

Family

ID=57123254

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/083785 WO2017115570A1 (ja) 2015-12-28 2016-11-15 プログラム及び情報処理方法

Country Status (5)

Country Link
US (1) US10474275B2 (ja)
JP (1) JP6005831B1 (ja)
KR (1) KR102031173B1 (ja)
CN (1) CN108541224B (ja)
WO (1) WO2017115570A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6661513B2 (ja) * 2016-10-31 2020-03-11 株式会社バンク・オブ・イノベーション ビデオゲーム処理装置、及びビデオゲーム処理プログラム
CN110662587B (zh) * 2017-05-22 2024-01-23 任天堂株式会社 游戏程序、信息处理装置、信息处理系统以及游戏处理方法
JP6255525B1 (ja) * 2017-06-07 2017-12-27 株式会社 ディー・エヌ・エー 電子ゲーム装置及び電子ゲームプログラム
CN107617213B (zh) * 2017-07-27 2019-02-19 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN107789830A (zh) * 2017-09-15 2018-03-13 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN109395373B (zh) * 2018-09-14 2021-12-07 深圳市腾讯信息技术有限公司 对象控制方法和装置、存储介质及电子装置
CN109350964B (zh) * 2018-09-28 2020-08-11 腾讯科技(深圳)有限公司 控制虚拟角色的方法、装置、设备及存储介质
JP6569794B1 (ja) * 2018-10-16 2019-09-04 株式会社セガゲームス 情報処理装置及びプログラム
JP7254634B2 (ja) * 2019-06-10 2023-04-10 アルパイン株式会社 押下操作検出装置および押下操作検出方法
JP7440401B2 (ja) 2019-06-20 2024-02-28 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報端末装置
US11295572B2 (en) * 2019-09-12 2022-04-05 Igt Pressure and time sensitive inputs for gaming devices, and related devices, systems, and methods
US11071906B2 (en) 2019-10-08 2021-07-27 Zynga Inc. Touchscreen game user interface
JP7143364B2 (ja) * 2020-05-15 2022-09-28 株式会社Cygames 方法、プログラム、及び電子装置
JP7064789B2 (ja) * 2020-09-16 2022-05-11 株式会社コナミデジタルエンタテインメント プログラムおよび情報処理装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005319136A (ja) * 2004-05-10 2005-11-17 Namco Ltd プログラム、情報記憶媒体及び電子機器
JP2010533336A (ja) * 2007-07-11 2010-10-21 ユイ・ジン・オ 指の動作感知を利用したデータ入力装置およびこれを利用した入力変換方法
JP2011229716A (ja) * 2010-04-28 2011-11-17 Square Enix Co Ltd ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2012238086A (ja) * 2011-05-10 2012-12-06 Casio Comput Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2013058136A (ja) * 2011-09-09 2013-03-28 Kddi Corp 画面内の対象が押圧によって操作可能なユーザインタフェース装置、対象操作方法及びプログラム
JP2014045965A (ja) * 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8334849B2 (en) * 2009-08-25 2012-12-18 Pixart Imaging Inc. Firmware methods and devices for a mutual capacitance touch sensing device
US20120105367A1 (en) * 2010-11-01 2012-05-03 Impress Inc. Methods of using tactile force sensing for intuitive user interface
US8477110B2 (en) * 2011-01-04 2013-07-02 Himax Technologies Limited Driving circuit for driving a liquid crystal display panel
JP5373876B2 (ja) * 2011-10-20 2013-12-18 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
US20130176270A1 (en) * 2012-01-09 2013-07-11 Broadcom Corporation Object classification for touch panels
CN104252303A (zh) * 2013-06-27 2014-12-31 福建省辉锐材料科技有限公司 一种基于压感信息操控游戏的方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005319136A (ja) * 2004-05-10 2005-11-17 Namco Ltd プログラム、情報記憶媒体及び電子機器
JP2010533336A (ja) * 2007-07-11 2010-10-21 ユイ・ジン・オ 指の動作感知を利用したデータ入力装置およびこれを利用した入力変換方法
JP2011229716A (ja) * 2010-04-28 2011-11-17 Square Enix Co Ltd ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2012238086A (ja) * 2011-05-10 2012-12-06 Casio Comput Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2013058136A (ja) * 2011-09-09 2013-03-28 Kddi Corp 画面内の対象が押圧によって操作可能なユーザインタフェース装置、対象操作方法及びプログラム
JP2014045965A (ja) * 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム

Also Published As

Publication number Publication date
CN108541224A (zh) 2018-09-14
KR102031173B1 (ko) 2019-10-11
JP6005831B1 (ja) 2016-10-12
CN108541224B (zh) 2021-06-11
US20180373376A1 (en) 2018-12-27
JP2017118925A (ja) 2017-07-06
KR20180094053A (ko) 2018-08-22
US10474275B2 (en) 2019-11-12

Similar Documents

Publication Publication Date Title
JP6005831B1 (ja) プログラム及び情報処理方法
JP6784544B2 (ja) プログラム及び情報処理方法
JP6145099B2 (ja) タッチ対応移動体デバイスにおけるゲーム・コントローラー
JP4903371B2 (ja) タッチパネルを用いたゲーム装置およびゲームプログラム
CN107249706B (zh) 游戏控制程序、游戏控制方法和游戏控制装置
JP2023171885A (ja) 仮想オブジェクトの制御方法、及び関連装置
CN109316745B (zh) 虚拟对象运动控制方法及装置、电子设备、存储介质
WO2018216080A1 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
KR20210045388A (ko) 입력들을 소프트웨어 어플리케이션에 매핑하는 방법, 시스템 및 컴퓨터 프로그램 제품
JP2016218774A (ja) プログラム
CN104380235A (zh) 环绕导航
US20180147489A1 (en) Game device, method for controlling game device
WO2018216079A1 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
US10078410B1 (en) System to locomote an entity in three dimensional space
JP2010029711A (ja) タッチパネルを用いたゲーム装置およびゲームプログラム
CN113842634B (zh) 一种扳机按键的力反馈控制方法、装置、电子产品及介质
JP6216862B1 (ja) ゲーム方法およびゲームプログラム
CN108469943A (zh) 奔跑操作的触发方法和装置
CN106843676A (zh) 用于触摸终端的触摸控制方法及触摸控制装置
KR102609293B1 (ko) 게임 동작 결정 장치 및 방법
WO2021124451A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20070184906A1 (en) Method of controlling interactions between objects
WO2023221695A1 (zh) 虚拟车辆的控制方法、装置、设备及存储介质
JP7041363B2 (ja) ゲームプログラム、およびゲームシステム
WO2023221879A1 (zh) 虚拟车辆的控制方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16881550

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20187019933

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020187019933

Country of ref document: KR

122 Ep: pct application non-entry in european phase

Ref document number: 16881550

Country of ref document: EP

Kind code of ref document: A1