WO2020067124A1 - プログラム、電子装置、及び方法 - Google Patents

プログラム、電子装置、及び方法 Download PDF

Info

Publication number
WO2020067124A1
WO2020067124A1 PCT/JP2019/037523 JP2019037523W WO2020067124A1 WO 2020067124 A1 WO2020067124 A1 WO 2020067124A1 JP 2019037523 W JP2019037523 W JP 2019037523W WO 2020067124 A1 WO2020067124 A1 WO 2020067124A1
Authority
WO
WIPO (PCT)
Prior art keywords
data point
point sequence
displacement
sequence
data
Prior art date
Application number
PCT/JP2019/037523
Other languages
English (en)
French (fr)
Inventor
修一 倉林
Original Assignee
株式会社Cygames
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Cygames filed Critical 株式会社Cygames
Priority to CN201980077416.4A priority Critical patent/CN113168281B/zh
Publication of WO2020067124A1 publication Critical patent/WO2020067124A1/ja
Priority to US17/212,290 priority patent/US20210205698A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Definitions

  • the present invention relates to a program, an electronic device, and a method, and particularly to a program, an electronic device, and a method executed in an electronic device including a touch panel.
  • Patent Literature 1 discloses a game device including a touch panel, which is capable of performing an operation simulating a joystick by setting an origin according to a user's touch operation.
  • the game device sets the reference coordinates based on the coordinates at the time of starting the detection when the touch panel changes from the state in which the touch is not detected to the state in which the touch is detected, and subsequently detects the touch when continuing the touch detection.
  • the designated coordinates are set based on the coordinates.
  • the game device realizes the virtual joystick by recognizing that the direction of the vector from the reference coordinates to the designated coordinates is the direction in which the joystick is tilted, and the magnitude of the vector is the degree of the joystick being tilted, and realizes the operation of the virtual object. Has been realized.
  • Patent Document 1 a user touches one point on a touch panel with a finger to cause the game device to recognize reference coordinates, slide the finger while touching the game device, and play the game based on the contact position of the finger after sliding. Let the device recognize the indicated coordinates.
  • the related art configured as described above, when the user inputs a direction, it is necessary to generate a significant distance from the reference coordinates to the designated coordinates, and thus it has been difficult to realize high responsiveness. For example, when the user wants to perform an operation of greatly tilting the virtual joystick, it is necessary to generate the magnitude of the vector from the reference coordinates corresponding to the degree of tilting the joystick that has been greatly tilted to the designated coordinates.
  • an operation method for controlling a virtual object displayed on a touch panel and arranged in a virtual space for example, realization of a faster and more intuitive operation method is required. More generally, there is a demand for a more operable operation method for controlling an operation target object, which is an object that can be an operation target of a user, which is arranged in a virtual space.
  • the present invention has been made in order to solve such a problem, and a main object of the present invention is to provide a program or the like capable of improving operability in controlling an operation target object in a virtual space. I do.
  • a program is a program executed in an electronic device including a touch panel, wherein the electronic device has a touch event generated by a user operation on the touch panel. Holding one or a plurality of data points indicated by the first axis value and the second axis value obtained based on the data points as a data point sequence for each predetermined processing time; and A displacement speed of a data point in the data point sequence is determined based on a displacement of the data point in the data point sequence, and the displacement speed of the latest data point sequence in the held data point sequence is determined. Of the displacement speed in the sequence of data points held before the sequence of data points Based on, characterized in that to execute the steps of determining the velocity factor for the user to control the movement of the operation target object in a virtual space.
  • the step of holding as the data point string ends the holding of the data point string that exceeds a predetermined holding time among the held data point strings.
  • the step of determining the speed factor is performed such that the displacement speed in one data point sequence among the stored data point sequences is held before the one data point sequence.
  • the velocity factor is determined based on a deviation of the displacement speed in the data point sequence from the average value.
  • the step of storing the data points as a data point sequence includes the steps of: storing one or a plurality of data points in a first axis column for each of the first axis value and the second axis value; Holding as a second axis column and determining the velocity factor comprises: displacing the first axis column value displacement and the second axis column value displacement in the retained data point sequence.
  • the displacement speed in the data point sequence is determined based on the data point sequence.
  • the step of determining the speed factor is based on a displacement amount of data points adjacent in time series in the held data point sequence and a number of data points included in the data point sequence. , Determining the displacement speed in the sequence of data points.
  • the first axis and the second axis are parallel to long sides and short sides of the touch panel.
  • the predetermined processing time is a time corresponding to a frame rate for executing a game
  • the program is displayed on the touch panel on the electronic device based on the speed factor. And determining a moving state of the operation target object.
  • the operation target object is an operation target character
  • the moving state includes a state where the operation target character is walking and running.
  • an electronic device is an electronic device including a touch panel, wherein the electronic device is obtained based on a touch event generated by a user operation on the touch panel.
  • One or more data points indicated by the value of the first axis and the value of the second axis are retained as a data point sequence at predetermined processing times, and the displacement of the data points in the retained data point sequence is calculated. Determining a displacement speed of the data point in the data point sequence based on the data point, and holding the displacement speed of the data point sequence in the latest data point sequence of the retained data point sequence before the latest data point sequence. Based on the deviation of the displacement speed from the average value in the sequence of data points, the user operates the object to be operated in the virtual space. Determining the velocity factor for controlling the movement of the object, characterized in that.
  • a method is a method executed in an electronic device including a touch panel, wherein the method is performed based on a touch event generated by a user operation on the touch panel. Holding one or more data points indicated by the acquired first axis value and second axis value as a data point sequence for each predetermined processing time; and a stored data point sequence Determining the displacement speed of the data points in the sequence of data points based on the displacement of the data points in the sequence of data points. Based on the deviation of the sequence of data points held before the sequence from the average value of the displacement speeds. There characterized by having a, and determining the velocity factor for controlling the movement of the operation target object in a virtual space.
  • operability can be further improved in controlling an operation target object in a virtual space.
  • FIG. 2 is a block diagram illustrating a hardware configuration of the electronic device according to the embodiment of the present invention.
  • FIG. 3 is a functional block diagram of an electronic device according to an embodiment of the present invention. It is a figure showing the coordinate axis which consists of the 1st axis and the 2nd axis of this embodiment.
  • FIG. 2 is a diagram illustrating an example of a virtual character controlled by an electronic device.
  • FIG. 2 is a diagram illustrating an example of a virtual character controlled by an electronic device.
  • 9 is a flowchart of a process for determining a speed factor by the electronic device according to the embodiment of the present invention.
  • a game application for presenting a virtual object arranged in a virtual space to a user and performing a game is installed.
  • the electronic device 10 of the present embodiment controls a virtual object for controlling an operation target object in the virtual space, which is a virtual object to be operated by the user, in response to a user operation.
  • a simple controller virtual controller
  • the virtual space is defined by the game application, and can be a two-dimensional space or a three-dimensional space.
  • a virtual object is a character or an item arranged in a virtual space.
  • the operation target object is a character (operation target character) arranged in the virtual space.
  • the operation target object can be an item or a virtual camera arranged in a virtual space.
  • an application means an application program in general, and can mean an application installed in a smartphone or a tablet terminal.
  • FIG. 1 is a block diagram showing a hardware configuration of an electronic device 10 according to an embodiment of the present invention.
  • the electronic device 10 includes a processor 11, an input device 12, a display device 13, a storage device 14, and a communication device 15. Each of these components is connected by a bus 16. It is assumed that an interface is interposed between the bus 16 and each component device as needed.
  • the electronic device 10 is a smartphone.
  • the electronic device 10 can be a terminal such as a tablet computer, a computer including a contact input device such as a touch pad, or the like.
  • the processor 11 controls the operation of the electronic device 10 as a whole.
  • the processor 11 is a CPU.
  • an electronic circuit such as an MPU may be used as the processor 11.
  • the processor 11 performs various processes by reading and executing programs and data stored in the storage device 14.
  • the processor 11 includes a plurality of processors.
  • the input device 12 is a user interface that receives an input from the user to the electronic device 10, and is, for example, a touch panel, a touch pad, a keyboard, or a mouse.
  • the display device (display) 13 displays an application screen or the like to the user of the electronic device 10 under the control of the processor 11.
  • the electronic device 10 that is a smartphone includes the touch panel 17 as the input device 12, and the touch panel 17 also functions as the display device 13, and the input device 12 and the display device 13 have a single structure.
  • the touch panel 17 of the present embodiment is a projection-type capacitive touch panel, but any device having an equivalent function may be used.
  • the storage device 14 is a storage device included in a general smartphone, including a RAM that is a volatile memory and a ROM that is a nonvolatile memory.
  • the storage device 14 can also include an external memory.
  • the storage device 14 stores various programs including a game application.
  • the storage device 14 stores an operating system (OS), middleware, application programs, various data that can be referred to when these programs are executed, and the like.
  • OS operating system
  • middleware middleware
  • application programs various data that can be referred to when these programs are executed, and the like.
  • the storage device 14 includes a main storage device and an auxiliary storage device.
  • the main storage device is a volatile storage medium capable of reading and writing information at high speed, and is used as a storage area and a work area when the processor 11 processes information.
  • the auxiliary storage device stores various programs and data used by the processor 11 when executing each program.
  • the auxiliary storage device is, for example, a hard disk device, but may be any non-volatile storage or non-volatile memory as long as it can store information, and may be removable.
  • the communication device 15 exchanges data with another computer such as a server via a network.
  • the communication device 15 performs wireless communication such as mobile communication and wireless LAN, and connects to a network.
  • the electronic device 10 downloads the program from the server by the communication device 15 and stores the program in the storage device 14.
  • the communication device 15 may perform known wired communication. When data is not transmitted / received to / from another computer, the electronic device 10 may not include the communication device 15.
  • FIG. 2 is a functional block diagram of the electronic device 10 according to the embodiment of the present invention.
  • the electronic device 10 includes an input unit 21, a display unit 22, and a control unit 23.
  • the control unit 23 includes an engine unit 24, a state determination unit 25, and an application unit 26.
  • these functions are realized by the processor 11 executing the program.
  • the program to be executed is a program stored in the storage device 14 or received via the communication device 15.
  • another part may have a part or the whole of one part (function).
  • these functions may be realized by hardware by configuring an electronic circuit or the like for realizing some or all of the functions.
  • the input unit 21 is configured using the input device 12 and receives an input from the user to the electronic device 10.
  • the input unit 21 generates a touch event by receiving a user's touch operation on the touch panel 17, and may use a touch detection function generally provided in a smartphone including the touch panel 17. it can.
  • the display unit 22 displays a game application screen on the display device 13 and displays a screen according to a user operation.
  • the control unit 23 implements a virtual controller.
  • the control unit 23 adopts a three-layer architecture, and the engine unit 24, the state determination unit 25, and the application unit 26 correspond to each layer.
  • the control unit 23 is realized by the processor 11 executing a program configured by each program corresponding to each layer.
  • the engine unit 24 mainly determines a speed factor and an angle for the user to control the movement of the operation target object in the virtual space by using a touch event generated by a user's touch operation on the touch panel 17, and a state determination unit. 25.
  • the speed factor is a value for determining the speed of the operation target object.
  • the speed factor is a value for determining the motion of the character such as walking or running.
  • the angle is a value for determining the moving direction of the operation target object.
  • a method of determining the angle of the engine unit 24 for example, a method described in Japanese Patent Application No. 2018-094656 is used, the description is omitted in this specification.
  • the state determining unit 25 mainly determines the moving state of the operation target object using the speed factor transmitted from the engine unit 24, and transmits the speed factor and the moving state to the application unit 26.
  • the application unit 26 corresponds to a specific game application that implements operations in the game.
  • the game application has a frame rate determined in the same manner as a general game application, and processes the main loop of the main program at every time corresponding to the frame rate, for example.
  • the frame rate is typically 30 fps (frames per second) or 60 fps.
  • the application unit 26 can correspond to an input support application or a simulation application that operates an operation target object in accordance with a user operation.
  • the engine unit 24 converts a data point indicated by a value of the first axis and a value of the second axis acquired based on a touch event generated by a user operation on the touch panel 17 into a first point in the storage device 14.
  • the touch event is when the user touches the touch panel 17 with a finger (touchstart), when the user moves the finger while touching the touch panel 17 (touchmove), and when the user releases the touch panel 17 ( touchend).
  • the engine unit 24 acquires a touch event when the touch event occurs.
  • the engine unit 24 acquires a set of numerical values (x, y) composed of two variables corresponding to the position on the touch panel 17 at which the capacitance has changed, and stores it in the first buffer. Store.
  • the data of the set of numerical values consisting of the two variables is acquired by the engine unit 24 in association with the touch event, and corresponds to the data point indicated by the value of the first axis and the value of the second axis. Things.
  • FIG. 3 is a diagram illustrating coordinate axes including a first axis and a second axis according to the present embodiment.
  • the first axis is a horizontal axis (x-axis) substantially parallel to the short side of the touch panel 17 which is substantially rectangular.
  • the second axis is a vertical axis (y-axis) substantially parallel to the long side of the touch panel 17.
  • the position on the touch panel 17 is represented as coordinates (x, y) by a first axis (x-axis) and a second axis (y-axis).
  • the coordinates (x, y) of the data point correspond to the position on the touch panel 17, and the engine unit 24 stores the coordinates (x, y) as a data point in the first buffer. I do.
  • the coordinate setting illustrated in FIG. 3 is an example, and can be set differently from the above example by a program implemented in the electronic device 10.
  • the engine unit 24 stores one or a plurality of data points held in the first buffer as a data point sequence for each predetermined processing time.
  • the engine unit 24 stores the data point sequence in the second buffer in the storage device 14 for each frame time (time between frames).
  • the frame time F (second) is a time corresponding to the frame rate for executing the game. For example, when the frame rate is 30 fps, F is 1/30 second.
  • the data point sequence P (i) held by the engine unit 24 in the i-th frame is represented by each data point Is represented by Each data point included in P (i) is a data point held in the first buffer during the time of the ith frame.
  • the engine unit 24 holds P (i) after a lapse of one frame time F (second) from holding the (i-1) th P (i-1), and further holds P (i + 1) after a lapse of one frame time. Hold.
  • the variable m is different depending on P (i) because it is the number of data points included in P (i).
  • the engine unit 24 ends the holding of the data point string that exceeds the predetermined holding time among the data point strings held in the second buffer. For example, when ending the holding of the data of the data point sequence, the engine unit 24 may delete the data, invalidate the data, or a flag indicating that the holding of the data is ended. May be associated and deleted as appropriate. For example, the engine unit 24 determines a variable D that specifies the lifetime of the data point stored in the second buffer. The time specified by the variable D corresponds to a predetermined processing time, and in the present embodiment, corresponds to the time of a frame. For example, the engine unit 24 stores the data point sequence P (i) in the second buffer in association with the time t i at which the data point sequence P (i) was stored.
  • the engine unit 24 When storing one data point sequence P (i) in the second buffer, the engine unit 24 monitors the elapsed time T since the data point sequence P (i) was stored, and continuously monitors the variable D and the variable D. Compare. When the elapsed time T of the monitored data point sequence P (i) exceeds the variable D, the engine unit 24 ends holding the data point sequence P (i) in the second buffer. The engine unit 24 can calculate the elapsed time T using the held time t i .
  • the engine unit 24 holds one data point sequence P (i) in the second buffer for a time 5F (second) corresponding to five frames. Therefore, the engine unit 24 holds five data point strings.
  • the engine unit 24 holds five data point sequences such that P (5), P (4), P (3), P (2), and P (1) are arranged in order from the new data point sequence. Therefore, when the engine unit 24 holds a data point sequence corresponding to five frames, P (5) becomes the latest held data point sequence.
  • the engine unit 24 stores the new data point sequence as P (5), and replaces P (i) (1 ⁇ i ⁇ 4) with data of P (i + 1). At this time, the engine unit 24 ends the holding of P (1) exceeding the predetermined holding time.
  • the engine unit 24 separately holds the value of the x coordinate and the value of the y coordinate as a data point sequence for each frame time.
  • the set X of x-coordinate values and the set Y of y-coordinate values held by the engine unit 24 are as shown in Expressions (1) and (2), respectively.
  • n is the number of data point strings held by the engine unit 24 in the second buffer, and corresponds to the number of frames.
  • n 5F (seconds) corresponding to five frames.
  • the value of the x coordinate of the data point sequence P (n) held most recently is x n, 0 ,... X n, m
  • the value of the y coordinate of the data point sequence P (n) held most recently is y n, 0 ,... yn , m .
  • the maximum value of n differs depending on the time during which the engine unit 24 holds the data point sequence.
  • the latest displacement velocity v n in the data point columns, the displacement speed of the data point columns held before the latest data point strings v 1 ⁇ v n of the held data point strings Determine the rate factor based on the bias to the mean of -1 .
  • the velocity factor is determined based on the deviation of the displacement speeds v 1 to v i ⁇ 1 in the point train from the average value.
  • bias towards the displacement velocity v average value of 0 ⁇ v i-1 of the displacement velocity v i for example the displacement velocity v of the displacement velocity v i 0 ⁇ v i-1 of the deviation from the mean value ( Deviation).
  • the engine unit 24 outputs the determined speed factor to the state determination unit 25.
  • the engine unit 24 may store the determined speed factor in a memory area in the storage device 14 referred to by the state determination unit 25, without directly outputting the speed factor to the state determination unit 25.
  • the engine unit 24 calculates the speed factor as follows.
  • the velocity factor is an output value of a Cumulative Pointwize Deviation function (CPD function) defined as follows.
  • the CPD function is calculated by equation (3).
  • the engine unit 24 outputs the output value of the CPD function to the state determination unit 25.
  • n is the number of data point strings held by the engine unit 24 in the second buffer.
  • v i is the displacement speed at the i-th data point sequence or the displacement speed at the i-th frame.
  • the displacement speed corresponds to the moving speed of the user's finger calculated from the set of touch points (the set of data points) at the time of the target frame.
  • the engine unit 24 determines the displacement speed of the data points in the data point sequence based on the displacement of the data points in the data point sequence stored in the second buffer. In one example, when the engine unit 24 holds the value of the x-coordinate and the value of the y-coordinate separately as a data point sequence, the engine unit 24 sets the x-coordinate in the data point sequence stored in the second buffer.
  • the displacement speed is determined based on the displacement of the value of y and the displacement of the value of the y coordinate.
  • the engine unit 24 determines, based on the displacement amount of the data points adjacent in time series in the data point sequence held in the second buffer and the number of data points included in the data point sequence, Determine the displacement speed.
  • the displacement speed is calculated by equation (4).
  • is a real number of 0 or more as a coefficient corresponding to the pixel density DPI (Dot-Per-Inch) of the display, and is generally 1.
  • avg i-1 (v) is the average of the i-th displacement velocity v i to the immediately preceding frame.
  • avg i-1 (v) is calculated by equation (5). (5)
  • the state determination unit 25 determines the moving state of the operation target object displayed on the touch panel 17 based on the speed factor determined by the engine unit 24.
  • the operation target object is the operation target character
  • the moving state determined by the state determination unit 25 is any one of the walking state and the running state of the operation target character.
  • the state determination unit 25 is an output value of a classify function defined as follows.
  • the classify function is calculated by Expression (6).
  • the classify function is a function that determines that the CPD function is a walk when the output value of the CPD function is equal to or less than a threshold ⁇ , and determines that the output is a run when the output value of the CPD function is greater than the threshold ⁇ . For example, the classify function outputs “0” when the value is equal to or smaller than the threshold value ⁇ , and outputs “1” when the value is larger than the threshold value ⁇ .
  • the state determination unit 25 outputs the output value of the CPD function and the output value of the classify function to the application unit 26.
  • the state determination unit 25 may store the output value of the CPD function and the output value of the classify function in a memory area referred to by the application unit 26 without directly outputting the output value to the application unit 26.
  • the application unit 26 has a function of an application started on the electronic device 10 and provides a service using the application.
  • the application unit 26 converts the output value of the CPD function and the output value of the classify function output from the state determination unit 25 into a specific motion of the operation target character, and the like. This is a function implemented in typical game applications.
  • the application unit 26 directly converts the output value of the CPD function output from the state determination unit 25 into the moving speed of the operation target character, and converts the output value of the classify function to the moving state (walking or running) of the operation target character. Convert to In the present embodiment, the function of the application unit 26 is realized by a native application installed on the electronic device 10.
  • FIGS. 4 and 5 are diagrams illustrating an example of the operation target character 50 controlled by the electronic device 10.
  • FIG. FIG. 4 shows a state where the operation target character 50 is walking
  • FIG. 5 shows a state where the operation target character 50 is running.
  • the electronic device 10 obtains the output of the CPD function and the classify function from the set of data points, and controls the motion of the operation target character 50, such as walking or running, based on the output.
  • the CPD function does not output an extremely large value because the CPD function levelizes the calculation based on the values of v 1 to v 5 by multiplying by 1/5 (1 / n).
  • the output value of the CPD function becomes large when the finger is intentionally accelerated, and becomes large when the finger is not intentionally accelerated. Not a value.
  • FIG. 6 is a flowchart of a process of determining a speed factor by the electronic device 10 according to an embodiment of the present invention.
  • the electronic device 10 executes this processing at each frame time corresponding to the frame rate.
  • the engine unit 24 acquires a data point from the generated touch event and stores the data point in the first buffer.
  • the process of this flowchart does not have to be performed at the time of a frame as long as the process is performed at a certain time interval.
  • step 101 the engine unit 24 stores the coordinates (data points) acquired during one frame as a data point sequence P (i) in the second buffer.
  • the engine unit 24 stores, in the held data point sequence P (i), T indicating the elapsed time after storage in milliseconds, and a variable indicating the time that can be stored in the second buffer (retention life) in milliseconds. D is associated.
  • step 102 the engine unit 24 finishes holding the data point sequence P (i) whose elapsed time T is equal to or greater than the variable D among the data point sequence P (i) stored in the second buffer. I do.
  • step 103 the velocity factor is determined using the equations (3) to (5).
  • step 104 the flow returns to step 101 unless the game application ends, for example, when the game application ends.
  • the engine unit 24 deletes all the data point strings held in the second buffer.
  • a feature of the projected capacitive touch panel is that when a finger is swiped on the touch panel 17, six or more touch events occur in a very short time, for example, 100 ms.
  • the system architecture of the software implemented by the electronic device 10 is such that the engine unit 24, the state determination unit 25, and the application unit 26 have a three-layer structure corresponding to the first, second, and third layers, respectively. For example, it corresponds to a game application.
  • the first layer is obtained from a set of a plurality of touch events (a set of data points) generated for each predetermined processing time, for example, for each frame time in the game application as the predetermined processing time, by using equations (3) to (5). ) Is used to calculate the CPD function.
  • the first layer outputs the output value of the CPD function to the second layer as a speed factor.
  • the second layer outputs a continuously output speed factor to the third layer, and uses the speed factor to change a moving state indicating whether the operation target character walks or runs at predetermined processing times, for example.
  • Output to the third layer The moving state is output using the classify function shown in Expression (6).
  • the third layer converts the output value of the CPD function output from the second layer into the moving speed of the operation target character as it is, and converts the output value of the classify function to the moving state (walking or running) of the operation target character. I do.
  • n is fixed at the maximum value.
  • the CPD function outputs a larger value when the displacement speed of each frame holds a value larger than the average value of the displacement speeds up to the immediately preceding frame. Therefore, if the user intentionally moves the finger quickly, the finger will inevitably accelerate for a certain period of time, and the CPD function will output a larger value.
  • the CPD function is leveled by multiplying by 1 / n.
  • an extremely large value is not output.
  • the output value of the CPD function becomes a large value when the finger is continuously accelerated intentionally, and does not take a large value when the finger is not intentionally accelerated. It is possible to determine the moving state of the operation target character 50 in correspondence with a simple operation.
  • the CPD function uses the deviation to absorb the habit of moving the finger for each user and individual differences, the electronic device 10 uses the CPD function to detect only intentional acceleration. Becomes possible.
  • the electronic device 10 can determine the moving state of the operation target character 50 immediately from the first frame after the input by the user. For example, if the user vigorously moves his / her finger, the electronic device 10 can immediately bring the operation target character 50 into a running state. On the other hand, even when the user gradually accelerates the finger, the electronic device 10 determines the moving state of each frame using the CPD function that integrates the weight according to the duration of the acceleration. It is possible to shift from a walking state to a running state. Further, in the determination using the CPD function, the recognition accuracy is increased in accordance with the number of elapsed frames. Therefore, even when walking and running cannot be identified in the first frame, identification can be performed in the second and third frames.
  • the first layer is configured to continuously calculate the speed factor for each frame rate using a touch event that occurs in an extremely short time, so that any layer uses the past touch coordinates as a reference point. Instead, it is possible to calculate the moving speed of the operation target character.
  • the electronic device 10 does not use a spatial concept of a point such as a start point (start coordinate) and an end point (end coordinate) used in the virtual controller in the related art. Calculate the speed.
  • the virtual controller unlike the virtual controller in the related art, that is, the virtual controller using a vector obtained by the positional relationship between the reference coordinates and the current designated coordinates, there is no concept of the reference coordinates. It is possible to provide higher responsiveness than a defined virtual controller. In particular, when performing the direction change operation of the operation target character, even if the user performs an operation on the touch panel 17 in a direction greatly different from the direction before the direction change, there is no concept itself that the current designated coordinates approach the reference coordinates. It is possible to quickly respond to the operation content intended by the user and reflect the motion on the operation target character. Further, with the above configuration, it is possible to allow a user operating with a smartphone to perform an operation with one hand.
  • the electronic device 10 is different from the virtual controller in the related art in that the input is not in accordance with the moving distance of the finger from the reference coordinates. Can be realized. Therefore, it can be realized with a smaller mounting area as compared with the related art. For example, the same operability can be realized regardless of the size of the touch panel 17.
  • the technology of the virtual controller provided by the electronic device 10 of the present embodiment mathematically controls the motion control of the character from an unprecedented viewpoint, that is, the motion control based on the moving speed of the finger and the duration of acceleration accompanying the swipe operation. Since it is modeled on a game, it can be applied to a wide range of game genres. Further, all operations are numerically controlled based on a mathematical model, and various motion controls can be created by changing set values such as the value of ⁇ shown in Expression (4).
  • a program for realizing the functions and the information processing shown in the flowcharts of the above-described embodiment of the present invention and a computer-readable storage medium storing the program may be used.
  • a method for realizing the functions of the above-described embodiment of the present invention and the information processing shown in the flowcharts may be used.
  • a server that can supply a computer with a program that implements the functions of the above-described embodiment of the present invention and the information processing illustrated in the flowcharts may be used.
  • a virtual machine that realizes the functions of the above-described embodiment of the present invention and the information processing illustrated in the flowcharts may be used.
  • the moving state determined by the state determining unit 25 is one of a walking state, a fast walking state, and a running state of the operation target character.
  • the classify function is calculated by Expression (8).
  • the classify function determines that the output value of the CPD function is a walk (walk1) when the output value is equal to or less than a threshold value t1, determines that the output value is a fast walk (walk2) when the output value is larger than the threshold value t2 and is smaller than the threshold value t2, This is a function that determines running.
  • the classify function outputs “0” when the value is equal to or smaller than the threshold value t1, outputs “1” when the value is larger than the threshold value t1 and equal to or smaller than the threshold value t2, and outputs “2” when the value is larger than the threshold value t2.
  • the state determination unit 25 outputs the output value of the CPD function and the output value of the classify function to the application unit 26.
  • the state determination unit 25 may store the output value of the CPD function and the output value of the classify function in a memory area referred to by the application unit 26 without directly outputting the output value to the application unit 26.
  • the moving state can be a plurality of states including a state in which the operation target character walks and a state in which the operating target character runs, and the classify function determines any one of the moving states according to the set threshold. I just need.
  • the engine unit 24 determines the moving state instead of the state determining unit 25 and outputs the moving state to the application unit 26.
  • the engine unit 24, for reference when calculating the CPD function, the determined displacement speed v i, is held in the third buffer in the storage device 14.
  • the engine unit 24 ends the holding of the first held displacement speed among the held displacement speeds. For example, when ending the holding of the displacement speed data, the engine unit 24 may delete the data, invalidate the data, or indicate that the holding of the data has ended. Flags may be associated and deleted as appropriate.
  • the engine unit 24 holds the displacement velocity v i corresponding to 5 frames at a maximum.
  • Engine 24, v 5, v 4, v 3, v 2, v holds 1 become as five displacement speed in order from the new displacement speed.
  • v 5 is the latest held data point columns.
  • Engine unit 24 when holding a new displacement speed, holds the new displacement velocity as v 5, v i the (1 ⁇ i ⁇ 4) with replaced by v i + 1 of the data, v 1 End the retention.
  • the function of the application unit 26 is realized by a Web application installed in the electronic device 10.
  • the server that communicates with the electronic device 10 transmits a part or the entirety of the application unit 26 to the electronic device 10 as a Web page, and the Web application executes the processing executed by the application unit 26 on the electronic device 10. At the same time, it transmits and receives data to and from the server.
  • the input device 12 and the display device 13 are separate forms arranged at different positions.
  • the input device 12 is a device having the same function as a touch panel or a projected capacitive touch panel.
  • the display device 13 only needs to display an application screen or the like to the user of the electronic device 10 under the control of the processor 11, and is, for example, a liquid crystal display, a display using an organic EL, a plasma display, or the like.
  • the process or operation described above in a certain step, the process or operation can be freely performed as long as there is no contradiction in the process or operation such as using data that cannot be used in that step yet. Can be changed.
  • the embodiments described above are examples for explaining the present invention, and the present invention is not limited to these embodiments.
  • the present invention can be implemented in various forms without departing from the gist thereof.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

仮想空間における操作対象オブジェクトを制御するにあたって、より操作性を高くすることが可能なプログラムを提供する。 本発明は、タッチパネルを備える電子装置において実行されるプログラムであって、電子装置に、タッチパネルへのユーザの操作により発生したタッチイベントに基づいて取得されるデータポイントを、既定の処理時間ごとに、データポイント列として保持するステップと、保持されているデータポイント列におけるデータポイントの変位に基づいて、該データポイント列におけるデータポイントの変位速さを決定し、保持されたデータポイント列のうちの最新のデータポイント列における変位速さの、該最新のデータポイント列より前に保持されたデータポイント列における変位速さの平均値に対する偏りに基づいて、ユーザが仮想空間内の操作対象オブジェクトの移動を制御するための速度因子を決定するステップと、を実行させる。

Description

プログラム、電子装置、及び方法
 本発明は、プログラム、電子装置、及び方法に関するものであり、特にタッチパネルを備える電子装置において実行されるプログラム、電子装置、及び方法に関する。
 近年のタッチパネル技術の向上に伴い、タッチパネル上のユーザインタフェースを介してユーザ入力を行う電子装置が広く普及してきた。そして、電子装置において実行されるゲームにおいては、従来型の物理的なコントローラによるユーザ入力に代えて、電子装置に備えられたタッチパネルを介してユーザ入力を行う形態が広く普及してきている。
 特にスマートフォン等に代表される小型の携帯型電子装置の普及が急速に進み、このような携帯型電子装置上で実行されるゲームも数多くリリースされている。このような状況において、タッチパネルに表示されたプレイヤキャラクタなどの仮想オブジェクトの操作方法については、例えば非特許文献1に示すバーチャルパッドに関する技術を含め、様々な技術が提案されている。
 例えば特許文献1には、タッチパネルを備えるゲーム装置であって、ユーザのタッチ操作に応じて原点を設定してジョイスティックを模した操作を行うことができるゲーム装置やプログラムが開示されている。当該ゲーム装置は、タッチパネルがタッチを検出していない状態から検出した状態に変化した場合に検出を開始したときの座標に基づき基準座標を設定し、その後タッチ検出を継続する場合、その後に検出した座標に基づき指示座標を設定する。そして当該ゲーム装置は、基準座標から指示座標へのベクトルの方向がジョイスティックを倒している方向、ベクトルの大きさがジョイスティックの倒し具合と認識することで、仮想ジョイスティックを実現し、仮想オブジェクトの操作を実現している。
特許第3734820号
 特許文献1に示す従来技術において、ユーザは、タッチパネル上の1箇所を指で接触してゲーム装置に基準座標を認識させ、接触したままその指をスライドさせ、スライド後の指の接触位置によりゲーム装置に指示座標を認識させる。このように構成される従来技術は、ユーザが方向を入力するとき、基準座標から指示座標まで有意な距離を生成する必要があるため、高い応答性を実現することは難しかった。例えばユーザが仮想ジョイスティックを大きく倒した操作を行いたい場合、大きく倒したジョイスティックの倒し具合に対応する基準座標から指示座標へのベクトルの大きさを生成する必要があった。
 したがって、タッチパネルに表示された、仮想空間上に配置された仮想オブジェクトを制御する操作方法として、例えばより高速で直感的な操作方法の実現が求められている。更に一般化すると、仮想空間内に配置され、ユーザの操作対象となりうるオブジェクトである操作対象オブジェクトを制御する操作方法として、より操作性の高い操作方法の実現が求められている。
 本発明は、このような課題を解決するためになされたものであり、仮想空間における操作対象オブジェクトを制御するにあたって、より操作性を高くすることが可能なプログラム等を提供することを主目的とする。
 上記の目的を達成するために、本発明の一態様としてのプログラムは、タッチパネルを備える電子装置において実行されるプログラムであって、該電子装置に、前記タッチパネルへのユーザの操作により発生したタッチイベントに基づいて取得される第1の軸の値及び第2の軸の値により示される1又は複数のデータポイントを、既定の処理時間ごとに、データポイント列として保持するステップと、保持されているデータポイント列におけるデータポイントの変位に基づいて、該データポイント列におけるデータポイントの変位速さを決定し、保持されたデータポイント列のうちの最新のデータポイント列における該変位速さの、該最新のデータポイント列より前に保持されたデータポイント列における該変位速さの平均値に対する偏りに基づいて、前記ユーザが仮想空間内の操作対象オブジェクトの移動を制御するための速度因子を決定するステップと、を実行させることを特徴とする。
 また、本発明において好ましくは、前記データポイント列として保持するステップは、 保持されている前記データポイント列のうち既定の保持時間を超えた前記データポイント列の保持を終了する。
 また、本発明において好ましくは、前記速度因子を決定するステップは、保持されたデータポイント列のうちの一のデータポイント列における前記変位速さの、該一のデータポイント列より前に保持されたデータポイント列における前記変位速さの平均値に対する偏りに基づいて、前記速度因子を決定する。
 また、本発明において好ましくは、前記データポイント列として保持するステップは、1又は複数のデータポイントを、前記第1の軸の値及び前記第2の軸の値ごとに第1の軸の列及び第2の軸の列として保持し、前記速度因子を決定するステップは、保持した前記データポイント列における前記第1の軸の列の値の変位及び前記第2の軸の列の値の変位に基づいて、該データポイント列における前記変位速さを決定する。
 また、本発明において好ましくは、前記速度因子を決定するステップは、保持した前記データポイント列において時系列的に隣接するデータポイントの変位量、及び該データポイント列が含むデータポイントの数量に基づいて、該データポイント列における前記変位速さを決定する。
 また、本発明において好ましくは、前記第1の軸及び前記第2の軸は、前記タッチパネルの長辺及び短辺と平行である。
 また、本発明において好ましくは、前記既定の処理時間は、ゲームを実行するためのフレームレートに対応する時間であり、前記プログラムは、前記電子装置に、前記速度因子に基づいて、前記タッチパネルに表示される前記操作対象オブジェクトの移動状態を決定するステップを更に実行させる。
 また、本発明において好ましくは、前記操作対象オブジェクトは、操作対象キャラクタであり、前記移動状態は、前記操作対象キャラクタが歩く状態及び走る状態を含む。
 また、上記の目的を達成するために、本発明の一態様としての電子装置は、タッチパネルを備える電子装置であって、前記タッチパネルへのユーザの操作により発生したタッチイベントに基づいて取得される第1の軸の値及び第2の軸の値により示される1又は複数のデータポイントを、既定の処理時間ごとに、データポイント列として保持し、保持されているデータポイント列におけるデータポイントの変位に基づいて、該データポイント列におけるデータポイントの変位速さを決定し、保持されたデータポイント列のうちの最新のデータポイント列における前記変位速さの、該最新のデータポイント列より前に保持されたデータポイント列における前記変位速さの平均値に対する偏りに基づいて、前記ユーザが仮想空間内の操作対象オブジェクトの移動を制御するための速度因子を決定する、ことを特徴とする。
 また、上記の目的を達成するために、本発明の一態様としての方法は、タッチパネルを備える電子装置において実行される方法であって、前記タッチパネルへのユーザの操作により発生したタッチイベントに基づいて取得される第1の軸の値及び第2の軸の値により示される1又は複数のデータポイントを、既定の処理時間ごとに、データポイント列として保持するステップと、保持されているデータポイント列におけるデータポイントの変位に基づいて、該データポイント列におけるデータポイントの変位速さを決定し、保持されたデータポイント列のうちの最新のデータポイント列における該変位速さの、該最新のデータポイント列より前に保持されたデータポイント列における該変位速さの平均値に対する偏りに基づいて、前記ユーザが仮想空間内の操作対象オブジェクトの移動を制御するための速度因子を決定するステップと、を有することを特徴とする。
 本発明によれば、仮想空間における操作対象オブジェクトを制御するにあたって、より操作性を高くすることができる。
本発明の一実施形態による電子装置のハードウェア構成を示すブロック図である。 本発明の一実施形態による電子装置の機能ブロック図である。 本実施形態の第1の軸及び第2の軸からなる座標軸を示す図である。 電子装置により制御される仮想キャラクタの一例を示す図である。 電子装置により制御される仮想キャラクタの一例を示す図である。 本発明の一実施形態の電子装置による速度因子を決定する処理のフローチャートである。
 以下、図面を参照して、本発明の実施形態を説明する。各図において同一の符号は、特に言及が無い限り同一又は相当部分を示すものとし、説明の便宜上、図面の縦横の縮尺を実際のものとは異なるように表す場合がある。また、説明の便宜上、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成についての重複説明を省略する場合がある。
 本発明の一実施形態による電子装置10は、仮想空間に配置された仮想的なオブジェクトをユーザに提示し、ゲームを進行するゲームアプリケーションがインストールされている。本実施形態の電子装置10は、当該ゲームアプリケーションが実行されると、ユーザの操作に応じて、仮想空間内のユーザの操作対象の仮想的なオブジェクトである操作対象オブジェクトを制御するための仮想的なコントローラ(仮想コントローラ)を提供する。仮想空間は、当該ゲームアプリケーションにより定められるものであり、2次元空間であることもできるし、3次元空間であることもできる。例えば、仮想的なオブジェクトは、仮想空間に配置されたキャラクタ又はアイテムである。本実施形態では、操作対象オブジェクトは、仮想空間に配置されたキャラクタ(操作対象キャラクタ)である。ただし、操作対象オブジェクトは、仮想空間に配置されたアイテム又は仮想カメラなどとすることもできる。
 説明の便宜上、本実施形態においては、電子装置10には上記のようなゲームアプリケーションがインストールされているものとするが、これに限定されない。電子装置10は、ユーザの操作に応じて、操作対象オブジェクトを制御することが可能なアプリケーションを実装していればよい。例えば、電子装置10には、ゲームアプリケーションの代わりに又はこれに追加して、ユーザの操作に応じて操作対象オブジェクトを動作させる入力支援アプリケーション又はシミュレーションアプリケーションが実装されてもよい。以下の説明において、アプリケーションは、アプリケーションプログラム全般を意味するものであり、スマートフォンやタブレット端末にインストールされるアプリを意味することができる。
 図1は本発明の一実施形態による電子装置10のハードウェア構成を示すブロック図である。電子装置10は、プロセッサ11、入力装置12、表示装置13、記憶装置14、及び通信装置15を備える。これらの各構成装置はバス16によって接続される。なお、バス16と各構成装置との間には必要に応じてインタフェースが介在しているものとする。本実施形態において、電子装置10はスマートフォンである。ただし、電子装置10は、上記の構成を備えるものであれば、タブレット型コンピュータ、タッチパッド等の接触型入力装置を備えるコンピュータなどの端末とすることができる。
 プロセッサ11は、電子装置10全体の動作を制御する。例えばプロセッサ11は、CPUである。なお、プロセッサ11としては、MPU等の電子回路が用いられてもよい。プロセッサ11は、記憶装置14に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。1つの例では、プロセッサ11は、複数のプロセッサから構成される。
 入力装置12は、電子装置10に対するユーザからの入力を受け付けるユーザインタフェースであり、例えば、タッチパネル、タッチパッド、キーボード、又はマウスである。表示装置(ディスプレイ)13は、プロセッサ11の制御に従って、アプリケーション画面などを電子装置10のユーザに表示する。本実施形態においては、スマートフォンである電子装置10は入力装置12としてタッチパネル17を備え、タッチパネル17は表示装置13としても機能し、入力装置12と表示装置13は一体となった構造である。本実施形態のタッチパネル17は、投影型静電容量方式タッチパネルであるが、同等の機能を有するデバイスがあれば、それを用いてもよい。
 記憶装置14は、揮発性メモリであるRAM及び不揮発性メモリであるROMを含む、一般的なスマートフォンが備える記憶装置である。記憶装置14は、外部メモリを含むこともできる。記憶装置14は、ゲームアプリケーションを含む各種プログラムを記憶する。例えば、記憶装置14は、オペレーティングシステム(OS)、ミドルウェア、アプリケーションプログラム、これらのプログラムの実行に伴って参照され得る各種データなどを格納する。
 1つの例では、記憶装置14は、主記憶装置及び補助記憶装置を含む。主記憶装置は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、プロセッサ11が情報を処理する際の記憶領域及び作業領域として用いられる。補助記憶装置は、様々なプログラムや、各プログラムの実行に際してプロセッサ11が使用するデータを格納する。補助記憶装置は、例えばハードディスク装置であるが、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。
 通信装置15は、ネットワークを介してサーバなどの他のコンピュータとの間でデータの授受を行う。例えば通信装置15は、移動体通信や無線LAN等の無線通信を行い、ネットワークへ接続する。1つの例では、電子装置10は、通信装置15によってプログラムをサーバからダウンロードして、記憶装置14に格納する。ただし、通信装置15は既知の有線通信を行ってもよい。他のコンピュータとの間でデータの送受信を行わない場合、電子装置10は通信装置15を備えなくてもよい。
 図2は本発明の一実施形態による電子装置10の機能ブロック図である。電子装置10は、入力部21、表示部22、及び制御部23を備える。制御部23は、エンジン部24、状態決定部25、及びアプリケーション部26を備える。本実施形態においては、プログラムがプロセッサ11により実行されることによりこれらの機能が実現される。例えば実行されるプログラムは、記憶装置14に記憶されている又は通信装置15を介して受信したプログラムである。このように、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部又は全部を他のパートが有していてもよい。ただし、各機能の一部又は全部を実現するための電子回路等を構成することによりハードウェアによってもこれらの機能は実現してもよい。
 入力部21は、入力装置12を用いて構成されるものであり、電子装置10に対するユーザからの入力を受け付ける。本実施形態では、入力部21は、タッチパネル17へのユーザのタッチ操作を受け付けてタッチイベントを発生するものであり、タッチパネル17を備えるスマートフォンが一般的に有しているタッチ検出機能を用いることができる。
 表示部22は、ゲームアプリケーション画面を表示装置13に表示し、ユーザ操作に応じた画面を表示する。
 制御部23は、仮想コントローラを実現するものである。本実施形態では、制御部23は3層構造のアーキテクチャを採用し、エンジン部24、状態決定部25、及びアプリケーション部26が各層に対応する。例えば制御部23は、各層に対応する各プログラムにより構成されるプログラムがプロセッサ11により実行されることにより実現される。
 エンジン部24は、主として、タッチパネル17へのユーザのタッチ操作により発生したタッチイベントを用いてユーザが仮想空間内の操作対象オブジェクトの移動を制御するための速度因子及び角度を決定し、状態決定部25へ送出する。速度因子は、操作対象オブジェクトの速さを決定するための値である。本実施形態では、操作対象オブジェクトが操作対象キャラクタであるため、速度因子は、更に、歩くや走るなどの該キャラクタのモーションを決定するための値である。角度は、操作対象オブジェクトの移動方向を決定するための値である。エンジン部24の角度決定方法は、例えば特願2018-094656号に記載されている方法を用いるため、本明細書では説明を省略する。
 状態決定部25は、主として、エンジン部24から送出された速度因子を用いて、操作対象オブジェクトの移動状態を決定し、速度因子及び移動状態をアプリケーション部26へ送出する。
 アプリケーション部26は、ゲーム内の動作等を実装する、具体的なゲームアプリケーションに対応する。ゲームアプリケーションは、一般的なゲームアプリケーションと同様にして、フレームレートが定められ、例えばフレームレートに対応する時間ごとに、メインプログラムのメインループを処理する。フレームレートは、一般的に30fps(フレーム毎秒)又は60fpsである。ただし、アプリケーション部26は、ユーザの操作に応じて操作対象オブジェクトを動作させる入力支援アプリケーション又はシミュレーションアプリケーションに対応するものとすることができる。
 エンジン部24は、タッチパネル17へのユーザの操作により発生したタッチイベントに基づいて取得される第1の軸の値及び第2の軸の値により示されるデータポイントを、記憶装置14内の第1のバッファに格納する。ここで、タッチイベントは、ユーザがタッチパネル17へ指を接触したとき(touchstart)、ユーザがタッチパネル17に指を接触させたまま動かしたとき(touchmove)、ユーザがタッチパネル17から指を離したとき(touchend)などに発生する。
 エンジン部24は、タッチイベントが発生するときに、タッチイベントを取得する。エンジン部24は、タッチイベントを取得するとき、タッチパネル17上の静電容量が変化した位置に対応する、2つの変数からなる数値の組(x、y)を取得して、第1のバッファに格納する。当該2つの変数からなる数値の組のデータは、タッチイベントに付随してエンジン部24が取得するものであり、第1の軸の値及び第2の軸の値により示されるデータポイントに対応するものである。
 本実施形態では、説明の便宜上、第1の軸及び第2の軸を以下のとおり定める。図3は、本実施形態の第1の軸及び第2の軸からなる座標軸を示す図である。第1の軸は、略長方形であるタッチパネル17の短辺と実質的に平行な横軸(x軸)である。第2の軸は、タッチパネル17の長辺と実質的に平行な縦軸(y軸)である。タッチパネル17上の位置は、第1の軸(x軸)及び第2の軸(y軸)により座標(x、y)として表される。したがって、本実施形態では、データポイントの座標(x、y)は、タッチパネル17上の位置に対応し、エンジン部24は、当該座標(x、y)を、データポイントとして第1のバッファに保持する。図3に示す座標設定は、一例であり、電子装置10が実装するプログラムにより、上記例示と異なるように設定することができる。
 エンジン部24は、既定の処理時間ごとに、第1のバッファに保持された1又は複数のデータポイントをデータポイント列として格納する。本実施形態では、エンジン部24は、フレームの時間(フレーム間の時間)ごとに、当該データポイント列を、記憶装置14内の第2のバッファに保持する。フレームの時間F(秒)は、ゲームを実行するためのフレームレートに対応する時間であり、例えばフレームレートが30fpsの場合、Fは1/30秒である。
 エンジン部24がi番目のフレームにおいて保持したデータポイント列P(i)は、各データポイント
Figure JPOXMLDOC01-appb-I000001
により表される。P(i)が含む各データポイントは、i番目のフレームの時間内に第1のバッファに保持されたデータポイントである。各データポイントPi,k(k=1~m)のx座標の値及びy座標の値は(xi,k,yi,k)で表される。各データポイントは、Pi,1、Pi,2、…、Pi,mの順番に第1のバッファに格納された時間が早いものとする。エンジン部24は、i-1番目のP(i-1)を保持してから1フレームの時間F(秒)経過後にP(i)を保持し、更に1フレームの時間経過後にP(i+1)を保持する。変数mは、P(i)が含むデータポイントの数であるため、P(i)に応じて異なる。
 エンジン部24は、第2のバッファに保持されているデータポイント列のうち既定の保持時間を超えたデータポイント列の保持を終了する。例えばエンジン部24は、データポイント列のデータの保持を終了する場合、該データを削除してもよいし、該データを無効化してもよいし、又は該データに保持を終了したことを示すフラグを関連付けて適宜削除するようにしてもよい。例えばエンジン部24は、第2のバッファに格納するデータポイントの寿命を指定する変数Dを定める。変数Dにより指定される時間が既定の処理時間に対応し、本実施形態ではフレームの時間に対応する。例えばエンジン部24は、データポイント列P(i)を保持した時間tiと対応付けて該データポイント列P(i)を第2のバッファに保持する。エンジン部24は、一のデータポイント列P(i)を第2のバッファに格納すると、該データポイント列P(i)が格納されてからの経過時間Tを監視し、継続的に変数Dと比較する。エンジン部24は、監視したデータポイント列P(i)の経過時間Tが変数Dを超えたとき、該データポイント列P(i)の第2のバッファへの保持を終了する。エンジン部24は、保持した時間tiを用いて、経過時間Tを算出することができる。
 本実施形態では、エンジン部24は、5フレームに対応する時間5F(秒)、一のデータポイント列P(i)を第2のバッファに保持する。したがって、エンジン部24は、5つのデータポイント列を保持することになる。エンジン部24は、新しいデータポイント列から順番にP(5)、P(4)、P(3)、P(2)、P(1)となるように5つのデータポイント列を保持する。したがって、エンジン部24が5フレームに対応するデータポイント列を保持する場合、P(5)が最新の保持したデータポイント列となる。エンジン部24は、新たにデータポイント列を保持する場合、新たなデータポイント列をP(5)として保持し、P(i)(1≦i≦4)をP(i+1)のデータで置き換える。このときエンジン部24は、既定の保持時間を超えたP(1)の保持を終了する。
 1つの好適な例では、エンジン部24は、フレームの時間ごとに、データポイント列として、x座標の値とy座標の値を分けて保持する。エンジン部24が保持するx座標の値の集合Xとy座標の値の集合Yは、各々式(1)、式(2)のとおりである。
Figure JPOXMLDOC01-appb-I000002
                              (1)
Figure JPOXMLDOC01-appb-I000003
                              (2)
ここで、nは、エンジン部24が第2のバッファに保持しているデータポイント列の数であり、フレーム数に対応する。本実施形態では、エンジン部24は5フレームに対応する時間5F(秒)データポイント列を保持するため、経過時間に応じて、n=1、n=2、n=3、n=4、n=5、n=5、…n=5となる。したがって、5フレームに対応する時間5F(秒)経過後は、n=5となる。また、最も新しく保持したデータポイント列P(n)のx座標の値がxn,0,…xn,mであり、最も新しく保持したデータポイント列P(n)のy座標の値がyn,0,…yn,mである。なお、エンジン部24がデータポイント列を保持する時間に応じて、nの最大値は異なる値となる。
 エンジン部24は、保持されたデータポイント列のうち最新のデータポイント列における変位速さvnの、該最新のデータポイント列より前に保持されたデータポイント列における変位速さv1~vn-1の平均値に対する偏りに基づいて、速度因子を決定する。好ましくは、エンジン部24は、保持されたデータポイント列のうちの一のデータポイント列における変位速さvi(i=1~n)の、該一のデータポイント列より前に保持されたデータポイント列における変位速さv1~vi-1の平均値に対する偏りに基づいて、速度因子を決定する。ここで、変位速さviの変位速さv0~vi-1の平均値に対する偏りは、例えば変位速さviの変位速さv0~vi-1の平均値からの偏り(偏差)である。なお、変位速さv1~vi-1の平均値は、i=1の場合は0とし、i=2の場合はv1とする。
 エンジン部24は、決定した速度因子を状態決定部25へ出力する。エンジン部24は、状態決定部25へ直接出力せずに、状態決定部25が参照する記憶装置14内のメモリ領域に決定した速度因子を格納してもよい。
 具体的には、エンジン部24は、以下のように速度因子を算出する。速度因子は、以下のように定義されたCumulative Pointwize Deviation関数(CPD関数)の出力値である。CPD関数は、式(3)により算出する。エンジン部24は、CPD関数の出力値を状態決定部25へ出力する。
Figure JPOXMLDOC01-appb-I000004
                              (3)
ここで、nは、エンジン部24が第2のバッファに保持しているデータポイント列の数である。
 viは、i番目のデータポイント列における変位速さ、又はi番目のフレームにおける変位速さである。変位速さは、対象となるフレームの時間におけるタッチポイントの集合(データポイントの集合)から算出されたユーザの指の移動速度に対応する。1つの例では、エンジン部24は、第2のバッファに保持されているデータポイント列におけるデータポイントの変位に基づいて、該データポイント列におけるデータポイントの変位速さを決定する。1つの例では、エンジン部24が、データポイント列としてx座標の値とy座標の値を分けて保持する場合、エンジン部24は、第2のバッファに保持されているデータポイント列におけるx座標の値の変位及びy座標の値の変位に基づいて、変位速さを決定する。1つの例では、エンジン部24は、第2のバッファに保持されているデータポイント列において時系列的に隣接するデータポイントの変位量、及び該データポイント列が含むデータポイントの数量に基づいて、変位速さを決定する。
 具体的には、変位速さは、式(4)により算出する。
Figure JPOXMLDOC01-appb-I000005
                              (4)
ここで、αは、ディスプレイのピクセル密度DPI(Dot-Per-Inch)に対応する係数としての0以上の実数であり、一般的には1である。βは、積算重みであり、大きくすることにより突発的な変化を変位速さに反映しやすくなり、小さくすることにより突発的な変化を変位速さに反映しにくくなる。P(i)がデータポイントを含まない場合、エンジン部24は、変位速さviを算出せず、例えばvi=0と設定する。P(i)がデータポイントを1つのみ含む場合も、エンジン部24は、変位速さviを同様に算出せず、例えばvi=0と設定する。
 avgi-1(v)は、i番目のフレームの直前までの変位速さviの平均である。avgi-1(v)は、式(5)により算出する。
Figure JPOXMLDOC01-appb-I000006
                              (5)
ここで、i=1の場合は、直前までの変位速さが存在しないため、avgi-1(v)=0となる。
 状態決定部25は、エンジン部24が決定した速度因子に基づいて、タッチパネル17に表示される操作対象オブジェクトの移動状態を決定する。本実施形態では、操作対象オブジェクトは、操作対象キャラクタであり、状態決定部25が決定する移動状態は、操作対象キャラクタが歩く状態及び走る状態のいずれか1つである。
 1つの例では、状態決定部25は、以下のように定義されたclassify関数の出力値である。classify関数は、式(6)により算出する。
Figure JPOXMLDOC01-appb-I000007
                              (6)
classify関数は、CPD関数の出力値が、閾値τ以下のときは歩き(walk)と判定し、CPD関数の出力値が閾値τより大きいときは走り(run)と判定する関数である。例えばclassify関数は、閾値τ以下のときは「0」を出力し、閾値τより大きいときは「1」を出力する。状態決定部25は、CPD関数の出力値及びclassify関数の出力値をアプリケーション部26へ出力する。状態決定部25は、アプリケーション部26へ直接出力せずに、アプリケーション部26が参照するメモリ領域にCPD関数の出力値及びclassify関数の出力値を格納してもよい。
 アプリケーション部26は、電子装置10上で起動されたアプリの機能を有し、当該アプリによるサービスの提供を行う。1つの好適な例では、アプリケーション部26は、状態決定部25から出力されたCPD関数の出力値及びclassify関数の出力値を、具体的な操作対象キャラクタのモーションなどに変換するものであり、一般的なゲームアプリに実装されている機能である。例えばアプリケーション部26は、状態決定部25から出力されたCPD関数の出力値をそのまま操作対象キャラクタの移動する速さに変換し、classify関数の出力値を操作対象キャラクタの移動状態(歩く又は走る)に変換する。本実施形態では、アプリケーション部26の機能は、電子装置10にインストールされたネイティブアプリにより実現される。
 図4、図5は、電子装置10により制御される操作対象キャラクタ50の一例を示す図である。図4は、操作対象キャラクタ50が歩いている状態を示し、図5は、操作対象キャラクタ50が走っている状態を示す。電子装置10は、データポイントの集合からCPD関数及びclassify関数の出力を求め、該出力に基づいて、歩かせる又は走らせるなどの操作対象キャラクタ50のモーションを制御する。
 エンジン部24による、式(3)に示すCPD関数を用いた速度因子算出の実施例を以下に説明する。n=5のとき、CPD関数は、式(7)により表される。
Figure JPOXMLDOC01-appb-I000008
                              (7)
例えば、ユーザが意図的に指を早く動かした場合、必然的に指が一定の時間加速することになる。この場合、式(7)におけるv1~v5の値は全体的に大きくなるため、CPD関数はより大きな値を出力することとなる。一方、ユーザが意図的に指を早く動かしていない場合、例えば式(7)におけるv1~v5のいずれか1つの値が大きくなる。この場合、CPD関数は、v1~v5の値による演算に対して1/5(1/n)を乗算することにより平準化するため、極端に大きな値を出力しない。このように、5フレームに対応する時間5F(秒)経過後においては、CPD関数の出力値は、意図的に指を加速し続けている場合に大きな値となり、意図的に加速しないときは大きな値とならない。
 図6は、本発明の一実施形態の電子装置10による速度因子を決定する処理のフローチャートである。電子装置10は、フレームレートに対応するフレームの時間ごとに本処理を実行する。本フローチャートが実行されている間、エンジン部24は、発生したタッチイベントからデータポイントを取得して第1のバッファに格納しているものとする。ただし、本フローチャートの処理は、一定時間ごとに実行されれば、フレームの時間ごとでなくてもよい。
 ステップ101で、エンジン部24は、1フレームの間に取得した座標(データポイント)をデータポイント列P(i)として第2のバッファに保持する。このとき、エンジン部24は、保持するデータポイント列P(i)に、格納後の経過時間をミリ秒で示すTと、第2のバッファに格納できる時間(保持寿命)をミリ秒で示す変数Dを関連付ける。
 続いてステップ102で、エンジン部24は、第2のバッファに保持されているデータポイント列P(i)のうち、経過時間Tが変数D以上であるデータポイント列P(i)の保持を終了する。
 続いてステップ103で、式(3)~(5)を用いて、速度因子を決定する。ステップ104で、本フローチャートは、例えばゲームアプリケーションが終了するなどにより終了しない限り、ステップ101へ戻る。本フローチャートが終了すると、エンジン部24は、第2のバッファに保持するデータポイント列をすべて削除する。
 次に、本発明の実施形態による電子装置10の主な作用効果について説明する。本実施形態では、タッチパネル17上で指をスワイプさせたとき、例えば100msなどの極めて短い時間に6回以上のタッチイベントが発生するという投影型静電容量方式タッチパネルの特徴を利用している。電子装置10が実装するソフトウェアのシステムアーキテクチャは、エンジン部24、状態決定部25、アプリケーション部26が第1層、第2層、第3層に各々対応する3層構造をとり、第3層は、例えばゲームアプリケーションに対応する。
 第1層は、既定の処理時間ごとに、例えば既定の処理時間としてゲームアプリケーションにおけるフレームの時間ごとに、発生する複数のタッチイベントの集合(データポイントの集合)から、式(3)~(5)を用いてCPD関数を算出する。第1層は、CPD関数の出力値を、速度因子として、第2層へ出力する。第2層は、継続的に出力される速度因子を第3層へ出力するとともに、該速度因子を用いて、既定の処理時間ごとに、例えば操作対象キャラクタが歩く又は走るかを示す移動状態を第3層へ出力する。移動状態は、式(6)に示すclassify関数を用いて出力される。第3層は、第2層から出力されたCPD関数の出力値をそのまま操作対象キャラクタの移動する速さに変換し、classify関数の出力値を操作対象キャラクタの移動状態(歩く又は走る)に変換する。
 第1層が第2のデータバッファにデータポイント列を保持し始めたとき、データポイント列を格納するフレーム数を示すnは、経過時間に応じて、n=1、n=2…と増加する。第1層がデータポイント列を保持する時間が経過した後は、nは最大値で固定される。CPD関数は、各フレームの変位速さが、その直前のフレームまでの変位速さの平均値よりも大きい値を保持するときに、より大きな値を出力する。したがって、ユーザが意図的に指を早く動かした場合、必然的に指が一定の時間加速することになるため、CPD関数はより大きな値を出力することとなる。一方で、タッチパネル17と指の接触状況により、1フレームの時間のみ変位速さが大きくなった場合、CPD関数は、1/nを乗算することにより平準化されるため、特にnが最大値のときには極端に大きな値を出力することがない。このように、CPD関数の出力値は、意図的に指を加速し続けている場合に大きな値となり、意図的に加速しないときは大きな値をとらないため、電子装置10は、ユーザの直感的な操作に対応させて操作対象キャラクタ50の移動状態を決定することが可能となる。更に、CPD関数は偏差を用いることで、ユーザごとの指を動かす速さの癖や個人差を吸収するため、電子装置10は、CPD関数を用いることにより、意図的な加速のみを検出することが可能となる。
 また第1層が第2のデータバッファにデータポイント列を保持し始めたとき、n=1、n=2…とnは取りうる値の中で比較的小さな値となり、1/nを乗算することによる影響が少ない。そのため、電子装置10は、CPD関数を用いることにより、ユーザが入力した後の1フレーム目から即座に、操作対象キャラクタ50の移動状態を決定することが可能となる。例えば、ユーザが勢い良く指を動かせば、電子装置10は即座に操作対象キャラクタ50を走っている状態にすることができる。一方で、ユーザが徐々に指を加速させる動作でも、電子装置10は、加速の継続時間に応じた重みを積算するCPD関数を用いて毎フレーム移動状態を判定することから、操作対象キャラクタ50を歩いている状態から走っている状態へ移行させることができる。更に、CPD関数による判定は、経過フレーム数に応じて認識精度が上昇するため、1フレーム目で歩きと走りの識別ができない場合でも、2フレーム目や3フレーム目で識別できるようになる。
 また本実施形態では、第1層は極めて短い時間に発生するタッチイベントを用いてフレームレートごとに速度因子を算出し続ける構成であるため、いずれの層も、過去のタッチ座標を基準点として用いずに、操作対象キャラクタの移動する速さを算出することが可能となる。このように、本実施形態では、電子装置10は、従来技術における仮想コントローラで使用されていた、開始点(開始座標)や終了点(終了座標)といった点という空間的な概念を使用せずに速さを算出する。
 また本実施形態では、従来技術における仮想コントローラ、すなわち基準座標と現在の指示座標との間の位置関係によって得られるベクトルを用いた仮想コントローラとは異なり、基準座標の概念がないため、基準座標を定める仮想コントローラよりも高い応答性を提供することが可能である。特に操作対象キャラクタの方向転換操作を行う場合、方向転換前とは大きく異なる方向にユーザがタッチパネル17上の操作を行ったとしても、現在の指示座標が基準座標に近づくという概念そのものがないため、ユーザの意図した操作内容に素早く応答して操作対象キャラクタのモーションに反映させることができる。また上記のように構成されることにより、スマートフォンで操作するユーザに対して片手での操作を可能とすることができる。これにより、ユーザが従来技術における仮想ジョイスティックの操作を行うにあたって、常に基準座標を意識する必要があり、片手での操作が難しい場合があるという問題点を解消することができる。このように、本実施形態では、より高速で直感的な操作を可能とする仮想コントローラを実現している。
 また本実施形態では、電子装置10は、従来技術における仮想コントローラと異なり、基準座標からの指の移動距離に応じた入力ではないため、指の移動量がより少ない操作により、ユーザが意図する操作を実現することが可能となる。したがって、従来技術と比較して、より小さい実装面積で実現することが可能となる。例えば、タッチパネル17の大きさに関わらず、同一の操作性を実現することが可能となる。
 また、本実施形態の電子装置10が提供する仮想コントローラの技術は、スワイプ操作に伴う指の移動速度と加速の継続時間からのモーション制御という、これまでにない観点からキャラクタのモーション制御を数理的にモデル化しているため、幅広いゲームジャンルに適用可能である。また、数理モデルに基づいてすべての動作を数値制御しており、式(4)に示すβの値などの設定値を変更することで色々なモーション制御を作り出すことができる。
 上記の作用効果は、特に言及が無い限り、他の実施形態や他の実施例においても同様である。
 本発明の他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムや該プログラムを格納したコンピュータ読み取り可能な記憶媒体とすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現する方法とすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムをコンピュータに供給することができるサーバとすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現する仮想マシンとすることもできる。
 以下に本発明の実施形態の変形例について説明する。以下で述べる変形例は、矛盾が生じない限りにおいて、適宜組み合わせて本発明の任意の実施形態に適用することができる。
 1つの変形例では、状態決定部25が決定する移動状態は、操作対象キャラクタが歩く状態、早く歩く状態及び走る状態のいずれか1つである。この場合、classify関数は、式(8)により算出する。
Figure JPOXMLDOC01-appb-I000009
                              (8)
classify関数は、CPD関数の出力値が、閾値t1以下のときは歩き(walk1)と判定し、閾値t1より大きく閾値t2より小さいときは早歩き(walk2)と判定し、閾値t2より大きいときは走り(run)と判定する関数である。例えばclassify関数は、閾値t1以下のときは「0」を出力し、閾値t1より大きく閾値t2以下のときは「1」を出力し、閾値t2より大きいときは「2」を出力する。状態決定部25は、CPD関数の出力値及びclassify関数の出力値をアプリケーション部26へ出力する。状態決定部25は、アプリケーション部26へ直接出力せずに、アプリケーション部26が参照するメモリ領域にCPD関数の出力値及びclassify関数の出力値を格納してもよい。このように、移動状態は、操作対象キャラクタが歩く状態及び走る状態を含む複数の状態とすることができ、classify関数は、設定した閾値に応じていずれか1つの移動状態を判定するものであればよい。
 1つの変形例では、エンジン部24が、状態決定部25の代わりに、移動状態を決定し、アプリケーション部26へ出力する。
 1つの変形例では、エンジン部24は、CPD関数を算出する際に参照するため、決定した変位速さviを、記憶装置14内の第3のバッファに保持する。エンジン部24は、第3のバッファに保持する変位速さの数量が既定量を超える場合、保持されている変位速さのうち最初に保持された変位速さの保持を終了する。例えば、エンジン部24は、変位速さのデータの保持を終了する場合、該データを削除してもよいし、該データを無効化してもよいし、又は該データに保持を終了したことを示すフラグを関連付けて適宜削除するようにしてもよい。例えば、エンジン部24は、最大で5フレームに対応する変位速さviを保持する。エンジン部24は、新しい変位速さから順番にv5、v4、v3、v2、v1となるように5つの変位速さを保持する。したがって、エンジン部24が5フレームに対応する変位速さを保持する場合、v5が最新の保持したデータポイント列となる。エンジン部24は、新たに変位速さを保持する場合、新たな変位速さをv5として保持し、vi(1≦i≦4)をvi+1のデータで置き換えるとともに、v1の保持を終了する。
 1つの変形例では、アプリケーション部26の機能は、電子装置10にインストールされたWebアプリにより実現される。この場合、電子装置10と通信するサーバが、アプリケーション部26の一部又は全部をWebページとして電子装置10へ送信し、Webアプリは、アプリケーション部26が実行する処理を電子装置10上で実行するとともに、当該サーバとデータの送受信を行う。
 1つの変形例では、入力装置12と表示装置13は、別の位置に配置される別個の形態である。この場合、入力装置12は、タッチパネル又は投影型静電容量方式タッチパネルと同等の機能を有するデバイスである。表示装置13は、プロセッサ11の制御に従って、アプリケーション画面などを電子装置10のユーザに表示するものであればよく、例えば液晶ディスプレイ、有機ELを用いたディスプレイやプラズマディスプレイなどである。
 以上に説明した処理又は動作において、あるステップにおいて、そのステップではまだ利用することができないはずのデータを利用しているなどの処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。
10 電子装置
11 プロセッサ
12 入力装置
13 表示装置
14 記憶装置
15 通信装置
16 バス
17 タッチパネル
21 入力部
22 表示部
23 制御部
24 エンジン部
25 状態決定部
26 アプリケーション部
50 操作対象キャラクタ

Claims (10)

  1.  タッチパネルを備える電子装置において実行されるプログラムであって、該電子装置に、
     前記タッチパネルへのユーザの操作により発生したタッチイベントに基づいて取得される第1の軸の値及び第2の軸の値により示される1又は複数のデータポイントを、既定の処理時間ごとに、データポイント列として保持するステップと、
     保持されているデータポイント列におけるデータポイントの変位に基づいて、該データポイント列におけるデータポイントの変位速さを決定し、保持されたデータポイント列のうちの最新のデータポイント列における該変位速さの、該最新のデータポイント列より前に保持されたデータポイント列における該変位速さの平均値に対する偏りに基づいて、前記ユーザが仮想空間内の操作対象オブジェクトの移動を制御するための速度因子を決定するステップと、
     を実行させるプログラム。
  2.  前記データポイント列として保持するステップは、
     保持されている前記データポイント列のうち既定の保持時間を超えた前記データポイント列の保持を終了する、請求項1に記載のプログラム。
  3.  前記速度因子を決定するステップは、
     保持されたデータポイント列のうちの一のデータポイント列における前記変位速さの、該一のデータポイント列より前に保持されたデータポイント列における前記変位速さの平均値に対する偏りに基づいて、前記速度因子を決定する、請求項1又は2に記載のプログラム。
  4.  前記データポイント列として保持するステップは、1又は複数のデータポイントを、前記第1の軸の値及び前記第2の軸の値ごとに第1の軸の列及び第2の軸の列として保持し、
     前記速度因子を決定するステップは、保持した前記データポイント列における前記第1の軸の列の値の変位及び前記第2の軸の列の値の変位に基づいて、該データポイント列における前記変位速さを決定する、請求項1から3のいずれか1項に記載のプログラム。
  5.  前記速度因子を決定するステップは、保持した前記データポイント列において時系列的に隣接するデータポイントの変位量、及び該データポイント列が含むデータポイントの数量に基づいて、該データポイント列における前記変位速さを決定する、請求項1から4のいずれか1項に記載のプログラム。
  6.  前記第1の軸及び前記第2の軸は、前記タッチパネルの長辺及び短辺と平行である、請求項1から5のいずれか1項に記載のプログラム。
  7.  前記既定の処理時間は、ゲームを実行するためのフレームレートに対応する時間であり、
     前記プログラムは、前記電子装置に、
     前記速度因子に基づいて、前記タッチパネルに表示される前記操作対象オブジェクトの移動状態を決定するステップを更に実行させる、請求項1から6に記載のプログラム。
  8.  前記操作対象オブジェクトは、操作対象キャラクタであり、
     前記移動状態は、前記操作対象キャラクタが歩く状態及び走る状態を含む、請求項7に記載のプログラム。
  9.  タッチパネルを備える電子装置であって、
     前記タッチパネルへのユーザの操作により発生したタッチイベントに基づいて取得される第1の軸の値及び第2の軸の値により示される1又は複数のデータポイントを、既定の処理時間ごとに、データポイント列として保持し、
     保持されているデータポイント列におけるデータポイントの変位に基づいて、該データポイント列におけるデータポイントの変位速さを決定し、
     保持されたデータポイント列のうちの最新のデータポイント列における前記変位速さの、該最新のデータポイント列より前に保持されたデータポイント列における前記変位速さの平均値に対する偏りに基づいて、前記ユーザが仮想空間内の操作対象オブジェクトの移動を制御するための速度因子を決定する、
     電子装置。
  10.  タッチパネルを備える電子装置において実行される方法であって、
     前記タッチパネルへのユーザの操作により発生したタッチイベントに基づいて取得される第1の軸の値及び第2の軸の値により示される1又は複数のデータポイントを、既定の処理時間ごとに、データポイント列として保持するステップと、
     保持されているデータポイント列におけるデータポイントの変位に基づいて、該データポイント列におけるデータポイントの変位速さを決定し、保持されたデータポイント列のうちの最新のデータポイント列における該変位速さの、該最新のデータポイント列より前に保持されたデータポイント列における該変位速さの平均値に対する偏りに基づいて、前記ユーザが仮想空間内の操作対象オブジェクトの移動を制御するための速度因子を決定するステップと、
     を有する方法。
PCT/JP2019/037523 2018-09-26 2019-09-25 プログラム、電子装置、及び方法 WO2020067124A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201980077416.4A CN113168281B (zh) 2018-09-26 2019-09-25 计算机可读介质、电子装置和方法
US17/212,290 US20210205698A1 (en) 2018-09-26 2021-03-25 Program, electronic device, and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-180372 2018-09-26
JP2018180372A JP6560801B1 (ja) 2018-09-26 2018-09-26 プログラム、電子装置、及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/212,290 Continuation US20210205698A1 (en) 2018-09-26 2021-03-25 Program, electronic device, and method

Publications (1)

Publication Number Publication Date
WO2020067124A1 true WO2020067124A1 (ja) 2020-04-02

Family

ID=67614925

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/037523 WO2020067124A1 (ja) 2018-09-26 2019-09-25 プログラム、電子装置、及び方法

Country Status (4)

Country Link
US (1) US20210205698A1 (ja)
JP (1) JP6560801B1 (ja)
CN (1) CN113168281B (ja)
WO (1) WO2020067124A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6389581B1 (ja) * 2018-05-16 2018-09-12 株式会社Cygames プログラム、電子装置、及び方法
JP2021067990A (ja) * 2019-10-18 2021-04-30 株式会社Cygames 処理装置、処理方法及びプログラム
JP7143364B2 (ja) * 2020-05-15 2022-09-28 株式会社Cygames 方法、プログラム、及び電子装置
JP6862597B1 (ja) * 2020-07-14 2021-04-21 株式会社Cygames 方法、プログラム、及び電子装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0689143A (ja) * 1992-09-08 1994-03-29 Mitsubishi Electric Corp タッチパネル入力装置
JPH086724A (ja) * 1994-06-16 1996-01-12 Hitachi Ltd 指示位置の座標補正方法と装置および手ぶれ補正機能を有するプレゼンテーション装置
JP2005352531A (ja) * 2004-06-08 2005-12-22 Toshiba Corp ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
JP2011034485A (ja) * 2009-08-05 2011-02-17 Seiko Epson Corp 情報端末装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101313273B (zh) * 2006-04-27 2013-04-10 埃派克森微电子有限公司 控制用户界面上光标速度的方法
US20130002600A1 (en) * 2011-07-01 2013-01-03 Mccracken David Harold Touch sensitive device adaptive scaling
KR102408940B1 (ko) * 2013-10-01 2022-06-14 퀀텀 인터페이스, 엘엘씨 전기 디바이스와 소프트웨어 프로그램을 제어하는 장치 및 이를 제조하고 이용하는 방법
US10632369B2 (en) * 2016-06-03 2020-04-28 International Business Machines Corporation Method to adjust avatar attributes using fitness metrics
CN106178504B (zh) * 2016-06-27 2019-07-05 网易(杭州)网络有限公司 虚拟对象运动控制方法及装置
US10838615B2 (en) * 2016-10-09 2020-11-17 Shenzhen Royole Technologies Co., Ltd. Method for moving graphical pointer, system for moving graphical pointer, and touch display device
US10623460B2 (en) * 2016-11-18 2020-04-14 Google Llc Streaming application environment with remote device input synchronization
CN108509139B (zh) * 2018-03-30 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的移动控制方法、装置、电子装置及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0689143A (ja) * 1992-09-08 1994-03-29 Mitsubishi Electric Corp タッチパネル入力装置
JPH086724A (ja) * 1994-06-16 1996-01-12 Hitachi Ltd 指示位置の座標補正方法と装置および手ぶれ補正機能を有するプレゼンテーション装置
JP2005352531A (ja) * 2004-06-08 2005-12-22 Toshiba Corp ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
JP2011034485A (ja) * 2009-08-05 2011-02-17 Seiko Epson Corp 情報端末装置

Also Published As

Publication number Publication date
JP2020052635A (ja) 2020-04-02
CN113168281A (zh) 2021-07-23
US20210205698A1 (en) 2021-07-08
CN113168281B (zh) 2024-01-05
JP6560801B1 (ja) 2019-08-14

Similar Documents

Publication Publication Date Title
WO2020067124A1 (ja) プログラム、電子装置、及び方法
JP6389581B1 (ja) プログラム、電子装置、及び方法
US8797283B2 (en) Method and apparatus for performing user-defined macros
US9262012B2 (en) Hover angle
CN110215685B (zh) 游戏中的虚拟对象控制方法及装置、设备、存储介质
US10073609B2 (en) Information-processing device, storage medium, information-processing method and information-processing system for controlling movement of a display area
WO2009119716A1 (ja) 情報処理システム、情報処理装置、方法及びプログラム
JP6775076B1 (ja) 方法、プログラム、及び電子装置
JP7471782B2 (ja) プログラム、電子装置、及び方法
JP7250451B2 (ja) プログラム、電子装置、及び方法
JP6911216B1 (ja) 方法、プログラム、及び電子装置
JP6824369B1 (ja) 方法、プログラム、及び電子装置
JP7143364B2 (ja) 方法、プログラム、及び電子装置
JP7105574B2 (ja) プログラム及びゲーム装置
JP2019134880A (ja) プログラム及びゲーム装置
JP2017012618A (ja) タッチ操作によりゲームを進行するコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19866132

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19866132

Country of ref document: EP

Kind code of ref document: A1