CN109982756B - 信息处理程序、信息处理方法和信息处理装置 - Google Patents

信息处理程序、信息处理方法和信息处理装置 Download PDF

Info

Publication number
CN109982756B
CN109982756B CN201780069195.7A CN201780069195A CN109982756B CN 109982756 B CN109982756 B CN 109982756B CN 201780069195 A CN201780069195 A CN 201780069195A CN 109982756 B CN109982756 B CN 109982756B
Authority
CN
China
Prior art keywords
state
instruction
operations
series
skill
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780069195.7A
Other languages
English (en)
Other versions
CN109982756A (zh
Inventor
中原显介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Publication of CN109982756A publication Critical patent/CN109982756A/zh
Application granted granted Critical
Publication of CN109982756B publication Critical patent/CN109982756B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明向游戏的游戏者提供用于实现具有高自由度的操作的技术。触摸操作管理单元(61)以规定时间间隔检测是否对触摸操作输入单元(26)进行了触摸操作,并管理触摸操作。状态检测单元(71)检测由游戏者进行的滑动操作的各种状态。移动指示接受单元(81)接受由触摸操作管理单元(61)管理的各种触摸操作中的移动指示。技能指示接受单元(82)接受由触摸操作管理单元(61)检测到的各种触摸操作中的技能相关指示。另外,技能指示接受单元(82)根据在滑动从第二状态转变为第三状态时的触摸位置的移动方向来接受规定方向的指定。显示图像生成单元(53)生成用于显示各种控制器的显示图像。显示控制单元(62)执行控制以在显示单元(27)上显示各种游戏的显示图像。

Description

信息处理程序、信息处理方法和信息处理装置
技术领域
本发明涉及一种信息处理程序、信息处理方法和信息处理装置。
背景技术
近来,在诸如智能电话的移动终端上执行的游戏中,在移动终端上显示的图像是影响游戏普及的重要因素之一。
因此,在开发用于改善呈现给游戏者的GUI(图形用户界面)的操作的容易性的技术方面已经进行了各种尝试。
作为用于该目的的技术,存在例如用于提供如下的用户界面的技术,该用户界面在触摸屏被操作时通过显示如同弹性体那样表现的对象而表现为如同游戏者操作具有弹性的智能电话那样(例如,参见专利文献1)。
利用上述技术,可以在触摸操作期间不从触摸屏释放手指的情况下发出多个动作指示(例如,游戏角色的移动、技能发动等)。
现有技术文献
专利文献
专利文献1:日本特开2016-48571
发明内容
发明要解决的问题
然而,利用上述技术,仅可以在触摸操作期间不从触摸屏释放手指的情况下发出多个动作指示,而无法独立地发出多个动作指示。
换句话说,利用包括上述技术的现有技术,难以发出同时进行多个操作的指示(例如,“正持有的武器从剑变为指向45°斜方向的弓并且发动技能”的复杂操作)。
特别地,在动作游戏等的领域中,游戏实时进行并不罕见,并且存在来自游戏的游戏者的对开发如下用户界面的需求:即使在智能电话等上,也使得能够仅以在短时间段内可进行的简单操作来进行具有较高自由度的操作。
鉴于上述情形而做出了本发明,并且实现了对游戏的游戏者而言具有较高自由度的操作。
用于解决问题的方案
为了实现上述目的,根据本发明的方面的信息处理程序使计算机执行控制处理,所述计算机用于执行控制以在显示介质上显示包括虚拟空间和在所述虚拟空间内能够移动的移动对象的图像,所述控制处理包括:
检测步骤,用于检测使一个或多个物体与所述显示介质接触或接近的操作;
判断步骤,用于基于与所述显示介质接触或接近的所述一个或多个物体的数量的管理状态、以及与该数量相对应的物体在所述显示介质中的各个位置,来判断是接受作为与所述移动对象在所述虚拟空间内的移动相关的指示的第一指示,还是接受与所述移动对象相关并且至少包括类型选择和方向指定的指示作为第二指示;以及
接受步骤,用于根据所述判断步骤中的判断结果来接受所述第一指示或所述第二指示,
其中,所述检测步骤包括用于将从第一状态开始、经由第二状态、至第三状态为止的一系列操作检测为作为所述第二指示而接受的操作的步骤,其中,在所述第一状态下,所述一个或多个物体中的、根据所述管理状态和所述位置所识别出的所述第二指示用的物体开始了与所述显示介质的接触或接近,在所述第二状态下,在维持该物体与所述显示介质的接触或接近的情况下移动该物体,以及在所述第三状态下,该物体与所述显示介质的接触或接近的形式发生改变,以及
所述接受步骤包括如下的步骤,该步骤用于根据在检测到所述第一状态时的所述第二指示用的物体的位置来接受一种或多种类型中的对规定类型的选择,根据在发生从所述第二状态向所述第三状态的转变时的该物体的移动方向来接受对规定方向的指定,以及在检测到所述第三状态之后的规定定时接受针对所述规定类型的沿所述规定方向的所述第二指示的执行的指示。
还提供了与根据本发明的方面的上述信息处理程序相对应的信息处理方法和信息处理装置,作为根据本发明的方面的信息处理方法和信息处理装置。
发明的效果
本发明使得可以向游戏的游戏者提供用于实现具有较高自由度的操作的技术。
附图说明
图1是示出根据本发明的实施例的游戏者终端的硬件结构的示例的框图。
图2是示出图1中的游戏者终端的功能结构的示例的功能框图。
图3是示出在图2中的游戏者终端上所执行的游戏执行处理的结果的示例的图。
图4是示出在图2中的游戏者终端上所执行的游戏执行处理的流程的流程图。
图5是示出在图2中的游戏者终端上所执行的移动处理的流程的流程图。
图6是示出在图2中的游戏者终端上所执行的技能发动处理的流程的流程图。
图7是示出作为与图3中的游戏执行处理不同的示例的、在图2中的游戏者终端上所执行的游戏执行处理的结果的示例的图。
图8是示出作为与图3或图7中的游戏执行处理不同的示例的、在图2中的游戏者终端上所执行的游戏执行处理的结果的示例的图。
图9是示出作为与图3或图7中的游戏执行处理不同的示例的、在图2中的游戏者终端上所执行的游戏执行处理的结果的示例的图。
具体实施方式
以下将参考附图来说明本发明的实施例。
应当理解,以下被简称为“图像”的情况应当被解释成包括“运动图像”和“静止图像”这两者。
此外,“运动图像”应当被解释成包括分别通过以下第一处理至第三处理来显示的图像。
第一处理是指用于针对平面图像(2D图像)中的对象(例如,游戏角色)的各动作、在随着时间的经过而连续地在一系列静止图像之间进行切换的同时显示静止图像的系列的处理。具体地,二维动画、即类似于所谓的翻书动画(book flipping)的处理是第一处理的示例。
第二处理是指用于预先设置与立体图像(基于3D模型的图像)中的对象(例如,游戏角色)的各动作相对应的运动并且在随着时间的经过而改变该运动的同时显示该对象的处理。具体地,三维动画是第二处理的示例。
第三处理是指用于准备与对象(例如,游戏角色)的各动作相对应的视频(即,运动图像)并且随着时间的经过而绘制该视频的处理。
图1示出根据本发明的实施例的游戏者终端1的硬件结构的框图。
游戏者终端1由智能电话等实现。
游戏者终端1包括CPU(中央处理单元)21、ROM(只读存储器)22、RAM(随机存取存储器)23、总线24、输入/输出接口25、触摸操作输入单元26、显示单元27、输入单元28、存储单元29、通信单元30和驱动器31。
CPU 21根据记录在ROM 22中的程序或从存储单元29加载到RAM 23中的程序来执行各种处理。
RAM 23还适当地存储CPU 21执行各种处理时所需的数据等。
CPU 21、ROM 22和RAM 23经由总线24彼此连接。输入/输出接口25也连接到总线24。触摸操作输入单元26、显示单元27、输入单元28、存储单元29、通信单元30和驱动器31连接到输入/输出接口25。
触摸操作输入单元26例如包括层叠在显示单元27上的用于检测进行触摸操作的位置的坐标的电容或电阻(压敏)位置输入传感器。
这里的触摸操作是指使物体与触摸操作输入单元26接触或接近。与触摸操作输入单元26接触或接近的物体是例如游戏者的手指或触笔。在下文中,进行触摸操作的位置将被称为“触摸位置”,并且触摸位置的坐标将被称为“触摸坐标”。
另外,存在同时进行多个触摸操作的情况,诸如在第一触摸操作完成之前进行下一触摸操作的情况等。同时进行的这种多个触摸操作将被称为“多触摸”。本实施例中的触摸操作输入单元26支持多触摸。
显示单元27由诸如液晶显示器等的显示器实现,并显示诸如与游戏相关的图像等的各种图像。
如上所述,在本实施例中,触摸屏包括触摸操作输入单元26和显示单元27。
应当理解,在本说明书中,所谓的“显示介质”并不仅仅意味着显示单元27,而意味着包括触摸操作输入单元26和显示单元27的“触摸屏”。
这里,触摸屏上的各种触摸操作的示例包括滑动和轻拂。
然而,滑动和轻拂这两者的共同之处在于:这两者各自是从第一状态(物体已经开始与显示介质接触或接近)起、经由第二状态(在维持与显示介质接触或接近的情况下改变物体的位置)、至第三状态(物体从与显示介质接触或接近释放)为止的一系列操作。因此,在本说明书中,将这样的一系列操作统称为“滑动”。
换句话说,在本说明书中提及的“滑动”是除了通常被称为滑动的内容以外还包括上述轻拂等的广义概念。
输入单元28由各种硬件按钮等构成,并使得能够根据游戏者进行的指示操作来输入各种信息。
存储单元29由DRAM(动态随机存取存储器)等实现,并存储各种数据。
通信单元30控制经由包括因特网的网络(未示出)与其它装置(服务器(未示出)和其它游戏者终端(未示出))执行的通信。
根据需要设置驱动器31。将由磁盘、光盘、磁光盘或半导体存储器等实现的可移动介质32适当加载在驱动器31中。根据需要将通过驱动器31从可移动介质32读取的程序安装在存储单元29中。类似于存储单元29,可移动介质32还可以存储存储单元29中所存储的各种数据。
如图1所示,通过游戏者终端1的各种硬件和各种软件之间的协作,可以在游戏者终端1上执行各种游戏。
也就是说,当执行各种游戏时,游戏者终端1提供如图2所示的功能结构。
图2是示出图1中的游戏者终端1的功能结构的示例的功能框图。
如图2所示,游戏者终端1的CPU 21具有用户界面控制单元51、接受单元52和显示图像生成单元53的功能。
尽管未示出,但是假设CPU 21具有用于执行根据本实施例的游戏的功能块(游戏执行单元)的功能。
用户界面控制单元51执行在游戏执行时对触摸屏上的用户界面的控制。
用户界面控制单元51设置有触摸操作管理单元61和显示控制单元62。
触摸操作管理单元61以规定时间间隔检测是否已经对触摸操作输入单元26进行了触摸操作,并且在已经进行了触摸操作的情况下,检测触摸操作的触摸位置(触摸坐标)。
这里,如上所述,触摸操作输入单元26支持利用多个手指等的触摸操作,即多触摸。
因此,在触摸操作管理单元61已经检测到多个触摸操作的情况下,触摸操作管理单元61独立地管理所检测到的多个触摸操作各自的内容。具体地,例如,每当触摸操作管理单元61检测到触摸操作时,触摸操作管理单元61识别触摸操作的类型并向该触摸操作分配管理编号。以这种方式,触摸操作管理单元61通过单独将所识别出的类型和所分配的管理编号彼此相关联来管理多个触摸操作中的各个触摸操作。这使得可以管理多个触摸操作的类型、时间顺序等。
这里,对于单个触摸操作(由管理编号唯一识别的单个触摸操作),以“规定时间间隔”顺次检测触摸位置。如上所述,使用以这种方式检测到的多个触摸位置来计算单个触摸操作(由管理编号唯一识别的单个触摸操作)的触摸位置的改变方向、改变量等。
也就是说,检测触摸位置的“规定时间间隔”不受特别限制,只要可以进行这些计算即可。然而,在本实施例中,假设每次在触摸屏上显示帧时检测触摸位置,并且“规定时间间隔”是连续显示的两帧之间的时间间隔。
也就是说,在本实施例中,假设触摸位置的改变方向是基于最新帧中的触摸位置(下文中称为“最新帧触摸位置”)与最新帧的前一帧中的触摸位置(下文中称为“紧前帧触摸位置”)之间的差来确定的。
触摸操作管理单元61设置有状态检测单元71。
在由触摸操作管理单元61检测到的触摸操作是滑动的情况下,状态检测单元71用于检测滑动的各种状态(滑动的第一状态至第三状态之一)。
显示控制单元62执行稍后详细描述的用以在显示介质上显示包括正在执行的游戏的内容的图像(下文中称为“游戏图像”)的控制。
接受单元52接受由触摸操作管理单元61检测到的各种触摸操作作为游戏内指示。
这里,假设本实施例中使用的游戏包括由规定的全局坐标系构成的虚拟三维空间(以下简称为“虚拟空间”)和作为虚拟空间内的可移动对象(移动对象)的游戏角色。在这种情况下,游戏者可以通过进行规定触摸操作来发出与游戏角色的移动相关的指示(下文中称为“移动指示”)。另外,通过进行另一规定触摸操作(如稍后将描述的,在本实施例中为滑动),游戏者可以在技能发动之前发出一系列指示(下文中称为“技能相关指示”),即,用以选择一种或多种技能中的任何技能并指定虚拟空间内的规定方向作为技能的发动方向的指示。
另外,在本实施例中,技能是指通过使用与游戏角色相对应的对象和其它对象所表示的各种动作,并且这些动作不同于诸如用剑攻击、用剑连续攻击、用箭射击、用箭连续射击、用魔法发起攻击、用魔法发起连续攻击、在角色前面拿着盾、用盾击打等的游戏角色的简单动作。尽管CPU 21通过与游戏程序协作来执行用于表示游戏中的多种技能的处理来控制计算机,但是CPU 21控制计算机以根据要表示的技能执行不同的处理。因此,选择技能对应于从多种控制中选择一种控制。
为了控制上述处理,接受单元52设置有用于接受表示游戏角色的移动指示的触摸操作的移动指示接受单元81以及用于接受表示游戏角色的技能相关指示的触摸操作(滑动)的技能指示接受单元82。
这里,在本实施例中,假设采用滑动作为表示游戏角色的技能相关指示的触摸操作。在这种情况下,技能指示接受单元82根据检测到第一触摸操作时的触摸位置(下文中称为“触摸起始点”)、触摸操作的顺序等来接受一种或多种技能中的规定类型的选择。
例如,假设对于一种或多种技能中的各种技能,在显示介质的显示面上定义用于接受针对该种技能的技能相关指示的开始的特定区域(下文中称为“技能选择区域”)。具体地,例如,假设第一技能选择区域与第一种技能相关联,并且第二技能选择区域与第二种技能相关联。在这种情况下,在检测到滑动的第一状态时的触摸位置包括在第一技能选择区域中的情况下,选择第一种类型作为规定技能类型。另一方面,在检测到滑动的第一状态时的触摸位置包括在第二技能选择区域中的情况下,选择第二种类型作为规定技能类型。
当滑动从第二状态转变成第三状态时,技能指示接受单元82根据触摸位置的移动方向来接受规定方向的指定。这里,规定方向意味着技能的发动方向。
具体地,例如,技能指示接受单元82根据滑动已经转变成第三状态时显示的帧中的触摸位置(最新帧触摸位置)与紧前帧中的触摸位置(紧前帧触摸位置)之间的差来计算触摸位置的改变方向,并且在利用触摸位置的改变方向作为规定方向的情况下,接受与规定方向相关的指示。
另外,技能指示接受单元82在检测到滑动的第三状态之后的规定定时接受与在所接受的规定方向上发动所接受的规定类型技能有关的指示。
显示图像生成单元53生成要在游戏者终端1的显示单元27上显示的游戏图像(例如,在本实施例中为包括虚拟空间和可以在虚拟空间内移动的游戏角色的游戏图像)的数据。
在本实施例中,该游戏图像可以包括用于进行用于发出游戏角色的移动指示的操作的软件按钮(下文中称为“移动按钮”)以及用于进行用于发出游戏角色的技能相关指示的操作(滑动)的软件按钮(以下称为“技能按钮”)。
例如,技能按钮是针对各种技能设置的,并且在与该种技能相关联的技能选择区域内的位置作为初始位置的情况下被布置为在初始位置被保持一定时间段,直到进行用于发出游戏角色的技能相关指示的操作(滑动)为止。注意,如稍后将描述的图3的(b)中所述,技能按钮不是始终从开始就显示,并且可以被配置为使得当检测到滑动的第一状态时开始其显示。
表示所选技能的类型的技能按钮被布置在滑动的第二状态中的触摸位置。也就是说,在滑动的第二状态中,由于触摸位置逐渐移动,因此技能按钮也与触摸位置相关联地逐渐移动。
这同样适用于移动按钮的情况。
在这种情况下,除了表示当前触摸位置(最新帧触摸位置)的技能按钮之外,布置在紧前帧触摸位置的技能按钮(下文中称为“紧前位置按钮”)以浅色被保留在游戏图像上而不被删除,使得可以容易地在视觉上识别触摸位置的移动方向。
也就是说,如上所述,在滑动的状态从第二状态转变成第三状态时的游戏图像中,技能指示接受单元82接受从紧前位置按钮向着技能按钮的方向作为技能发动的方向(规定方向)。
接着,参考图3,将通过使用示例来描述使得图1中的游戏者终端1所执行的游戏进行的一系列处理步骤(下文中称为“游戏执行处理”)的第一实施例。
图3是示出在游戏者终端1上执行的游戏处理的结果的示例的图。
在本实施例中,尽管在游戏中使用各种三维形状的移动对象,但是在各移动对象中设置单独的局部坐标系,并且各局部坐标系中的坐标被转换为全局坐标系中的坐标并且被布置在虚拟空间中。作为这样的移动对象,在图3的示例中,表示要由游戏者操作的游戏角色的角色C1和表示要被攻击的游戏角色的角色C2被布置在虚拟空间中。另外,角色C1的移动意味着角色C1在全局坐标系中(即,在虚拟空间中)的坐标的改变。
这里,作为触摸操作的类型(下文中,适当地称为“操作类型”),本实施例中的触摸操作管理单元61至少识别并管理三种类型,即操作类型a、操作类型b和操作类型c。
也就是说,触摸操作的操作类型a是表示与角色C1的移动指示相关的触摸操作的类型。
触摸操作的操作类型b是表示与角色C1的技能相关指示相关的触摸操作的类型,其中该触摸操作的触摸起始点是技能选择区域之外的区域(例如,除显示上述技能按钮的区域之外的区域,以下称为“自由处理区域”)。
触摸操作的操作类型c是表示与角色C1的技能相关指示相关的触摸操作的类型,其中该触摸操作的触摸起始点是技能选择区域中的区域的内部(例如,显示上述技能按钮之一的区域)。
也就是说,当检测到触摸操作时,触摸操作管理单元61首先根据上述操作类型a至c来判断触摸操作的类型。然后,将与已经判断出操作类型的触摸操作与由触摸操作管理单元61分配的管理编号一起管理,直到触摸操作结束为止。
注意,在本实施例中,为了将向角色C1的移动指示与其它类型的指示区分开,为了方便而将用于与角色C1的移动不同的动作(与移动控制不同的控制)的指示统一定义为技能相关指示。然而,尽管操作类型b和操作类型c的触摸操作这两者都是与技能相关指示相对应的触摸操作,但是这些操作各自与相互不同类型的技能相关联。也就是说,可以说由于由操作类型b控制的处理和由操作类型c控制的处理这两者都不是移动处理,因此是相同类型的处理,但是在处理内容本身方面是相互不同的类型的处理。
在图3的示例中,采用移动按钮MP作为用于输入角色C1的移动指示的虚拟控制器。
根据游戏者对移动按钮MP的规定触摸操作,与角色C1的移动方向相关的一种或多种的量发生改变。这里,尽管改变的量的类型不受特别限制、只要改变的量的类型与移动有关即可,但是在本实施例中,假设了角色C1在虚拟空间内的全局坐标系中的变化,即,角色C1的移动量、移动方向、移动速度等。
另外,尽管从游戏者向移动按钮MP的规定指示的方法不受特别限制、只要它是触摸操作即可,但是在本实施例中采用滑动。
图3的(a)~(d)所示的技能按钮AP、技能按钮BP和技能按钮HP是用于针对角色C1的三种技能各自输入相互不同类型的技能相关指示的虚拟控制器。
注意,紧前位置按钮TP以浅色显示在滑动对象(即,移动按钮MP、技能按钮AP、技能按钮BP以及技能按钮HP之一)中的紧前触摸位置。
图3的(a)示出游戏中的角色C1移动的情形。
如图3的(a)所示,作为向游戏者显示的用户界面,技能按钮AP、技能按钮BP和技能按钮HP被布置在游戏图像中。
首先,将描述游戏者希望在游戏中移动角色C1并对显示单元27(显示介质)的显示画面上的自由处理区域进行触摸操作的情况,即进行上述操作类型的触摸操作的情况。
注意,自由处理区域是技能选择区域以外的区域。如上所述,技能选择区域是显示有用于技能发动的游戏画面中所显示的控制器的区域。在图3的示例中,技能选择区域是分别显示技能按钮AP、技能按钮BP和技能按钮HP的区域。
在这种情况下,当检测到游戏者的触摸操作时,触摸操作管理单元61基于触摸操作的触摸起始点来判断触摸操作的类型是否是操作类型c。
尽管未在图3的(a)中示出,但是在触摸操作的触摸起始点在技能选择区域内的情况下,判断为游戏者的触摸操作的类型是操作类型c。在这种情况下,无论触摸操作的顺序或定时如何,触摸操作都表示技能相关指示。
另一方面,如在图3的(a)的示例中,在触摸操作的触摸起始点在自由处理区域内的情况下,判断为触摸操作的类型不是操作类型c。在这种情况下,触摸操作管理单元61基于游戏者已经进行触摸操作的顺序或定时来判断触摸操作是表示移动指示还是技能相关指示。
另外,触摸操作管理单元61确认在检测到游戏者的触摸操作时是否存在已经管理的触摸操作(已经分配了管理编号的其它触摸操作)。
在判断为不存在正管理的其它触摸操作的情况下,触摸操作管理单元61如具有管理编号1那样开始管理所检测到的触摸操作。如上所述如同具有管理编号1那样管理的对自由处理区域的触摸操作是操作类型a的触摸操作。
移动指示接受单元81接受操作类型a的触摸操作作为移动指示。稍后将描述在触摸操作管理单元61检测到触摸操作时存在已经管理的触摸操作的情况的处理。
另外,在该示例中,移动按钮MP显示在触摸位置。游戏者可以在用他/她的手指H维持与移动按钮MP的接触的同时进行用于自由移动该移动按钮MP的操作(即,滑动的第二状态下的移动指示)。
如上所述,由于以规定时间间隔单独检测触摸位置,因此在各触摸位置的检测位置处显示移动按钮MP。因此,当触摸位置顺序改变时,游戏者在视觉上识别为如同移动按钮MP沿着改变中的触摸位置逐渐移动那样。
触摸位置的这种改变也作为对角色C1的与移动方向有关的指示给出,并且角色C1根据该指示移动。
也就是说,将根据在滑动的第二状态下手指H触摸的位置的改变而移动的移动按钮MP的运动和角色C1的运动彼此连动。
另外,在给出对角色C1的移动指示的情况下,可以同时指示角色C1的朝向。
例如,在图3的(a)中,在游戏者在显示画面上沿右方向滑动的情况下,基于通过沿右方向的滑动的指示来控制角色C1的移动,并且还同时基于右滑动方向来控制角色C1的“朝向”。
这里,当考虑形成角色C1的3D对象的特定面作为正面时,角色C1的朝向是正面面向的方向。然而,在本实施例中,通过形成角色C1的3D对象的中心用作轴的转动控制来进行对角色C1的朝向的控制。
另外,角色C1的朝向也与技能的发动方向连动。另外,在与移动指示一起或独立于移动指示而发出技能相关指示的情况下,技能相关指示被赋予更高的优先级,并且角色C1的朝向基于对应于该技能相关指示的滑动而改变。也就是说,在移动指示接受单元81正在接受角色C1的移动指示期间,基于与移动指示相对应的滑动内容来控制角色C1的朝向,但是当技能指示接受单元82在该时间段期间接受了技能相关指示时,基于与技能相关指示相对应的滑动内容来控制角色C1的朝向。
图3的(b)示出游戏中的角色C1发动技能的情形。
在图3的(b)的示例中,假设图3的(a)中的操作正在继续,并且触摸操作管理单元61正在管理具有管理编号1的触摸操作(表示对角色C1的移动指示的操作类型a的触摸操作)。
继续图3的(a)中的状态,将描述游戏者希望使游戏中的角色C1发动技能A并对自由处理区域进行触摸操作的情况,即进行上述操作类型b的触摸操作的情况。
当检测到游戏者的触摸操作时,触摸操作管理单元61基于触摸操作的触摸起始点来判断触摸操作的类型是否是操作类型c。
在图3的(b)的示例中,由于触摸起始点在自由处理区域内,因此触摸操作不是操作类型c的触摸操作。
因此,确认在检测到游戏者的触摸操作时是否存在已经管理的触摸操作。
然后,在已经管理的触摸操作与移动指示有关的情况下,触摸操作管理单元61如具有管理编号2那样开始管理所检测到的触摸操作。如同具有管理编号2那样管理的对自由处理区域的触摸操作是操作类型b的触摸操作。
在图3的(b)的示例中,由于已经管理的触摸操作是用于指示移动的操作,因此技能指示接受单元82接受图3的(b)中的触摸操作作为技能相关指示。
技能指示接受单元82接受操作类型b的触摸操作作为技能相关指示。
注意,在已经管理的触摸操作与技能相关指示相关的情况下,由于该技能相关指示的接受被无效,因而技能指示接受单元82不接受该技能相关指示。这里,无效意味着仅在技能发动期间暂时不接受与触摸操作相关的指示中的技能相关指示。
作为上述处理的结果,在图3的(b)的示例中,当游戏者开始触摸操作时,显示用于发动技能A的技能按钮AMP。
游戏者操作技能按钮AMP以发出技能A的技能相关指示。
也就是说,通过游戏者使手指H与技能A的技能选择区域的内部接触(除了布置技能按钮AP的位置之外),滑动的状态转变成第一状态,技能按钮AMP显示在手指H的接触位置上,并且技能A被选择为要发动的技能。
游戏者在保持手指H与技能按钮AMP接触的同时移动技能按钮AMP。这使滑动转变成第二状态。在图3的(b)的示例中,游戏者在滑动的第二状态下在保持手指H与技能按钮AMP接触的同时沿规定方向移动技能按钮AMP,并且在规定位置处将手指H从触摸屏释放。也就是说,滑动的状态从第二状态转变成第三状态。
从紧挨在该转变时刻之前由手指H触摸的位置(紧前帧触摸位置,即紧前位置按钮TP的位置)向着在该转变时刻由手指H触摸的位置(最新帧触摸位置,即技能按钮AMP的位置)的方向被设置为技能的发动方向。结果,角色C1向着存在于发动方向上的角色C2发动技能A。
注意,类似于上述情况,在游戏者在显示画面上沿右方向滑动的情况下,可以基于通过沿右方向的滑动的指示来发出向角色C1的技能相关指示,并且还同时基于右滑动方向来控制角色C1的“朝向”。
另外,类似于上述情况,由于角色C1的朝向也与技能的发动方向连动,因此在与移动指示一起或独立于移动指示而发出技能相关指示的情况下,技能相关指示被赋予更高的优先级,并且角色C1的朝向改变。这使得游戏者可以容易地识别技能发动的方向,而不管角色C1在全局坐标系中移动的方向如何。
图3的(c)示出游戏中的角色C1发动与图3的(b)的相同类型的技能但进行不同操作的情况的示例。
将描述游戏者希望使游戏中的角色C1发动技能A并且在技能的技能发动区域(例如,图3中的技能按钮AP)中进行触摸操作的情况,即进行上述操作类型c的触摸操作的情况。
与上述情况类似,当检测到游戏者的触摸操作时,触摸操作管理单元61基于触摸操作的触摸起始点来判断触摸操作的类型是否是操作类型c。
在图3的(c)的示例中,由于游戏者在技能选择区域内进行了触摸操作,因此无论触摸操作的顺序或定时如何,触摸操作都表示技能相关指示。在技能选择区域内进行的这种触摸操作是操作类型c的触摸操作。
注意,即使在这种情况下,与上述情况类似,触摸操作管理单元61确认在检测到游戏者的触摸操作时是否存在已经管理的触摸操作。
然后,在已经管理的触摸操作与技能相关指示无关的情况下,触摸操作管理单元61如具有管理编号1或2那样管理所检测到的触摸操作。技能指示接受单元82接受该触摸操作作为技能相关指示。
另一方面,在已经管理的触摸操作与技能相关指示相关的情况下,由于技能相关指示的接受被无效,因而技能指示接受单元82不接受该触摸操作作为技能相关指示。
在图3的(c)的示例中,游戏者操作技能按钮AP以向角色C1发出技能A的技能相关指示。
也就是说,游戏者使手指H与保持在初始位置的技能按钮AP接触(触摸技能按钮AP)。这使得滑动转变成第一状态,并且技能A被选择为要发动的技能。
游戏者在保持手指H与技能按钮AP接触的同时移动技能按钮AP。这使得滑动转变成第二状态。
然后,在滑动的第二状态下,游戏者在保持手指H与技能按钮AP接触的同时移动技能按钮AP,并且在规定位置从触摸屏释放手指H。也就是说,滑动的状态从第二状态转变成第三状态。
从紧挨在该转变时刻之前由手指H触摸的位置(图3的(c)中未示出的紧前帧触摸位置,即紧前位置按钮TP的位置)向着在该转变时刻由手指H触摸的位置(最新帧触摸位置,即技能按钮AMP的位置)的方向被设置为技能的发动方向。结果,角色C1向着存在于发动方向上的角色C2发动技能A。
接着,将参考图3的(d)来描述技能无法发动时间段。
在图3的(d)的示例中,各种技能中的技能A处于技能无法发动时间段(下文中称为“冷却时间”)。
在本实施例中,一旦技能发动,就可以设置技能无法再次发动直到经过一定时间长度为止的时间段,即,所谓的冷却时间。
图3的(d)中的示例示出技能A发动之后的情形,并且数字9显示在技能按钮AP上。
这表示技能A的剩余冷却时间是9秒,并且游戏者在剩余的9秒内无法发动技能A(游戏者无法滑动技能按钮AP)。
另一方面,技能按钮HP周围的突出显示区域(图3的(d)中的阴影区域)表示直到可以发动必杀技为止的时间。
高亮区域随着时间的经过而增加,并且当技能按钮HP周围的整个区域成为高亮区域时,可以随时发动必杀技。
注意,图3的(d)表示角色C1可以随时发动必杀技。
如上所述,在本实施例中,可以设置在发动技能或必杀技之后的冷却时间,并且可以适当地向游戏者通知技能可以发动之前的时间段(时间)。
另外,对于向游戏者通知技能可以发动之前的时间的方式没有限制,并且可以使用任何方法。
接着,将参考图4来描述由图2中的游戏者终端1所执行的游戏执行处理。
也就是说,图4是用于说明游戏执行处理的流程的示例的流程图。
在步骤S1中,用户界面控制单元51的显示控制单元62在显示单元27上显示游戏图像。
在步骤S2中,触摸操作管理单元61判断是否已经检测到操作类型a或操作类型c的触摸操作。
在尚未检测到操作类型a或操作类型c的触摸操作的情况下,步骤S2中的确定判断结果为“否”,处理返回到S2,并且重复步骤S2中的判断处理。
在重复步骤S2中的判断处理时,在检测到操作类型a或操作类型c的触摸操作的情况下,在随后的步骤S2中的判断结果为“是”,并且处理进入步骤S3。
在步骤S3中,触摸操作管理单元61判断在步骤S2中检测到的触摸操作的类型是否是操作类型a。
在检测到的触摸操作是操作类型c的情况下,步骤S3中的判断结果为“否”,并且处理进入步骤S8。稍后将描述步骤S8及其之后的处理。
另一方面,在检测到的触摸操作是操作类型a的情况下,步骤S3中的判断结果为“是”,并且处理进入步骤S4。
在步骤S4中,移动指示接受单元81接受在步骤S2中检测到的触摸操作作为移动指示并开始移动处理。稍后将参考图5详细描述移动处理。
在步骤S5中,触摸操作管理单元61判断新检测到的触摸操作的类型是否是操作类型b。
在新检测到的触摸操作的类型是操作类型b的情况下,步骤S5中的判断结果为“是”,并且处理进入步骤S6。
在步骤S6中,技能指示接受单元82接受在步骤S5中新检测到的触摸操作作为技能相关指示,并且通过新显示技能按钮等来开始用于发动自由处理区域用的技能的技能发动处理。稍后将参考图6详细描述技能发动处理。
另一方面,在新检测到的触摸操作的类型是操作类型c的情况下,步骤S5中的判断结果为“否”,并且处理进入步骤S7。
在步骤S7中,技能指示接受单元82接受在步骤S5中新检测到的触摸操作作为技能相关指示,并且开始用于发动技能选择区域用的技能的技能发动处理(与步骤S6中的技能类型不同的技能类型)。稍后将参考图6详细描述技能发动处理。
当步骤S6或S7中的上述处理结束时,处理返回到步骤S2,并且重复后续处理。
如上所述,在步骤S2中新检测到的触摸操作是操作类型c的情况下,步骤S3中的判断结果为“否”,并且处理进入步骤S8。在这种情况下,执行以下一系列处理步骤。
也就是说,在步骤S8中,技能指示接受单元82接受在步骤S2中检测到的触摸操作作为技能相关指示,并且开始用于发动技能选择区域用的技能的技能发动处理。稍后将参考图6详细描述技能发动处理。
在步骤S9中,触摸操作管理单元61判断新检测到的触摸操作的类型是否是操作类型a。
在检测到的触摸操作是操作类型a的情况下,步骤S9中的判断结果为“是”,并且处理进入步骤S10。
在步骤S10中,移动指示接受单元81接受在步骤S9中新检测到的触摸操作作为移动指示,并开始移动处理。稍后将参考图5详细描述移动处理。
另一方面,在检测到的触摸操作是操作类型c的情况下,步骤S9中的判断结果为“否”,并且处理进入步骤S11。
在步骤S11中,由于技能相关指示的接受被无效,因而技能指示接受单元82不接受与在步骤S9中新检测到的触摸操作有关的技能相关指示。
当步骤S10或S11中的上述处理结束时,处理返回到步骤S2,并且重复后续处理。
接着,将参考图5来描述由图2中的游戏者终端1所执行的移动处理。
也就是说,图5是用于说明移动处理的流程的示例的流程图。
在步骤S21中,移动指示接受单元81判断是否已经接受图4中的游戏执行处理的移动指示。
在移动指示接受单元81尚未接受移动指示的情况下,步骤S21中的判断结果为“否”,并且处理返回到S21。
另一方面,在移动指示接受单元81已经接受移动指示的情况下,步骤S21中的判断结果为“是”,并且处理进入S22。
在步骤S22中,移动指示接受单元81基于状态检测单元71的检测结果来判断表示移动指示的触摸操作的触摸位置是否已经改变。
在状态检测单元71检测到触摸位置未改变的情况下,步骤S22中的判断结果为“否”,并且处理返回到步骤S21。
另一方面,在状态检测单元71检测到触摸位置已改变的情况下,步骤S22中的判断结果为“是”,并且处理进入步骤S23。
在步骤S23中,显示图像生成单元53生成游戏中的游戏角色根据触摸位置的改变而移动的游戏图像的数据,并且显示控制单元62在显示单元27上显示游戏图像。
接着,将参考图6来描述由图1中的游戏者终端1所执行的技能发动处理。
也就是说,图6是用于说明技能发动处理的流程的示例的流程图。
在步骤S41中,技能指示接受单元82判断是否已经接受图4中的游戏执行处理的技能相关指示。
在技能指示接受单元82尚未接受技能相关指示的情况下,步骤S41中的判断结果为“否”,并且处理返回到S41。
另一方面,在移动指示接受单元82已接受技能相关指示的情况下,步骤S41中的判断结果为“是”,并且处理进入S42。
在步骤S42中,技能指示接受单元82基于状态检测单元71的检测结果来判断技能指示的触摸位置是否已经改变。
在状态检测单元71未检测到触摸位置已经改变的情况下,步骤S42中的判断结果为“否”,并且处理返回到步骤S41。
另一方面,在状态检测单元71检测到触摸位置已经改变的情况下,步骤S42中的判断结果为“是”,并且处理进入步骤S43。
在步骤S43中,技能指示接受单元82根据在释放触摸操作时的触摸位置的移动方向,接受规定方向的指定并且发动沿规定方向的技能。
尽管以上已经描述了本发明的实施例,但是应该注意,本发明不限于上述实施例,并且在可以实现本发明的目的的范围内的修改、改进等也包括在本发明内。
例如,用于移动指示或技能相关指示的方法不特别局限于上述实施例。因此,将参考图7至9来描述采用与上述实施例不同的方法的一些其它实施例。
这里,将参考图7来描述与上述实施例不同的实施例。
图7是示出在图2中的游戏者终端1上执行的作为与图3中的游戏执行处理不同的示例的游戏执行处理的结果的示例的图。
在图7的状态下,用作游戏中的游戏角色的角色GC处于等待状态。另外,在图7的示例中,触摸屏的显示面的大致左半部分被定义为自由处理区域,并且大致右半部分(除了预先布置技能按钮SA1和技能按钮SA2的区域之外)被定义为技能A和技能A2的技能选择区域。
也就是说,在上述实施例中,基于检测到触摸操作的位置和顺序来判断触摸操作的类型,而在图4的示例中,触摸操作的类型是仅基于检测到触摸操作的位置来判断的。
当检测到游戏者的触摸操作时,触摸操作管理单元61根据与检测到触摸操作的位置有关的信息来判断触摸操作的属性(例如,判断触摸操作是与移动相关的触摸操作还是与技能相关的触摸操作等),并进行对这些触摸操作中的各触摸操作的管理。
从该状态起,当使游戏者的手指等与触摸屏接触时,滑动的状态转变成第一状态。
这里,在检测到的触摸操作是用于移动指示的操作的情况下,滑动作为移动指示而被接受。另一方面,在已经在技能选择区域中开始所检测到的触摸操作的情况下,滑动作为技能相关指示而被接受。
另外,将参考图8和9来描述与上述实施例不同的实施例。
图8和9是示出在图2中的游戏者终端1上执行的作为与图3或图7中的游戏执行处理不同的示例的游戏执行处理的结果的示例的图。
在图8和9中的示例中,无论游戏者是否已经进行了触摸操作,用于接受移动指示的控制器MB(下文中称为“移动按钮MB”)都显示在规定的基准位置。
例如,在游戏者对移动按钮MB进行触摸操作并且开始触摸操作的情况下,即,在触摸操作管理单元61已经检测到触摸操作时的触摸位置在显示移动按钮MB的区域(下文中称为“移动选择区域”)内的情况下,触摸操作管理单元61将触摸操作判断为用于移动指示的触摸操作,并且移动指示接受单元81接受该触摸操作作为移动指示。
游戏者可以通过在保持与移动按钮MB的接触(触摸)的同时进行滑动操作来自由地向角色GC发出移动指示。
也就是说,通过根据游戏者触摸的位置的改变方向而将位置改变的移动按钮MB与角色GC的运动连动,游戏者可以在虚拟空间中自由地向角色GC发出移动指示。
另外,意图发出技能A2的发动指示的游戏者触摸布置在图9中的初始位置IP处的技能按钮SA2。在这种情况下,第一状态被检测为滑动状态。
这里,技能按钮SA2是用于发出技能A2的技能相关指示的技能按钮,并且其初始位置IP在技能A2的技能选择区域内。因此,在这种情况下,接受技能A2的技能相关指示。
另外,类似于上述情况,对技能相关指示的接受被无效。
如图9所示,游戏者在保持手指与技能按钮SA2的接触的同时移动技能按钮SA2。这使得滑动转变成第二状态。
然后,游戏者在滑动的第二状态下保持手指与技能按钮SA2的接触的同时移动技能按钮SA2,并在规定位置NT处将手指从触摸屏释放。也就是说,滑动的状态从第二状态转变成第三状态。
从紧挨在该转变时刻之前由手指触摸的位置(紧前帧触摸位置,即,紧前位置按钮TSA2的位置FP)向着在该转变时由手指触摸的位置(最新帧触摸位置,即,技能按钮SA2的位置NT)的方向被设置为技能A2的发动方向。结果,角色GC向发动方向发动技能A2。
另外,例如,在上述多个实施例中,对移动选择区域的触摸操作被定义为表示移动指示的操作,并且对技能选择区域的触摸操作被定义为表示技能相关指示的操作。
然而,由对各区域的触摸操作定义的动作指示不限于移动指示或技能相关指示。例如,可以针对诸如特定动作(例如跳跃等)的任何动作定义指示。
除了上述说明之外,所定义的区域不限于移动选择区域和技能选择区域,而是可以定义三个或更多个单独的区域,并且将动作指示与各个区域相关联。
例如,可以将游戏图像分离成三个操作区域,即上部、中部和下部区域,并将三个不同的指示与这三个区域相关联,使得这些指示用作游戏者发出动作指示的条件。
例如,在图3和7所示的实施例中,当首次检测到游戏者的触摸操作时,在用户界面上显示移动按钮(例如,图3的(a)中的移动按钮MP),但是可以与游戏者是否已经进行了触摸操作无关地从一开始就在用户界面上显示移动按钮。
在这种情况下,可以将显示(保持)移动按钮的区域定义为移动选择区域,并将所有其它区域定义为技能选择区域。
另外,在上述实施例中,技能按钮被布置为在初始位置被保持特定时间段,但是对于本实施例没有特别限制,并且例如,可以在首次检测到游戏者的触摸操作时显示技能按钮。
例如,在上述多个实施例中,当游戏者释放手指(或触笔等)时,发生滑动向另一状态的转变(具体地,从滑动的第三状态到达技能发动指示的状态)。但是将滑动转变成另一状态的条件不限于此条件。
另外,例如,在一段时间段内没有更新触摸操作(发生超时)的情况下,或者在游戏中发生某种情形变化的情况下,可以从一个状态转变成另一状态。
例如,在上述多个实施例中,没有描述在相同定时指示移动指示的方向和技能相关指示的方向的情况。然而,例如,可以通过向技能相关指示的方向赋予更高的优先级来控制游戏角色的朝向。
这使得用户可以容易地识别技能发动的方向。
例如,在上述多个实施例中,在重叠进行表示技能相关指示的触摸操作的情况下,使技能相关指示无效以不接受这些技能相关指示。然而,例如,可以接受后面执行的触摸操作处理作为技能相关指示,或者不仅使技能相关指示无效而且使移动指示无效。
这里,在上述实施例中,在游戏者进行上述多触摸的情况下,触摸操作管理单元61管理这些触摸操作各自的顺序等。
与显示介质接触或接近的物体的数量的管理状态是指由触摸操作管理单元61管理的这种触摸操作的管理状态。
触摸操作管理单元61基于这样的管理状态和已经进行触摸操作的位置等来判断是否接受对游戏角色的移动指示或技能相关指示。
然而,如上所述,用于判断要接受的指示的方法不限于上述方法。例如,可以如图7至9所示的实施例那样自由地进行改变。
这里,例如,可以通过硬件或通过软件来执行上述一系列处理步骤。
换句话说,图2中的功能结构仅是示例,并且对该示例没有特别限制。
也就是说,信息处理系统设置有使得能够执行作为整体的上述一系列处理步骤的功能就足够了,并且用于实现该功能的功能块的选择不特别局限于图2中的示例。此外,功能块的位置不特别局限于图2中的位置,并且可以是任意设置的。
此外,可以仅通过硬件、仅通过软件、或者通过硬件和软件的组合来实现各功能块。
在通过软件来执行该一系列处理步骤的情况下,经由网络或从记录介质将构成软件的程序安装在计算机等上。
该计算机可以是嵌入专用硬件中的计算机。
可选地,该计算机可以是在将各种程序安装在计算机上的情况下能够执行各种功能的计算机,诸如服务器、或者通用智能电话或个人计算机等。
包括这种程序的记录介质是通过为了向游戏者提供程序而与设备的主体单元分离地分布的可移除介质(未示出)、向游戏者提供以嵌入形式位于设备的主体单元中的记录介质等来实现的。
在本说明书中,在记录介质上所记录的程序中所描述的步骤不仅可以包括按照时间顺序顺次执行的处理、而且还可以包括没有按时间顺序顺次执行的而是并列或分别执行的处理。
此外,在本说明书中,术语“系统”应当被解释成表示由多个装置或多个部件等构成的设备整体。
换句话说,应用本发明的信息处理程序可以以如下配置的包括根据图2中的上述实施例的信息处理系统的各种形式实现。
也就是说,应用本发明的信息处理程序是使得用于执行控制以在显示介质上显示包括虚拟空间和在所述虚拟空间内能够移动的移动对象的图像的的计算机来执行信息处理的信息处理程序就足够了,所述控制处理包括:
检测步骤(例如,图4中的步骤S2),用于检测使一个或多个物体与所述显示介质接触或接近的操作;
判断步骤(例如,图5中的步骤S21和图6中的步骤S41等),用于基于与所述显示介质接触或接近的所述一个或多个物体的数量的管理状态、以及与该数量相对应的物体在所述显示介质的各个位置,来判断是接受作为与所述移动对象在所述虚拟空间内的移动相关的指示的第一指示,还是接受与所述移动对象相关并且至少包括类型的选择和方向的指定的指示作为第二指示;以及
接受步骤(例如,图5中的步骤S22和图6中的步骤S42),用于根据所述判断步骤中的判断结果来接受所述第一指示或所述第二指示,
其中,所述检测步骤包括用于将从第一状态开始、经由第二状态、至第三状态为止的一系列操作检测为作为所述第二指示而接受的操作的步骤,其中,在所述第一状态下,开始了使所述一个或多个物体中的、根据所述管理状态和所述位置所识别出的所述第二指示用的物体与所述显示介质接触或接近,在所述第二状态下,在维持该物体与所述显示介质的接触或接近的情况下移动该物体,以及在所述第三状态下,该物体与所述显示介质的接触或接近的形式发生改变,以及
所述接受步骤包括如下的步骤,该步骤用于根据在检测到所述第一状态时的所述第二指示用的物体的位置来接受在一种或多种类型中的对规定类型的选择,根据在发生从所述第二状态向所述第三状态的转变时的该物体的移动方向来接受对规定方向的指定,以及在检测到所述第三状态之后的规定定时接受用于执行针对所述规定类型的沿所述规定方向的所述第二指示的指示。
这里,在所述接受步骤中,可以在所述第二状态期间使对所述类型的选择的接受无效。
因此,例如,由于在技能发动期间使新技能相关指示的接受无效,因此不会发出用于技能发动的重叠指示。
另外,所述信息处理程序还可以包括显示控制步骤,所述显示控制步骤用于执行控制以在所述显示介质上显示用于发出所述第一指示的第一控制器、以及在所述显示介质上显示用于发出所述第二指示的第二控制器。
这使得第一控制器和第二控制器能够显示在用户界面上,由此使得游戏者可以简单且容易地向游戏角色发出指示。
这里,所述显示控制步骤包括用于执行控制以在所述第二状态期间在所述物体的当前的第一位置处以及所述物体的在当前之前的规定定时的第二位置处分别显示所述第二控制器的步骤。
另外,所述接受步骤可以包括用于将发生从所述第二状态向所述第三状态的转变时的从所述第二位置向着所述第一位置的方向识别为所述规定方向并且接受对所识别出的所述规定方向的指定的步骤。
这使得游戏角色可以在移动等时沿规定方向发动技能,并且还使得游戏者可以通过单次滑动操作来发出各种动作指示。
另外,应用本发明的信息处理程序可以以如下配置的包括根据图2中的上述实施例的信息处理系统的各种形式来实现。
也就是说,应用本发明的信息处理装置是用于执行控制以在显示介质上显示包括虚拟空间和在所述虚拟空间内能够移动的移动对象的图像的信息处理装置,所述信息处理装置包括:
检测部件(例如,图2中的触摸操作管理单元61),用于检测使一个或多个物体与所述显示介质接触或接近的操作;
判断部件(例如,图2中的触摸操作管理单元61),用于基于与所述显示介质接触或接近的所述一个或多个物体的数量的管理状态、以及与该数量相对应的物体在所述显示介质的各个位置,来判断是接受作为与所述移动对象在所述虚拟空间内的移动相关的指示的第一指示,还是接受与所述移动对象相关并且至少包括类型的选择和方向的指定的指示作为第二指示;以及
接受部件(例如,图2中的移动指示接受单元81和技能指示接受单元82),用于根据所述判断部件的判断结果来接受所述第一指示或所述第二指示,
其中,所述检测部件包括用于将从第一状态开始、经由第二状态、至第三状态为止的一系列操作检测为作为所述第二指示而接受的操作的部件(例如,图2中的状态检测单元71),其中,在所述第一状态下,开始了使所述一个或多个物体中的、根据所述管理状态和所述位置所识别出的所述第二指示用的物体与所述显示介质接触或接近,在所述第二状态下,在维持该物体与所述显示介质的接触或接近的情况下移动该物体,以及在所述第三状态下,该物体与所述显示介质的接触或接近的形式发生改变,以及
所述接受部件包括如下的部件(例如,图2中的移动指示接受单元81和技能指示接受单元82),该部件用于根据在检测到所述第一状态时的所述第二指示用的物体的位置来接受在一种或多种类型中的对规定类型的选择,根据在发生从所述第二状态向所述第三状态的转变时的该物体的移动方向来接受对规定方向的指定,以及在检测到所述第三状态之后的规定定时接受用于执行针对所述规定类型的沿所述规定方向的所述第二指示的指示。
附图标记列表
1 游戏者终端
21 CPU
27 显示单元
51 用户界面控制单元
52 接受单元
53 显示图像生成单元
54 显示控制单元
61 触摸操作管理单元
62 显示控制单元
71 状态检测单元
81 移动指示接受单元
82 技能指示接受单元

Claims (7)

1.一种存储信息处理程序的计算机可读介质,所述信息处理程序用于使计算机执行控制处理,所述计算机用于执行控制以在显示介质上显示包括虚拟空间和在所述虚拟空间内能够移动的移动对象的图像,所述控制处理包括:
检测步骤,用于检测使一个或多个物体与所述显示介质接触或接近的操作;
判断步骤,用于基于与所述显示介质接触或接近的所述一个或多个物体的数量的管理状态、以及与该数量相对应的物体在所述显示介质中的各个位置,来判断是接受作为与所述移动对象在所述虚拟空间内的移动相关的指示的第一指示,还是接受与所述移动对象相关并且至少包括类型选择和方向指定的指示作为第二指示;以及
接受步骤,用于根据所述判断步骤中的判断结果来接受所述第一指示或所述第二指示,
其中,所述检测步骤包括用于将从第一状态开始、经由第二状态、至第三状态为止的一系列操作检测为作为所述第二指示而接受的操作的步骤,其中,在所述第一状态下,所述一个或多个物体中的、根据所述管理状态和所述位置所识别出的所述第二指示用的物体开始了与所述显示介质的接触或接近,在所述第二状态下,在维持该物体与所述显示介质的接触或接近的情况下移动该物体,以及在所述第三状态下,该物体与所述显示介质的接触或接近的形式发生改变,以及
所述接受步骤包括如下的步骤,该步骤用于根据在检测到所述第一状态时的所述第二指示用的物体的位置来接受一种或多种类型中的对规定类型的选择,根据在发生从所述第二状态向所述第三状态的转变时的该物体的移动方向来接受对规定方向的指定,以及在检测到所述第三状态之后的规定定时接受针对所述规定类型的沿所述规定方向的所述第二指示的执行的指示,
其中,在检测到多个物体与所述显示介质接触或接近的多个操作的情况下,独立地管理所检测到的所述多个操作各自的内容。
2.根据权利要求1所述的存储信息处理程序的计算机可读介质,其中,在所述接受步骤中,在所述第二状态期间使对所述类型的选择的接受无效。
3.根据权利要求1所述的存储信息处理程序的计算机可读介质,其中,所述信息处理程序使所述计算机执行还包括移动对象控制步骤的控制处理,在所述移动对象控制步骤中,在同时或重叠地接受所述第一指示和所述第二指示的情况下,根据所述第二指示中接受的对所述规定方向的指定来控制所述移动对象的朝向。
4.根据权利要求1所述的存储信息处理程序的计算机可读介质,其中,所述信息处理程序使得执行还包括显示控制步骤的控制处理,所述显示控制步骤用于执行控制以在所述显示介质上显示用于发出所述第一指示的第一控制器、以及在所述显示介质上显示用于发出所述第二指示的第二控制器。
5.根据权利要求4所述的存储信息处理程序的计算机可读介质,其中,所述显示控制步骤包括用于执行控制以在所述第二状态期间在所述物体的当前的第一位置处以及所述物体的在当前之前的规定定时的第二位置处分别显示所述第二控制器的步骤,以及
所述接受步骤包括用于将发生从所述第二状态向所述第三状态的转变时的从所述第二位置向着所述第一位置的方向识别为所述规定方向、并且接受对所识别出的所述规定方向的指定的步骤。
6.一种信息处理装置所执行的信息处理方法,所述信息处理装置用于执行控制以在显示介质上显示包括虚拟空间和在所述虚拟空间内能够移动的移动对象的图像,所述信息处理方法包括:
检测步骤,用于检测使物体与所述显示介质接触或接近的操作;
判断步骤,用于基于与所述显示介质接触或接近的一个或多个物体的数量的管理状态、以及与该数量相对应的物体在所述显示介质中的各个位置,来判断是接受作为与所述移动对象在所述虚拟空间内的移动相关的指示的第一指示,还是接受与所述移动对象相关并且至少包括类型选择和方向指定的指示作为第二指示;以及
接受步骤,用于根据所述判断步骤中的判断结果来接受所述第一指示或所述第二指示,
其中,所述检测步骤包括用于将从第一状态开始、经由第二状态、至第三状态为止的一系列操作检测为作为所述第二指示而接受的操作的步骤,其中,在所述第一状态下,所述一个或多个物体中的、根据所述管理状态和所述位置所识别出的所述第二指示用的物体开始了与所述显示介质的接触或接近,在所述第二状态下,在维持该物体与所述显示介质的接触或接近的情况下移动该物体,以及在所述第三状态下,该物体与所述显示介质的接触或接近的形式发生改变,以及
所述接受步骤包括如下的步骤,该步骤用于根据在检测到所述第一状态时的所述第二指示用的物体的位置来接受一种或多种类型中的对规定类型的选择,根据在发生从所述第二状态向所述第三状态的转变时的该物体的移动方向来接受对规定方向的指定,以及在检测到所述第三状态之后的规定定时接受针对所述规定类型的沿所述规定方向的所述第二指示的执行的指示,
其中,在检测到多个物体与所述显示介质接触或接近的多个操作的情况下,独立地管理所检测到的所述多个操作各自的内容。
7.一种信息处理装置,用于执行控制以在显示介质上显示包括虚拟空间和在所述虚拟空间内能够移动的移动对象的图像,所述信息处理装置包括:
检测部件,用于检测使一个或多个物体与所述显示介质接触或接近的操作;
判断部件,用于基于与所述显示介质接触或接近的所述一个或多个物体的数量的管理状态、以及与该数量相对应的物体在所述显示介质中的各个位置,来判断是接受作为与所述移动对象在所述虚拟空间内的移动相关的指示的第一指示,还是接受与所述移动对象相关并且至少包括类型选择和方向指定的指示作为第二指示;以及
接受部件,用于根据所述判断部件的判断结果来接受所述第一指示或所述第二指示,
其中,所述检测部件包括用于将从第一状态开始、经由第二状态、至第三状态为止的一系列操作检测为作为所述第二指示而接受的操作的部件,其中,在所述第一状态下,所述一个或多个物体中的、根据所述管理状态和所述位置所识别出的所述第二指示用的物体开始了与所述显示介质的接触或接近,在所述第二状态下,在维持该物体与所述显示介质的接触或接近的情况下移动该物体,以及在所述第三状态下,该物体与所述显示介质的接触或接近的形式发生改变,以及
所述接受部件包括如下的部件,该部件用于根据在检测到所述第一状态时的所述第二指示用的物体的位置来接受一种或多种类型中的对规定类型的选择,根据在发生从所述第二状态向所述第三状态的转变时的该物体的移动方向来接受对规定方向的指定,以及在检测到所述第三状态之后的规定定时接受针对所述规定类型的沿所述规定方向的所述第二指示的执行的指示,
其中,在检测到多个物体与所述显示介质接触或接近的多个操作的情况下,独立地管理所检测到的所述多个操作各自的内容。
CN201780069195.7A 2016-11-10 2017-11-07 信息处理程序、信息处理方法和信息处理装置 Active CN109982756B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016219538A JP6143934B1 (ja) 2016-11-10 2016-11-10 情報処理プログラム、情報処理方法、及び情報処理装置
JP2016-219538 2016-11-10
PCT/JP2017/040156 WO2018088408A1 (ja) 2016-11-10 2017-11-07 情報処理プログラム、情報処理方法、及び情報処理装置

Publications (2)

Publication Number Publication Date
CN109982756A CN109982756A (zh) 2019-07-05
CN109982756B true CN109982756B (zh) 2022-09-02

Family

ID=59012155

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780069195.7A Active CN109982756B (zh) 2016-11-10 2017-11-07 信息处理程序、信息处理方法和信息处理装置

Country Status (6)

Country Link
US (1) US10990274B2 (zh)
JP (1) JP6143934B1 (zh)
KR (1) KR102232032B1 (zh)
CN (1) CN109982756B (zh)
TW (1) TWI645337B (zh)
WO (1) WO2018088408A1 (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8814674B2 (en) * 2012-05-24 2014-08-26 Supercell Oy Graphical user interface for a gaming system
JP6581639B2 (ja) * 2017-11-06 2019-09-25 株式会社カプコン ゲームプログラム、およびゲームシステム
WO2019198427A1 (ja) 2018-04-10 2019-10-17 良成 松田 仮想通貨管理システム及び仮想通貨管理プログラム
JP7221686B2 (ja) * 2018-12-28 2023-02-14 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法及びプログラム
CN109568957B (zh) * 2019-01-10 2020-02-07 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
JP6588177B1 (ja) * 2019-03-07 2019-10-09 株式会社Cygames 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
JP2021029291A (ja) * 2019-08-16 2021-03-01 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理装置
CN110559658B (zh) * 2019-09-04 2020-07-28 腾讯科技(深圳)有限公司 信息交互方法、装置、终端以及存储介质
CN110538452B (zh) * 2019-09-09 2023-09-19 珠海金山数字网络科技有限公司 技能控制方法、装置、计算设备及存储介质
US11071906B2 (en) 2019-10-08 2021-07-27 Zynga Inc. Touchscreen game user interface
CN111481932B (zh) 2020-04-15 2022-05-17 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备和存储介质
CN111589127B (zh) * 2020-04-23 2022-07-12 腾讯科技(深圳)有限公司 虚拟角色的控制方法、装置、设备及存储介质
CN111589133B (zh) * 2020-04-28 2022-02-22 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、设备及存储介质
CN111672116B (zh) * 2020-06-05 2022-10-21 腾讯科技(深圳)有限公司 控制虚拟对象释放技能的方法、装置、终端及存储介质
CN111672115B (zh) 2020-06-05 2022-09-23 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
US11590413B2 (en) * 2020-07-08 2023-02-28 Nintendo Co., Ltd. Storage medium storing information processing program with changeable operation modes, information processing apparatus, information processing system, and information processing method
CN112206516B (zh) * 2020-10-21 2024-06-11 网易(杭州)网络有限公司 游戏中的信息显示方法、装置、存储介质及计算机设备
CN112717403B (zh) * 2021-01-22 2022-11-29 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、电子设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
CN102129314A (zh) * 2010-01-19 2011-07-20 索尼公司 信息处理设备、操作预测方法和操作预测程序
CN103870180A (zh) * 2012-12-13 2014-06-18 腾讯科技(武汉)有限公司 解锁触摸屏的方法和装置
CN105183214A (zh) * 2015-08-04 2015-12-23 网易(杭州)网络有限公司 触控操作识别和响应方法、装置及游戏操控方法、装置
CN105194871A (zh) * 2015-09-14 2015-12-30 网易(杭州)网络有限公司 一种控制游戏角色的方法
JP5865535B1 (ja) * 2015-04-16 2016-02-17 株式会社コロプラ ユーザ・インタフェース・プログラム
JP2016123638A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
JP2016171874A (ja) * 2015-03-16 2016-09-29 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
CN106075900A (zh) * 2015-04-28 2016-11-09 株式会社万代南梦宫娱乐 终端装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110034858A (ko) * 2009-09-29 2011-04-06 주식회사 넥슨모바일 게임 운영을 제어하기 위한 사용자 인터페이스 제공 방법
US8379098B2 (en) * 2010-04-21 2013-02-19 Apple Inc. Real time video process control using gestures
JP5237325B2 (ja) * 2010-04-28 2013-07-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
WO2011151501A1 (en) * 2010-06-01 2011-12-08 Nokia Corporation A method, a device and a system for receiving user input
US9116611B2 (en) * 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
JP5480347B2 (ja) * 2012-08-31 2014-04-23 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP5563633B2 (ja) * 2012-08-31 2014-07-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
US20140111429A1 (en) 2012-10-23 2014-04-24 Cirque Corporation Multiple fingers, multiple step gesture
JP6438198B2 (ja) * 2013-12-26 2018-12-12 株式会社バンダイナムコエンターテインメント プログラム及びゲーム装置
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller
KR101919349B1 (ko) 2014-04-04 2018-11-19 가부시키가이샤 코로프라 사용자 인터페이스 프로그램 및 게임 프로그램
JP5711409B1 (ja) 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 端末装置
CN104076986B (zh) * 2014-07-25 2015-12-09 上海逗屋网络科技有限公司 一种用于多点触摸终端的触摸控制方法与设备
JP6449647B2 (ja) * 2014-12-26 2019-01-09 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
KR20160098700A (ko) * 2015-02-11 2016-08-19 삼성전자주식회사 멀티 터치 입력을 처리하기 위한 전자 장치 및 그 동작 방법
CN104898953B (zh) * 2015-06-16 2016-10-26 深圳市腾讯计算机系统有限公司 基于触控屏的操控方法和装置
CN104915117B (zh) * 2015-06-16 2017-03-22 深圳市腾讯计算机系统有限公司 控制与虚拟目标进行交互的方法和装置
CN105335064B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN105194873B (zh) * 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
CN102129314A (zh) * 2010-01-19 2011-07-20 索尼公司 信息处理设备、操作预测方法和操作预测程序
CN103870180A (zh) * 2012-12-13 2014-06-18 腾讯科技(武汉)有限公司 解锁触摸屏的方法和装置
JP2016123638A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
JP2016171874A (ja) * 2015-03-16 2016-09-29 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP5865535B1 (ja) * 2015-04-16 2016-02-17 株式会社コロプラ ユーザ・インタフェース・プログラム
CN106075900A (zh) * 2015-04-28 2016-11-09 株式会社万代南梦宫娱乐 终端装置
CN105183214A (zh) * 2015-08-04 2015-12-23 网易(杭州)网络有限公司 触控操作识别和响应方法、装置及游戏操控方法、装置
CN105194871A (zh) * 2015-09-14 2015-12-30 网易(杭州)网络有限公司 一种控制游戏角色的方法

Also Published As

Publication number Publication date
US10990274B2 (en) 2021-04-27
WO2018088408A1 (ja) 2018-05-17
KR20190057381A (ko) 2019-05-28
JP6143934B1 (ja) 2017-06-07
TWI645337B (zh) 2018-12-21
KR102232032B1 (ko) 2021-03-25
TW201823979A (zh) 2018-07-01
CN109982756A (zh) 2019-07-05
US20190265882A1 (en) 2019-08-29
JP2018075225A (ja) 2018-05-17

Similar Documents

Publication Publication Date Title
CN109982756B (zh) 信息处理程序、信息处理方法和信息处理装置
US10478734B2 (en) Game control program, game control method, and game control device
US20100321319A1 (en) Method for displaying and updating a view of a graphical scene in response to commands via a touch-sensitive device
KR101570967B1 (ko) 모바일 슈팅 게임용 게임 인터페이스 방법 및 장치
CN110339556B (zh) 一种游戏中的显示控制方法及装置
JP2023089287A (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
JP6912995B2 (ja) プログラム、制御方法、および情報処理装置
CN111265849B (zh) 一种虚拟卡牌的交互方法和装置
CN110662587B (zh) 游戏程序、信息处理装置、信息处理系统以及游戏处理方法
JP2016095716A (ja) 情報処理装置、情報処理方法、ならびに、プログラム
JP2017140342A (ja) ユーザインターフェースプログラム、当該プログラムを備えたゲームプログラム及び制御方法
JP6189515B1 (ja) ゲーム方法およびゲームプログラム
JP6501533B2 (ja) アイコン選択のためのインターフェースプログラム
JP6166191B2 (ja) ビデオゲーム処理装置、およびビデオゲーム処理プログラム
CN107209632B (zh) 信息处理程序和信息处理方法
JP2014238741A (ja) 移動制御装置、移動制御方法、及びプログラム
JP2016130888A (ja) アイコン選択のためのコンピュータ・プログラム、携帯端末、およびコンピュータ実装方法
JP7349054B2 (ja) プログラム、制御方法、および情報処理装置
JP2017159149A (ja) ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP2018057801A (ja) プログラム、制御方法、および情報処理装置
JP5784259B1 (ja) 情報処理プログラムおよび情報処理方法
JP5784260B1 (ja) 情報処理プログラムおよび情報処理方法
JP2024511304A (ja) 状態ベースのアクションボタン
JP2019150414A (ja) ゲームプログラム及びゲームシステム
JP2018069034A (ja) ゲーム方法およびゲームプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40003623

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant