CN108351748A - 程序和便携式终端 - Google Patents

程序和便携式终端 Download PDF

Info

Publication number
CN108351748A
CN108351748A CN201680063179.2A CN201680063179A CN108351748A CN 108351748 A CN108351748 A CN 108351748A CN 201680063179 A CN201680063179 A CN 201680063179A CN 108351748 A CN108351748 A CN 108351748A
Authority
CN
China
Prior art keywords
region
command
area
order
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680063179.2A
Other languages
English (en)
Other versions
CN108351748B (zh
Inventor
仓林修
仓林修一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cy Game Co
Original Assignee
Cy Game Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cy Game Co filed Critical Cy Game Co
Publication of CN108351748A publication Critical patent/CN108351748A/zh
Application granted granted Critical
Publication of CN108351748B publication Critical patent/CN108351748B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

能够在小面积内快速精确地输入针对对象的多种命令。程序使包括具有第一区域和第二区域的触摸屏的便携式终端实现:命令信息存储单元,存储表示命令和能够用作命令的目标的对象之间的对应关系的命令信息;位置信息存储单元,存储表示第二区域内的各对象的显示位置的位置信息;命令选择单元,基于在第一区域内利用第一手指正进行操作的状态来选择命令;区域定义单元,基于命令信息和位置信息来将第二区域内的与能够用作所选择的命令的目标的对象的显示位置相对应的区域定义为操作可接受区域;以及命令执行单元,响应于在第一区域内正持续进行利用第一手指的操作的状态下在可接受区域内利用第二手指所进行的操作,针对与进行了操作的区域相对应的对象执行所选择的命令。

Description

程序和便携式终端
技术领域
本发明涉及一种程序和便携式终端。
背景技术
随着诸如智能电话和平板终端等的便携式终端普遍使用,经由触摸屏进行用户输入的类型的游戏的数量正在增加。利用传统游戏机,例如,已经存在通过使用方向键(十字键)和按钮的组合来进行各种类型的用户输入的情况。此外,在使用触摸屏的游戏中,可想到在触摸屏上显示与传统游戏机上的方向键和按钮同样的方向键和按钮;然而,这将不容易操作。因而,在使用触摸屏的游戏中,存在对与传统游戏机的用户界面不同的用户界面的需求。
例如,专利文献1公开了用于通过使用对触摸屏的保持操作来切换用户界面的模式的方法(例如,参见图17A~17E)。具体地,例如,在触摸屏上持续利用左手拇指的保持的情况下,在正进行该保持的区域附近显示多个按钮,并且在利用左手拇指选择这多个按钮之一的情况下,根据所选择的按钮来切换模式。然后,例如,在所得到的模式中利用右手食指来进行操作。
引用列表
专利文献
专利文献1:美国专利8239784的说明书
发明内容
发明要解决的问题
利用专利文献1所公开的方法,为了切换用户界面的模式,需要选择持续保持时所显示的按钮之一。即,需要两步操作、即保持操作和按钮选择。此外,利用该方法,由于按钮的数量随着模式的数量而增加,因此切换模式所需的面积增大。因而,对于需要快速输入多种类型的命令的操作的用户界面而言,该方法是不适当的。
此外,在使用触摸屏的游戏中,存在进行用于选择(轻击)触摸屏上所显示的对象(角色)的操作的情况。然而,由于手指大小和习惯在用户之间不同,因此用户意图轻击的位置和系统所识别出的位置之间经常发生显著偏差。在这种情况下,用户难以根据意图来进行用户输入。
本发明是有鉴于上述情形而作出的,并且本发明的目的是提供使得能够在具有触摸屏的便携式终端上在小面积内快速精确地输入针对对象的多种类型的命令的用户界面。
用于解决问题的方案
根据本发明的方面的程序是一种用于便携式终端的程序,所述便携式终端包括具有用于选择命令的第一区域以及用于显示对象的第二区域的触摸屏,所述程序使得所述便携式终端能够实现:命令信息存储单元,用于关于针对多个对象的多个命令,存储表示命令和能够用作该命令的目标的对象之间的对应关系的命令信息;位置信息存储单元,用于存储表示所述第二区域中的各对象的显示位置的位置信息;命令选择单元,用于基于在所述第一区域中利用用户的第一手指正在进行操作的状态来选择命令;区域定义单元,用于基于所述命令信息和所述位置信息,来将所述第二区域中的与能够用作所选择命令的目标的对象的显示位置相对应的区域定义为能够接受操作的区域;以及命令执行单元,用于响应于在所述第一区域中正在持续进行利用所述第一手指的操作的状态下利用用户的第二手指在所述能够接受操作的区域中所进行的操作,来针对与进行了该操作的区域相对应的对象执行所选择命令。
注意,在本发明中,“单元”不是简单地表示物理含义,而且还包括通过软件来实现“单元”的功能的情况。此外,单个“单元”或装置的功能可以通过两个以上的物理部件或装置来实现,并且两个以上的“单元”或装置可以通过单个物理部件或装置来实现。
发明的效果
根据本发明,可以提供使得能够在具有触摸屏的便携式终端上在小面积内快速精确地输入针对对象的多种类型的命令的用户界面。
附图说明
图1是示出根据本发明的实施例的便携式终端100的外观的图。
图2是示出便携式终端100的硬件结构的示例的图。
图3是示出便携式终端100的一部分功能的框图。
图4是示出命令信息的示例的图。
图5是示出位置信息的示例的图。
图6是示出在没在正在操作命令选择区域130的状态下的用户界面的示例的图。
图7A是示出在正在操作命令选择区域130的状态下的用户界面的示例的图。
图7B是示出在正在操作命令选择区域130的状态下的用户界面的另一示例的图。
图8是示出以垂直姿势保持便携式终端100的状态下的用户界面的示例的图。
图9是示出与便携式终端100的用户界面有关的处理的示例的流程图。
具体实施方式
以下将参考附图来说明本发明的实施例。将在针对便携式终端100上执行游戏的情况下的用户界面的示例的上下文中说明本实施例。然而,本发明无需局限于游戏,并且可以适用于具有触摸屏的便携式终端的各种用户界面。
图1是示出根据本发明的实施例的便携式终端100的外观的图。便携式终端100是诸如智能电话、平板终端或便携式游戏机等的计算机。便携式终端100包括用作显示装置和输入装置这两者的触摸屏110。触摸屏110可以检测利用手指等正在操作(触摸)的位置。此外,触摸屏110可以包括感压传感器或感力传感器,以使得触摸屏110可以检测施加至触摸屏的力。
触摸屏110的显示区域设置有显示各种对象(角色)的对象显示区域120(第二区域)、以及用于选择针对对象所要执行的命令的命令选择区域130(第一区域)。在便携式终端100上,在利用手指140(第一手指,例如左手拇指)在命令选择区域130内选择命令的状态下,利用手指150(第二手指,例如右手拇指)在对象显示区域120内发出针对对象的命令的执行指示。命令选择区域130可以是对象显示区域120的一部分。
图2是示出便携式终端100的硬件结构的示例的图。除了触摸屏110以外,便携式终端100还包括处理器200、存储装置210、通信接口(I/F)220和传感器230。
处理器200通过执行存储装置210中所存储的程序来实现便携式终端100的各种功能。
存储装置210存储便携式终端100中所使用的程序和数据。例如,存储装置210包括诸如RAM(随机存取存储器)等的易失性存储器以及诸如闪速存储器等的非易失性存储器。例如,将处理器200所执行的处理中临时使用的数据存储在易失性存储器中,并且将处理器200所执行的程序存储在非易失性存储器中。例如,该程序可以经由因特网下载并且存储在存储装置210中。作为另一示例,该程序可以从诸如盒式磁盘等的存储介质读取并且存储在存储装置210中。
通信I/F 220是用于执行与便携式终端100的外部的通信的接口。例如,通信I/F220是用于经由移动电话通信网络或无线LAN(局域网)发送和接收数据的接口。
传感器230是用于检测便携式终端100的各种状态的装置。例如,传感器230包括磁传感器、角速度传感器和GPS(全球定位系统)传感器。在便携式终端100中,可以基于传感器230的检测结果来检测便携式终端100的状态。例如,在便携式终端100中,可以基于传感器230的检测结果来检测便携式终端100的姿势(横向或纵向)。
图3是示出便携式终端100的一部分功能的框图。便携式终端100包括命令信息存储单元300、位置信息存储单元310、命令识别单元320、命令选择单元330、区域定义单元340和命令执行单元350。图3所示的这些单元是通过处理器200执行存储装置210中所存储的程序来实现的。
命令信息存储单元300针对与触摸屏110上所显示的多个对象有关的多个命令,存储表示命令和用作该命令的目标的对象之间的对应关系的命令信息。图4是示出命令信息的示例的图。在图4所示的示例中,命令信息包括位置、状况、命令标识符、对象选择信息、调节信息和图像标识符。
“位置”是表示在命令选择区域130内轻击的位置的信息。“状况”是表示正执行的游戏内的状况的信息。例如,表示状况的信息包括与游戏场景或触摸屏110上所显示的对象的类型有关的信息。
“命令标识符”是用于标识游戏内所执行的各命令的信息。例如,“arrow_shot”是用于对所选择的对象射出箭的命令的标识符。作为另一示例,“vulnerary”是用于向所选择的对象给予创伤药以使得该对象可以恢复其体力的命令的标识符。
“对象选择命令”是用于选择用作命令的目标的对象的信息。例如。“enemy”是表示命令的目标是敌方的信息。作为另一示例,“party”是表示命令的目标是同盟(游戏者或伙伴)的信息。对象选择信息不限于对象属性,并且可以是使得能够选择对象的任何信息。例如,可以设置对象标识符、对象名称等作为对象选择信息。
“调节信息”是用于调节在对象显示区域120内能够选择对象的区域的信息。例如,调节信息包括用于调节区域的大小的信息以及用于沿深度方向调节区域的前后关系(Z顺序)的信息。与这些对象如何出现在画面上无关地,Z顺序表示在多个对象彼此重叠的情况下轻击操作的优先级。例如,如果调节信息(大小)是“1.5”,则通过与正常设置相比,将可以选择用作命令的目标的对象的区域放大1.5倍。此外,如果调节信息(Z顺序)是“0”(最上层),则即使该目标对象的一部分被显示为隐藏在画面上的另一对象之后,也使可以选择对象的区域与最上层显示的对象的情况相同。
“图像标识符”是表示命令的类型的图像的标识符。例如,“arrow_image”与用于射箭的命令相对应的箭的图像的标识符。作为另一示例,“vulnerary_image”是与用于给予创伤药的命令相对应的药品的图像的标识符。
返回参考图3,位置信息存储单元310存储表示显示各对象的位置的位置信息。图5是示出位置信息的示例的图。在图5所示的示例中,位置信息包括对象标识符、名称、属性、位置和形状。
“对象标识符”是对象显示区域120内所显示的对象的标识符。“名称”是表示对象的名称的信息。“属性”是表示对象的属性的信息。例如,“party”是表示对象属于同盟阵营的信息。作为另一示例,“enemy”是表示对象是敌方的信息。注意,被设置为属性的信息不限于对象属于的阵营(同盟/敌方),并且可以是表示对象的属性的任何信息。例如,可以将与对象的能力有关的信息设置为属性。“位置”是表示显示对象的位置的信息。例如,“位置”可以是对象的重心的位置。作为另一示例,位置可以从对象显示区域120的左上(原点)起以相对坐标的形式来表示。“形状”是表示对象的形状的信息。例如,“形状”可以是表示对象的图像的信息或者表示多边形的集合的信息。
返回参考图3,命令识别单元320从多个命令中识别当前状况下能够执行的命令。具体地,命令识别单元320参考命令信息存储单元300中的命令信息,并且将“状况”与当前状况匹配的命令识别为能够执行的命令。可以识别一个或多个命令。在能够执行的命令是固定的情况下,便携式终端100不必包括命令识别单元320。
命令选择单元330基于利用用户的手指140(例如,左手拇指)在命令选择区域130内的操作的状态来从命令识别单元320所识别出的命令中选择针对对象所要执行的命令。具体地,命令识别单元320基于命令选择区域130内进行轻击并且正被维持(进行轻击并保持)的位置来选择命令。
注意,用于使命令选择单元330选择命令的用户操作不限于上述示例。例如,命令选择单元330可以基于正触摸命令选择区域130的力的大小来判断命令。例如,通过触摸屏110的感压传感器或感力传感器来检测正在触摸命令选择区域130的力。作为用作命令选择单元330选择命令时的标准的“力”,可以使用施加至触摸屏110的任何力,而无需局限于沿与触摸屏110垂直的方向的力。例如,可以使用沿相对于触摸屏110的倾斜方向施加的力。此外,无需局限于感压传感器或感力传感器,并且可以使用能够检测施加至触摸屏110的力的任何传感器。
作为另一示例,命令选择单元330可以检测手指140在不与触摸屏110相接触的情况下位于命令选择区域130附近的区域中的状态(被称为“悬浮操作”),并且可以基于以这种方式所指定的命令选择区域130的位置来判断命令。
区域定义单元340将对象显示区域120中的、与命令选择单元330所选择的用作命令目标的对象的显示位置相对应的区域,定义为可接受操作的区域。具体地,基于命令信息存储单元300中所存储的命令信息,区域定义单元340识别用作所选择命令的目标的对象。然后,基于位置信息存储单元310所存储的位置信息,区域定义单元340将与所识别出的对象的显示位置相对应的区域定义为可接受操作的区域。此时,区域定义单元340可以基于针对命令信息所设置的“调节信息”来调节可接受区域的大小。
在命令选择区域130中正在持续利用用户的手指140(例如,左手拇指)的操作的状态下利用用户的手指150(例如,右手拇指)在区域定义单元340所定义的可接受区域内进行操作的情况下,命令执行单元350针对与进行操作的区域相对应的对象来执行命令选择区域130内所选择的命令。例如,此时利用手指150的操作可以是轻击。然而,注意,在所定义的区域内的操作不限于轻击。此外,可以根据所选择的命令来改变该操作的类型。
将参考图6~8来说明本实施例中的用户界面的示例。
图6是示出没有正在操作命令选择区域130的状态下的用户界面的示例的图。在图6所示的示例中,在对象显示区域120内显示三个对象600、601和602。这里,假定对象600是游戏者(属性:party)的对象,并且对象601和602是敌方(属性:enemy)的对象。
在没有正在操作命令选择区域130的情况下,当利用手指150(例如,右手拇指)操作对象显示区域120时,针对对象执行预定命令。针对对象600~602分别设置可接受操作的区域620~622。例如,当利用手指150轻击作为敌方的对象601的区域621时,执行利用刀攻击对象601的命令。作为另一示例,当利用手指150轻击对象显示区域120内的除区域620和621以外的区域时,执行用于使游戏者的对象600向轻击位置移动的命令。
图7A是示出正在操作命令选择区域130的状态下的用户界面的示例的图。在图7A所示的示例中,正在利用手指140(例如,左手拇指)操作命令选择区域130。
在该示例中,根据手指140的位置来选择用于射箭的命令,并且在放置手指140的位置附近的区域(第三区域)内显示表示命令的箭的图像710。此外,在该示例中,作为敌方的对象601和602是可以用作用于射箭的命令的目标的对象。因而,与图6的情况相比,用于这些对象601和602的可接受区域621和622较大。此外,例如,在利用手指150(例如,右手拇指)轻击放大区域621的情况下,执行用于对与区域621相对应的对象601射箭的命令。针对对象602的操作是同样的。随着对象601和602的显示位置更新,动态更新区域621和622。此外,可以禁止接受对象显示区域120内的除区域621和622以外的区域内的操作。
图7B示出正在操作命令选择区域130的状态下的用户界面的另一示例的图。在图7B所示的示例中,正利用手指140(例如,左手拇指)操作命令选择区域130。
在该示例中,根据手指140的位置选择用于给予创伤药的命令,并且在放置手指140的位置附近的区域(第三区域)内显示表示该命令的药品的图像720。此外,在该示例中,作为同盟的对象600是可以用作用于给予创伤药的命令的目标的对象。因而,与图6的情况相比,针对对象600的可接受区域620较大。此外,例如,在利用手指150(例如,右手拇指)轻击放大区域620的情况下,执行用于向与区域620相对应的对象600给予创伤药的命令。随着对象600的显示位置更新,动态更新区域620。此外,可以禁止接受对象显示区域120内的除区域620以外的区域内的操作。
如图7A和7B所示,将与可以用作命令选择区域130内所选择的命令的目标的对象的显示位置相对应的区域定义为可接受操作的区域。然后,在操作(例如,轻击)可接受的区域内,在针对对象进行操作(例如,轻击)时执行所选择的命令。如上所述,利用根据本实施例的用户界面,可以通过在命令选择区域130内选择命令来改变对象显示区域120内的操作的解释,并且可以在无需从命令选择区域130释放手指并且进行其它操作的情况下在对象显示区域120内进行操作。这使得可以在小面积内快速精确地输入针对对象的多种类型的命令。
所定义的区域的形状是任意的。例如,所定义的区域可以是通过放大对象的形状所定义的形状或者是以对象的重心的位置为中心的椭圆。此外,所定义的区域可以以可区别的形式显示。例如,可以将对象或区域以与其它对象或其它区域的显示模式不同的显示模式显示。此外,显示表示命令的图像710和720的区域不限于与命令选择区域130邻接的区域。例如,显示图像710和720的区域可以是与能够用作命令的目标的对象的可接受区域邻接的区域。
图8是示出以纵向姿势保持便携式终端100的状态下的用户界面的示例的图。如图8所示,在纵向姿势的情况下,在图8的下侧设置命令选择区域130的位置。可以通过在命令选择区域130内向左或向右滑动手指140(例如,左手拇指)来选择命令。此外,与横向姿势的情况相同,可以通过利用手指150(例如,右手拇指)在对象显示区域120内进行操作(例如,轻击)来执行针对对象的命令。
图9是示出与便携式终端100内的用户界面有关的处理的示例的流程图。
命令选择单元330确认命令选择区域130内是否正进行轻击并保持(S901)。在没有正进行轻击并保持的情况下(S901:N),如图6所示的示例中那样,命令执行单元350执行基于正常用户界面的命令(S902)。
在命令选择区域130内正进行轻击并保持的情况下(S901:Y),命令识别单元320基于命令信息来识别当前状况下能够执行的命令(S903)。然后,命令选择单元330基于命令信息,根据命令选择区域130的位置来从所识别出的命令中选择命令(S904)。
在选择了命令的情况下,如图7A和7B所示的示例中那样,区域定义单元340针对可以用作所选择的命令的目标的对象定义可接受操作的区域(S905)。此时,与正常用户界面(S902)的情况相比,区域定义单元340可以针对目标对象放大可接受操作的区域。然后,命令执行单元350根据所定义的区域内的轻击操作来执行针对对象的命令(S906)。
以上已经说明了根据本实施例的便携式终端100的用户界面。根据本实施例,如图7A和7B所示,可以在命令选择区域130内利用手指140(例如,左手拇指)正进行轻击并保持的状态下基于手指140的操作状态来选择命令,并且可以将与能够用作所选择的命令的目标的对象的显示位置相对应的区域定义为可接受利用手指150(例如,右手拇指)的操作的区域。这使得可以在无需改变保持便携式终端100的方式或者无需进行多步操作的情况下切换命令,并且还可以在无需从命令选择区域130释放手指并进行其它操作的情况下利用简单操作(例如,轻击)来发出用于执行命令的指示。因此,可以在小面积内快速精确地输入针对对象的多种类型的命令。
此外,根据本实施例,可以基于在命令选择区域130内利用手指140(例如,左手拇指)正在操作的位置来选择命令。因此,如图7A和7B所示,可以通过改变手指140在命令选择区域130内的位置来容易地切换命令。
此外,根据本实施例,可以在保持与命令选择区域130的接触的同时,根据手指140(例如,左手拇指)移动的操作来连续切换命令。由于不需要在切换命令时从触摸屏110释放手指140,因此这使得可以平滑地切换命令。
此外,根据本实施例,可以基于在命令选择区域130内利用手指140(例如,左手拇指)施加的力的大小来选择命令。因此,可以通过改变在命令选择区域130内利用手指140按压的力来容易切换命令。
此外,根据本实施例,可以在保持手指140与命令选择区域130接触的同时,根据改变利用手指140(例如,左手拇指)施加的力的操作来连续切换命令。由于不需要在切换命令时从触摸屏110释放手指140,因此这使得可以平滑地切换命令。
此外,根据本实施例,可以针对能够用作所选择的命令的目标的对象调节可接受操作的区域的大小。具体地,如图7A和7B所示,与正常用户界面的情况相比,针对可以用作所选择的命令的目标的对象,可以调节可接受操作的区域大小或前后关系。这使得可以减少操作错误,并提高检测精度。
此外,根据本实施例,随着能够用作所选择的命令的目标的对象的显示位置的更新,可以针对能够用作所选择的命令的目标的对象更新可接受操作的区域。这使得例如如游戏的情况中那样在涉及对象位置的更新的用户界面中能够提高检测精度并且使得能够进行快速操作。
此外,根据本实施例,可以针对能够用作命令选择区域130内所选择的命令的目标的对象,采用轻击操作作为可接受操作的区域内所要进行的操作。这使得可以在通过在命令选择区域130内进行操作来切换命令的同时,利用简单的轻击操作来发出用于执行命令的指示。
此外,根据本实施例,如图7A和7B所示,可以显示命令选择区域130内所选择的命令的图像(例如,图像710和720)。这使得可以容易识别所选择的命令。尽管在本实施例中显示表示所选择的命令的图像,但是用于识别所选择的命令的辅助不限于图像。例如,可以输出与所选择的命令相对应的音频(声音效果)。
此外,根据本实施例,可以在与命令选择区域130邻接的区域内显示表示所选择的命令的图像。如上所述,通过在与命令选择区域130邻接的区域内显示图像,使得容易识别出所选择的命令。如图7A和7B所示,根据手指140的位置,通过改变图像710或720的显示位置来甚至更容易识别所选择的命令。
此外,根据本实施例,可以针对能够用作所选择的命令的目标的对象,在与可接受操作的区域邻接的区域内显示表示所选择的命令的图像。因此,容易识别所选择的命令,并且还容易识别能够用作该命令的目标的对象。
此外,根据本实施例,可以根据状况来切换命令选择区域130内能够选择的命令。这使得可以在各种状况发生的角色扮演游戏等中根据状况来切换命令。
此外,根据本实施例,针对能够用作命令选择区域130内所选择的命令的目标的对象,可以以可区别的形式来显示可接受操作的区域。这使得可以容易区别能够操作的对象。
此外,根据本实施例,如图7A、7B和8所示,可以在触摸屏110的显示区域的边缘部设置命令选择区域130。这使得可以在不会干扰向对象的操作的情况下在容易放置手指的区域内选择命令。此外,根据本实施例,可以根据便携式终端100的姿势来改变命令选择区域130的位置。
本实施例意图便于本发明的理解,而不意图限制本发明的解释。可以在不偏离本发明的主旨的情况下对本发明进行修改或改进,并且本发明包括其等同发明。
附图标记列表
100 便携式终端
110 触摸屏
120 对象显示区域
130 命令选择区域
140,150 手指
200 处理器
210 存储装置
220 通信接口
230 传感器
300 命令信息存储单元
310 位置信息存储单元
320 命令识别单元
330 命令选择单元
340 区域定义单元
350 命令执行单元
600,601,602 对象
620,621,622 区域
710,720 图像

Claims (15)

1.一种用于便携式终端的程序,所述便携式终端包括具有用于选择命令的第一区域以及用于显示对象的第二区域的触摸屏,所述程序使得所述便携式终端能够实现:
命令信息存储单元,用于关于针对多个对象的多个命令,存储表示命令和能够用作该命令的目标的对象之间的对应关系的命令信息;
位置信息存储单元,用于存储表示所述第二区域中的各对象的显示位置的位置信息;
命令选择单元,用于基于在所述第一区域中利用用户的第一手指正在进行操作的状态来选择命令;
区域定义单元,用于基于所述命令信息和所述位置信息,来将所述第二区域中的与能够用作所选择命令的目标的对象的显示位置相对应的区域定义为能够接受操作的区域;以及
命令执行单元,用于响应于在所述第一区域中正在持续进行利用所述第一手指的操作的状态下利用用户的第二手指在所述能够接受操作的区域中所进行的操作,来针对与进行了该操作的区域相对应的对象执行所选择命令。
2.根据权利要求1所述的程序,其中,所述命令选择单元基于在所述第一区域中利用所述第一手指正在进行操作的位置来选择命令。
3.根据权利要求2所述的程序,其中,
所述命令选择单元根据在维持所述第一手指与所述第一区域的接触的状态下移动所述第一手指的操作来连续切换所选择命令。
4.根据权利要求1所述的程序,其中,
所述命令选择单元基于在所述第一区域中利用所述第一手指所施加的力的大小来选择命令。
5.根据权利要求3所述的程序,其中,
所述命令选择单元根据在保持所述第一手指与所述第一区域接触的状态下改变利用所述第一手指所施加的力的操作来连续切换所选择命令。
6.根据权利要求1至5中任一项所述的程序,其中,
所述命令信息包括用于调节所述能够接受操作的区域的调节信息,以及
所述区域定义单元基于所述调节信息,针对能够用作所选择命令的目标的各对象来调节所述能够接受操作的区域。
7.根据权利要求1至6中任一项所述的程序,其中,
随着能够用作所选择命令的目标的各对象的显示位置的更新,所述区域定义单元更新所述能够接受操作的区域。
8.根据权利要求1至7中任一项所述的程序,其中,
利用所述第二手指所进行的操作是所述能够接受操作的区域中的轻击操作。
9.根据权利要求1至8中任一项所述的程序,其中,
所述命令选择单元在所述触摸屏的第三区域中显示表示所选择命令的图像。
10.根据权利要求9所述的程序,其中,
所述第三区域是与所述第一区域邻接的区域。
11.根据权利要求9所述的程序,其中,
所述第三区域是与所述能够接受操作的区域邻接的区域。
12.根据权利要求1至11中任一项所述的程序,其中,所述程序还使得所述便携式终端能够实现:
命令识别单元,用于从所述多个命令中识别当前状况下能够执行的命令,
其中,所述命令选择单元基于利用所述第一手指正在进行操作的状态,从所识别出的命令中选择命令。
13.根据权利要求1至12中任一项所述的程序,其中,
所述区域定义单元以能够区别的形式显示所述能够接受操作的区域。
14.根据权利要求1至13中任一项所述的程序,其中,
所述第一区域是所述触摸屏的显示区域的边缘部。
15.一种便携式终端,包括:
触摸屏,其具有用于选择命令的第一区域和用于显示对象的第二区域;
命令信息存储单元,用于关于针对多个对象的多个命令,存储表示命令和能够用作该命令的目标的对象之间的对应关系的命令信息;
位置信息存储单元,用于存储表示所述第二区域中的各对象的显示位置的位置信息;
命令选择单元,用于基于在所述第一区域中利用用户的第一手指正在进行操作的状态来选择命令;
区域定义单元,用于基于所述命令信息和所述位置信息,来将所述第二区域中的与能够用作所选择命令的目标的对象的显示位置相对应的区域定义为能够接受操作的区域;以及
命令执行单元,用于响应于在所述第一区域中正在持续进行利用所述第一手指的操作的状态下利用用户的第二手指在所述能够接受操作的区域中所进行的操作,来针对与进行了该操作的区域相对应的对象执行所选择命令。
CN201680063179.2A 2015-11-04 2016-09-23 计算机可读介质和便携式终端 Active CN108351748B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015-216652 2015-11-04
JP2015216652A JP5933093B1 (ja) 2015-11-04 2015-11-04 プログラム及び携帯端末
PCT/JP2016/078017 WO2017077784A1 (ja) 2015-11-04 2016-09-23 プログラム及び携帯端末

Publications (2)

Publication Number Publication Date
CN108351748A true CN108351748A (zh) 2018-07-31
CN108351748B CN108351748B (zh) 2021-04-27

Family

ID=56102960

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680063179.2A Active CN108351748B (zh) 2015-11-04 2016-09-23 计算机可读介质和便携式终端

Country Status (6)

Country Link
US (1) US10956027B2 (zh)
JP (1) JP5933093B1 (zh)
KR (1) KR102084581B1 (zh)
CN (1) CN108351748B (zh)
HK (1) HK1251324A1 (zh)
WO (1) WO2017077784A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6536350B2 (ja) * 2015-10-26 2019-07-03 船井電機株式会社 入力装置
JP6072338B1 (ja) * 2016-07-29 2017-02-01 株式会社 ディー・エヌ・エー ゲームを提供するためのプログラム、システム、及び方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737672A (zh) * 2011-03-30 2012-10-17 雅马哈株式会社 音频信号控制器
CN104063092A (zh) * 2014-06-16 2014-09-24 青岛歌尔声学科技有限公司 一种触摸屏控制方法及装置
EP2829964A1 (en) * 2013-07-01 2015-01-28 Fujitsu Limited Terminal device and screen switching method
US20150169165A1 (en) * 2012-04-17 2015-06-18 Google Inc. System and Method for Processing Overlapping Input to Digital Map Functions
JP2015185161A (ja) * 2014-03-24 2015-10-22 株式会社 ハイヂィープ メニュー操作方法及びこれを行うタッチ入力装置を含むメニュー操作装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2772153B2 (ja) * 1991-04-12 1998-07-02 アルパイン株式会社 データ入力装置
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JP2001009156A (ja) * 1999-06-30 2001-01-16 Square Co Ltd コンピュータ読み取り可能な記録媒体、ゲームの表示制御方法およびゲーム装置
US7925996B2 (en) * 2004-11-18 2011-04-12 Microsoft Corporation Method and system for providing multiple input connecting user interface
JP2010055207A (ja) * 2008-08-26 2010-03-11 Ricoh Co Ltd 文字入力装置、文字入力方法、プログラム、記憶媒体
EP2393000B1 (en) 2010-06-04 2019-08-07 Lg Electronics Inc. Mobile terminal capable of providing multiplayer game and method of controlling operation of the mobile terminal
KR101689711B1 (ko) * 2010-07-14 2016-12-26 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101967632B1 (ko) * 2012-02-13 2019-04-11 삼성전자주식회사 사용자 인터페이스를 가진 태블릿
JP5738809B2 (ja) * 2012-07-31 2015-06-24 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、ゲームシステム、ゲームシステムの制御方法、及びプログラム
JP5497233B1 (ja) * 2013-07-31 2014-05-21 グリー株式会社 プログラム、ゲームサーバ、及びゲームシステムの制御方法
JP5581434B1 (ja) * 2013-10-31 2014-08-27 株式会社 ディー・エヌ・エー ゲームプログラム、及び、情報処理装置
KR20150111651A (ko) * 2014-03-26 2015-10-06 주식회사 하이딥 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치
JP6605225B2 (ja) * 2015-04-28 2019-11-13 株式会社バンダイナムコエンターテインメント 端末装置及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737672A (zh) * 2011-03-30 2012-10-17 雅马哈株式会社 音频信号控制器
US20150169165A1 (en) * 2012-04-17 2015-06-18 Google Inc. System and Method for Processing Overlapping Input to Digital Map Functions
EP2829964A1 (en) * 2013-07-01 2015-01-28 Fujitsu Limited Terminal device and screen switching method
JP2015185161A (ja) * 2014-03-24 2015-10-22 株式会社 ハイヂィープ メニュー操作方法及びこれを行うタッチ入力装置を含むメニュー操作装置
CN104063092A (zh) * 2014-06-16 2014-09-24 青岛歌尔声学科技有限公司 一种触摸屏控制方法及装置

Also Published As

Publication number Publication date
US10956027B2 (en) 2021-03-23
HK1251324A1 (zh) 2019-01-25
JP5933093B1 (ja) 2016-06-08
KR102084581B1 (ko) 2020-03-04
KR20180064495A (ko) 2018-06-14
CN108351748B (zh) 2021-04-27
US20180275864A1 (en) 2018-09-27
JP2017090999A (ja) 2017-05-25
WO2017077784A1 (ja) 2017-05-11

Similar Documents

Publication Publication Date Title
US11565181B2 (en) Virtual object control method and apparatus, computer device, and storage medium
US10391390B2 (en) Method for locking target in game scenario and terminal
CN109350964B (zh) 控制虚拟角色的方法、装置、设备及存储介质
US11794105B2 (en) Game processing system, game processing program, and game processing method
CN108376424A (zh) 用于对三维虚拟环境进行视角切换的方法、装置、设备及存储介质
US9442655B2 (en) Character input device, and method and program for inputting character
CN103885674A (zh) 输入装置、输入操作方法以及电子设备
CN107615234B (zh) 信息处理装置以及记录介质
US9539505B2 (en) Game device and computer-readable storage medium
JP6514376B1 (ja) ゲームプログラム、方法、及び情報処理装置
CN112957732A (zh) 搜索方法、装置、终端及存储介质
US9047244B1 (en) Multi-screen computing device applications
US20160246442A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP5937773B1 (ja) プログラム及び携帯端末
US9526985B2 (en) Method for forming game content group, computer-readable, non-transitory medium, and computer
CN108351748A (zh) 程序和便携式终端
JP5799158B2 (ja) 制御方法、制御プログラム及びコンピュータ
CN110119233A (zh) 内容推送方法及装置、终端、存储介质
JP2015049837A (ja) 携帯端末装置
WO2019216059A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP5676042B2 (ja) 制御方法、制御プログラム及びコンピュータ
JP5584376B1 (ja) ゲーム媒体群編成方法、制御プログラム及びコンピュータ

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1251324

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant