CN106648347A - 一种用于在触摸终端上触控操作移动目标对象的方法 - Google Patents
一种用于在触摸终端上触控操作移动目标对象的方法 Download PDFInfo
- Publication number
- CN106648347A CN106648347A CN201610821338.2A CN201610821338A CN106648347A CN 106648347 A CN106648347 A CN 106648347A CN 201610821338 A CN201610821338 A CN 201610821338A CN 106648347 A CN106648347 A CN 106648347A
- Authority
- CN
- China
- Prior art keywords
- touch
- buttons
- touch screen
- user
- stroke
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种用于在触摸终端上触控操作移动目标对象的方法,通过获取用户在触摸终端的触屏上的对触屏的触屏按钮的第一操作以及手指划动手势的第二操作,执行第一操作以及第二操作所对应的对象操作,并通过自研的划屏E算法,可依据用户手指划动屏幕,实现屏幕2D或3D镜头上下左右的精准自由移动,为用户提供所划即所得的实时画面,提供以往用户所没有的使用体验。与以往单点单目标响应技术相比,单点触摸多目标响应的发明通过单点触摸实现了多个目标的移动与操作,降低了用户的操作难度与操作次数,提高用户的操作体验。
Description
技术领域
本发明涉及一种计算机领域,具体涉及一种用于在触摸终端上触控操作移动目标对象的方法。
背景技术
当前对触摸屏的操作没有进行整体目标移动的技术方案,另外屏幕内容跟随用户操控实时呈现也没有得到解决,不能通过划动屏幕来实现画面的精准自由移动。
发明内容
本发明针对现有技术中,对触摸屏的操作没有进行整体目标移动的技术方案,屏幕内容跟随用户操控实时呈现也没有得到解决,不能通过划动屏幕来实现画面的精准自由移动的不足,提供一种单点触摸多目标响应的发明通过单点触摸实现了多个目标的移动与操作,降低了用户的操作难度与操作次数,提高用户的操作体验,并通过划屏E算法,可依据用户手指划动屏幕,实现屏幕2D或3D镜头上下左右的精准自由移动,为用户提供所划即所得的实时画面的用于在触摸终端上触控操作移动目标对象的方法。
本发明是通过以下技术方案来实现的:一种用于在触摸终端上触控操作移动目标对象的方法,其中,该方法包括:
a、获取用户在触摸终端的触屏上的对触屏的触屏按钮的第一操作以及手指划动手势的第二操作;
b、根据上述操作执行对象执行第一操作以及第二操作所对应的对象操作。
其中,该方法还包括:
-获取用户在触摸终端上触摸的点位,检测是否触摸到了触屏上的触屏按钮,判断该控制信号具体触摸于哪个点位,并执行对应触摸点位的动作。
其中,该方法还包括:获取用户在触摸终端上的手指划动手势,进而获得镜头的移动方向。
其中,所述第一操作用于控制所述操作执行对应的动作命令。
其中,手指划动手势的第二操作用于执行用户划屏指令以获得镜头的移动方法。
其中,获取用户在触摸终端上的操作指令,判断是否为触摸到对应的触摸按钮或者是否为手指划动手势,并执行对应的动作。
其中,a步骤中对触屏的触屏按钮的第一操作包括是否触摸到了触屏按钮中的触屏A按钮、触屏B按钮、触屏C按钮或者触屏D按钮;
-判读是否触摸到触屏A按钮,如果是,执行触屏A按钮的行为,如果不是,继续判读是否触摸到其它触屏按钮;
-判断是否触摸到触屏B按钮,如果是,执行触屏B按钮的行为,如果不是,继续判断是否触摸到其它触屏按钮;
-判断是否触摸到触屏C按钮,如果是,执行触屏C按钮的行为,如果不是,继续判断是否触摸到其它触屏按钮;
-判断是否触摸到触屏D按钮,如果是,执行触屏D按钮的行为,如果不是,继续判断是否触摸到其它触屏按钮;
其中,a步骤中对触屏的手指划动手势的第二操作包括判断是否为手指划动手势,如果是,判断手指划动手势是否为向上划动、向下划动、向左划动或者向右划动其中的一种;
判断手势执行动作能否识别,如果不能,继续判断:
其中,手指划动手势判断包括:
-用户是否向上划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向上移动的距离;
-用户是否向下划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向下移动的距离;
-用户是否向左划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向左移动的距离;
-用户是否向右划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向右移动的距离。
本发明的有益效果是:本发明通过获取用户在触摸终端的触屏上的对触屏的触屏按钮的第一操作以及手指划动手势的第二操作,执行第一操作以及第二操作所对应的对象操作;
通过自研的划屏E算法,可依据用户手指划动屏幕,实现屏幕2D或3D镜头上下左右的精准自由移动,为用户提供所划即所得的实时画面,提供以往用户所没有的使用体验。与以往单点单目标响应技术相比,单点触摸多目标响应的发明通过单点触摸实现了多个目标的移动与操作,降低了用户的操作难度与操作次数,提高用户的操作体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为第一操作的流程图;
图2为第二操作的流程图;
图3为本发明的使用效果图。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
本说明书(包括任何附加权利要求、摘要和附图)中公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
图1是本实施例中对于第一操作的执行流程示意图,图中,通过单点触控多目标实现具体动作,当用户手指在触摸终端上接触时,便出现一个触摸点位,通过判断该触摸点位是否在设定的触摸点位上,进而执行接下来一系列的动作,如果手指触碰于触摸点位其它部分则通过分析判断是否为手指划动手势的第二操作,如果不是,手势无法识别,动作指令不执行,如果为手指滑动手势则进行划屏E算法实现对应的指令。
在此,在触摸控制终端包括但不限于用户设备、网络设备、或用户设备与网络设备通过网络相集成所构成的设备。所述用户设备其包括但不限于任何一种可与用户通过触摸板进行人机交互的移动电子产品,例如智能手机、PDA 等,所述移动电子产品可以采用任意操作系统,如android 操作系统、iOS 操作系统等。其中,所述网络设备包括一种能够按照事先设定或存储的指令,自动进行数值计算和信息处理的电子设备,其硬件包括但不限于微处理器、专用集成电路(ASIC)、可编程门阵列(FPGA)、数字处理器(DSP)、嵌入式设备等。
网络设备其包括但不限于计算机、网络主机、单个网络服务器、多个网络服务器集或多个服务器构成的云;在此,云由基于云计算(Cloud Computing) 的大量计算机或网络服务器构成,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个虚拟超级计算机。所述网络包括但不限于互联网、广域网、城域网、局域网、VPN 网络、无线自组织网络(Ad Hoc 网络) 等。本领域技术人员应能理解,其他的触摸控制设备同样适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。
上述各装置之间是持续不断工作的,在此,本领域技术人员应理解“持续”是指上述各装置分别实时地或者按照设定的或实时调整的工作模式要求,进行第一操作与第二操作的获取、操作的执行等,直至所述触摸控制设备停止获取用户在多点触摸终端的触屏上对第一触摸按钮的第一操作及对第二触摸按钮的第二操作。
图1中,用户通过手指触摸到触摸屏上的触屏A按钮,如果是,则接下来执行触屏A按钮所对应的控制指令,即触屏A按钮用于实现整体目标的智能有序的前进,实现一体化的控制,只需一个接触,即可完成一系列的整体操作,快速到位;如果不是,则判断是否触摸了触屏B按键;
如果判断手指触碰到了触屏B按键,则下来执行触屏B按钮所对应的控制指令,即触屏B按钮用于实现整体目标的原地警戒,如果没有触碰到B按键,则判断是否触摸了触屏C按键;
如果判断手指触碰到了触屏C按键,则下来执行触屏C按钮所对应的控制指令,即触屏C按钮用于实现整体目标的撤退,如果没有触碰C按键,则判断是否触摸了触屏D按键;
如果判断手指触碰到了触屏D按键,则下来执行触屏D按钮所对应的控制指令,即触屏D按钮用于实现整体目标到达特定区域,如果没有触碰D按键,则判断是否为其它的指令或者无效的指令;
通过以上操作,从而实现单点操作多个目标的灵活移动,提高了操作乐趣,从而支持更为复杂的人机交互,更为便捷地执行复杂操作,提升人机交互效率并提升用户的使用体验。
图2为本发明中对于划屏E算法实现对应的指令的控制流程图,图2中,用户对触屏进行滑动指令操作,获取用户在触屏上的划屏轨迹。
判断用户是否为向上划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向上移动的距离,该距离取决于划屏的长度,通过划动距离越长,那么移动的距离越大,但是也可设计成统一移动的距离,即,不管划动距离多长,都默认为向上移动了固定的距离,如果需要再次向上移动相同的距离,只要重复向上划动的动作即可;
判断用户是否为向下划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向下移动的距离,该距离取决于划屏的长度,通过划动距离越长,那么移动的距离越大,但是也可设计成统一移动的距离,即,不管划动距离多长,都默认为向下移动了固定的距离,如果需要再次向下移动相同的距离,只要重复向下划动的动作即可;
判断用户是否为向左划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向左移动的距离,该距离取决于划屏的长度,通过划动距离越长,那么移动的距离越大,但是也可设计成统一移动的距离,即,不管划动距离多长,都默认为向左移动了固定的距离,如果需要再次向左移动相同的距离,只要重复向左划动的动作即可;
判断用户是否为向右划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向右移动的距离,该距离取决于划屏的长度,通过划动距离越长,那么移动的距离越大,但是也可设计成统一移动的距离,即,不管划动距离多长,都默认为向右移动了固定的距离,如果需要再次向右移动相同的距离,只要重复向上划动的动作即可;
当然,如果划动的指令为左上、左下、右上、右下,也可进行对应的距离移动,即如果向左上位置划动,那么屏幕便会朝着左上位置移动一定的距离,如果向左下位置划动,那么屏幕便会朝着左下位置移动一定的距离;如果向右上位置划动,那么屏幕便会朝着右上位置移动一定的距离;如果向右下位置划动,那么屏幕便会朝着右下位置移动一定的距离。
本发明中,没有具体描述关于左上、左下、右上、右下的划动移位方式,但是对于这四个方位,甚至不是规则性的方位划动,也均需列入本发明的保护范围之内。
本发明中,如图3所示,关于触屏A按键、触屏B按键、触屏C按键和触屏D按键的位置关系,其有一个最佳的设定位置,即触屏A按键、触屏B按键、触屏C按键三个键并排设置,彼此之间相距一定的距离,防止位置过近导致在触控时互相影响,而触屏D按键的位置可适当远离其它三个触控按键,触屏D按键用于动作指令,而触屏A按键、触屏B按键、触屏C按键用于方位指令,因此,在操作上来说,左手操作触屏A按键、触屏B按键、触屏C按键三个按键,更为合适,因为左手大拇指能够对于这三个按键,在触控时,能够更加的精准,而右手用于控制触屏D按键,将三个按键设置于左侧,第四个按键设置于右侧供右手操作,在分配上也更加合理,通过左右手的共同操作实现整体动作的执行,更加协调。
但是,这只是本发明中将四个按键的排布方式,一些左右手习惯性不同的玩家,也可将本发明中的四个按键的位置进行改变,即,可对触屏A按键、触屏B按键、触屏C按键和触屏D按键进行随意的按键更改,使其能够对应自己获得最佳的操作位置。
本发明的有益效果是:本发明通过获取用户在触摸终端的触屏上的对触屏的触屏按钮的第一操作以及手指划动手势的第二操作,执行第一操作以及第二操作所对应的对象操作;
通过自研的划屏E算法,可依据用户手指划动屏幕,实现屏幕2D或3D镜头上下左右的精准自由移动,为用户提供所划即所得的实时画面,提供以往用户所没有的使用体验。与以往单点单目标响应技术相比,单点触摸多目标响应的发明通过单点触摸实现了多个目标的移动与操作,降低了用户的操作难度与操作次数,提高用户的操作体验。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何不经过创造性劳动想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书所限定的保护范围为准。
Claims (10)
1.一种用于在触摸终端上触控操作移动目标对象的方法,其中,该方法包括:
a、获取用户在触摸终端的触屏上的对触屏的触屏按钮的第一操作以及手指划动手势的第二操作;
b、根据上述操作执行对象执行第一操作以及第二操作所对应的对象操作。
2.根据权利要求1所述的方法,其中,该方法还包括:
-获取用户在触摸终端上触摸的点位,检测是否触摸到了触屏上的触屏按钮,判断该控制信号具体触摸于哪个点位,并执行对应触摸点位的动作。
3.根据权利要求1或2所述的方法,其中,该方法还包括:获取用户在触摸终端上的手指划动手势,进而获得镜头的移动方向。
4.根据权利要求1至2任意一项所述的方法,其中,所述第一操作用于控制所述操作执行对应的动作命令。
5.根据权利要求1所述的方法,其中,手指划动手势的第二操作用于执行用户划屏指令以获得镜头的移动方法。
6.根据权利要求1至5所述的方法,其中,获取用户在触摸终端上的操作指令,判断是否为触摸到对应的触摸按钮或者是否为手指划动手势,并执行对应的动作。
7.根据权利要求1所述的方法,其中,a步骤中对触屏的触屏按钮的第一操作包括是否触摸到了触屏按钮中的触屏A按钮、触屏B按钮、触屏C按钮或者触屏D按钮;
-判读是否触摸到触屏A按钮,如果是,执行触屏A按钮的行为,如果不是,继续判读是否触摸到其它触屏按钮;
-判断是否触摸到触屏B按钮,如果是,执行触屏B按钮的行为,如果不是,继续判断是否触摸到其它触屏按钮;
-判断是否触摸到触屏C按钮,如果是,执行触屏C按钮的行为,如果不是,继续判断是否触摸到其它触屏按钮;
-判断是否触摸到触屏D按钮,如果是,执行触屏D按钮的行为,如果不是,继续判断是否触摸到其它触屏按钮。
8.如权利要求1所述的方法,其中,a步骤中对触屏的手指划动手势的第二操作包括判断是否为手指划动手势,如果是,判断手指划动手势是否为向上划动、向下划动、向左划动或者向右划动其中的一种;
判断手势执行动作能否识别,如果不能,继续判断。
9.如权利要求8所述的方法,其中,手指划动手势判断包括:
-用户是否向上划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向上移动的距离;
-用户是否向下划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向下移动的距离;
-用户是否向左划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向左移动的距离;
-用户是否向右划屏,如果是,依据用户划屏轨迹并通过算法获取镜头向右移动的距离。
10.如权利要求7所述的方法,其中,
-触屏A按钮,用于实现整体目标的智能有序的前进;
-触屏B按钮,用于实现整体目标的原地警戒;
-触屏C按钮,用于实现整体目标的撤退;
-触屏D按钮,用于实现整体目标到达特定区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610821338.2A CN106648347A (zh) | 2016-09-14 | 2016-09-14 | 一种用于在触摸终端上触控操作移动目标对象的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610821338.2A CN106648347A (zh) | 2016-09-14 | 2016-09-14 | 一种用于在触摸终端上触控操作移动目标对象的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106648347A true CN106648347A (zh) | 2017-05-10 |
Family
ID=58851696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610821338.2A Pending CN106648347A (zh) | 2016-09-14 | 2016-09-14 | 一种用于在触摸终端上触控操作移动目标对象的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106648347A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111324199A (zh) * | 2018-12-13 | 2020-06-23 | 中国移动通信集团广西有限公司 | 一种终端控制方法、装置、终端及可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101587424A (zh) * | 2009-02-03 | 2009-11-25 | 刘二中 | 利用光标或触摸点移动显示屏画面的方法 |
KR20100121727A (ko) * | 2009-05-11 | 2010-11-19 | 주식회사 텔레칩스 | 터치화면상의 원 포인트 터치 동작에 의한 이미지 확대, 축소, 이동 방법 |
CN101957981A (zh) * | 2009-07-13 | 2011-01-26 | 三星电子株式会社 | 基于虚拟对象的图像处理的方法和设备 |
CN102985142A (zh) * | 2010-07-26 | 2013-03-20 | 史克威尔·艾尼克斯股份有限公司 | 服务器、玩家终端及在该服务器执行的程序 |
CN104699399A (zh) * | 2015-02-16 | 2015-06-10 | 上海逗屋网络科技有限公司 | 一种用于在触摸终端上确定目标操作对象的方法与设备 |
CN104813267A (zh) * | 2012-10-16 | 2015-07-29 | 田载雄 | 用于生成群组动画的方法和系统以及计算机可读记录介质 |
CN105378637A (zh) * | 2013-04-26 | 2016-03-02 | 三星电子株式会社 | 用于提供动画效果的用户终端装置及其显示方法 |
CN105597310A (zh) * | 2015-12-24 | 2016-05-25 | 网易(杭州)网络有限公司 | 一种游戏控制方法及装置 |
-
2016
- 2016-09-14 CN CN201610821338.2A patent/CN106648347A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101587424A (zh) * | 2009-02-03 | 2009-11-25 | 刘二中 | 利用光标或触摸点移动显示屏画面的方法 |
KR20100121727A (ko) * | 2009-05-11 | 2010-11-19 | 주식회사 텔레칩스 | 터치화면상의 원 포인트 터치 동작에 의한 이미지 확대, 축소, 이동 방법 |
CN101957981A (zh) * | 2009-07-13 | 2011-01-26 | 三星电子株式会社 | 基于虚拟对象的图像处理的方法和设备 |
CN102985142A (zh) * | 2010-07-26 | 2013-03-20 | 史克威尔·艾尼克斯股份有限公司 | 服务器、玩家终端及在该服务器执行的程序 |
CN104813267A (zh) * | 2012-10-16 | 2015-07-29 | 田载雄 | 用于生成群组动画的方法和系统以及计算机可读记录介质 |
CN105378637A (zh) * | 2013-04-26 | 2016-03-02 | 三星电子株式会社 | 用于提供动画效果的用户终端装置及其显示方法 |
CN104699399A (zh) * | 2015-02-16 | 2015-06-10 | 上海逗屋网络科技有限公司 | 一种用于在触摸终端上确定目标操作对象的方法与设备 |
CN105597310A (zh) * | 2015-12-24 | 2016-05-25 | 网易(杭州)网络有限公司 | 一种游戏控制方法及装置 |
Non-Patent Citations (1)
Title |
---|
钱立等: "《Java程序设计——理实一体化教学课程》", 28 February 2014, 西南交通大学出版社 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111324199A (zh) * | 2018-12-13 | 2020-06-23 | 中国移动通信集团广西有限公司 | 一种终端控制方法、装置、终端及可读存储介质 |
CN111324199B (zh) * | 2018-12-13 | 2023-04-28 | 中国移动通信集团广西有限公司 | 一种终端控制方法、装置、终端及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2770408B1 (en) | Apparatus and method for recognizing proximity motion using sensors | |
CN104076986B (zh) | 一种用于多点触摸终端的触摸控制方法与设备 | |
CN104823144B (zh) | 交叉滑动手势 | |
US20160299604A1 (en) | Method and apparatus for controlling a mobile device based on touch operations | |
CN102681754B (zh) | 信息处理设备和信息处理方法 | |
CN109891491A (zh) | 交互式显示器 | |
CN103106030B (zh) | 一种软键盘的显示方法、装置及电子设备 | |
JP5830806B1 (ja) | ユーザ入力の操作性を向上させるプログラム、電子装置、及び方法 | |
CN103294401A (zh) | 一种具有触摸屏的电子设备的图标处理方法及装置 | |
KR20150103240A (ko) | 깊이 기반 사용자 인터페이스 제스처 제어 | |
KR20100041006A (ko) | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 | |
US20190354267A1 (en) | Apparatus and method for recognizing proximity motion using sensors | |
CN102253709A (zh) | 手势判断的方法与装置 | |
JP6470112B2 (ja) | 移動装置操作端末、移動装置操作方法及び移動装置操作プログラム | |
US20120038586A1 (en) | Display apparatus and method for moving object thereof | |
KR20120016015A (ko) | 디스플레이 장치 및 그의 오브젝트 이동 방법 | |
JP2018187289A (ja) | プログラム及び情報処理装置 | |
US20160259442A1 (en) | Input device, input method and program | |
CN103853339A (zh) | 输入装置以及电子装置 | |
US9971429B2 (en) | Gesture recognition method, apparatus and device, computer program product therefor | |
TW201205339A (en) | Gesture detecting method of a proximity sensing | |
CN106648347A (zh) | 一种用于在触摸终端上触控操作移动目标对象的方法 | |
JP2016197325A (ja) | コンテンツ表示制御方法、コンテンツ表示制御装置およびコンテンツ表示制御プログラム | |
JP6033061B2 (ja) | 入力装置およびプログラム | |
JP2014056519A (ja) | 携帯端末装置、誤操作判定方法、制御プログラムおよび記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170510 |