CN103500038A - 从一个触摸输入到另一个触摸输入的对象的手部控制 - Google Patents
从一个触摸输入到另一个触摸输入的对象的手部控制 Download PDFInfo
- Publication number
- CN103500038A CN103500038A CN201310449756.XA CN201310449756A CN103500038A CN 103500038 A CN103500038 A CN 103500038A CN 201310449756 A CN201310449756 A CN 201310449756A CN 103500038 A CN103500038 A CN 103500038A
- Authority
- CN
- China
- Prior art keywords
- input
- touch
- control
- location
- described object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 75
- 238000007599 discharging Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 abstract description 13
- 210000003811 finger Anatomy 0.000 description 41
- 230000008569 process Effects 0.000 description 29
- 238000003860 storage Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 15
- 230000001276 controlling effect Effects 0.000 description 14
- 230000005055 memory storage Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 201000006549 dyspepsia Diseases 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
提供了一种用于切换对象的控制的方法,所述方法包括在屏幕上显示对象;响应于第一触摸输入来控制所述对象的移动;检测对从所述第一触摸输入到第二触摸输入切换所述对象的控制的请求;确定所述第一触摸输入的位置和所述第二触摸输入的位置是否在合并区内;以及响应于所述第一触摸输入的所述位置和所述第二触摸输入的所述位置在所述合并区内而从所述第一触摸输入到所述第二触摸输入切换所述对象的控制。
Description
本分案申请是申请日为2012年1月6日、申请号为201280005217.0、发明名称为“从一个触摸输入到另一个触摸输入的对象的手部控制”的分案申请。
相关申请的交叉引用
本申请是于2011年1月13日提交的标题为“HANDING CONTROL OFAN OBJECT FROM ONE TOUCH INPUT TO ANOTHER TOUCH INPUT”的美国专利申请号13/006,337的接续申请并要求该申请的权益,该申请的全部内容和公开据此通过引用方式全部并入本文。
技术领域
本发明概括来说涉及触摸板和触摸屏技术,并且更具体来说涉及通过用户与一个或多个触摸板、触摸屏和/或其它触敏控制板的交互来控制和/或移动显示的对象。
背景技术
触摸屏是一种可以检测在显示区域内触摸的存在和位置的显示器。触摸屏是一种包括可将用户的手指(或其它物体)的运动和位置转换为单独的显示屏上的相对位置的专用表面的定点装置。各种电子和计算装置采用触摸屏或触摸板技术来使用户能够控制和/或移动显示的对象,例如用于与图形用户界面交互。
发明内容
在一个实施例中,本发明可以特征化为一种方法,其包括在屏幕上显示对象;检测对象距控制所述对象的第一触摸输入的定位,其中所述定位使得所述对象在所述屏幕上进行一段距离;确定所述对象的位置和第二触摸输入的位置是否在合并区内;以及当确定所述对象的位置和所述第二触摸输入的位置在合并区内时,将所述对象的控制切换到所述第二触摸输入。
在另一实施例中,本发明可以特征化为一种设备,其包括:外壳,其具有旨在用于手持使用的大小;触敏控制板,其附接到所述外壳的第一表面;以及基于处理器的系统,其包括在所述外壳中,并被配置来执行下列步骤:在屏幕上显示对象;检测对象距控制所述对象的第一触摸输入的定位,其中所述定位使得所述对象在所述屏幕上进行一段距离;确定所述对象的位置和第二触摸输入的位置是否在合并区内;以及当确定所述对象的位置和所述第二触摸输入的位置在合并区内时,将所述对象的控制切换到所述第二触摸输入。
在进一步的实施例中,本发明可特征化为一种计算机可读存储介质,其存储一个或多个计算机可读程序,所述程序适于使基于处理器的系统执行下列步骤:在屏幕上显示对象;检测对象距控制所述对象的第一触摸输入的定位,其中所述定位使得所述对象在所述屏幕上进行一段距离;确定所述对象的位置和第二触摸输入的位置是否在合并区内;以及当确定所述对象的位置和所述第二触摸输入的位置在合并区内时,将所述对象的控制切换到所述第二触摸输入。
在一个实施例中,本发明可以特征化为一种方法,其包括在屏幕上显示对象;响应于第一触摸输入来控制对象的移动;检测对从第一触摸输入到第二触摸输入切换对象的控制的请求;确定第一触摸输入的位置和第二触摸输入的位置是否在合并区内;以及响应于第一触摸输入的位置和第二触摸输入的位置在合并区内而从第一触摸输入到第二触摸输入切换对象的控制。
在另一实施例中,本发明可以特征化为一种设备,其包括:外壳,其具有旨在用于手持使用的大小;第一触敏控制板,其附接到外壳的第一表面;以及基于处理器的系统,其包括在外壳中并被配置来执行下列步骤:在屏幕上显示对象;响应于在第一触敏控制板上的第一触摸输入来控制对象的移动;检测对从第一触摸输入到第二触摸输入切换对象的控制的请求;确定第一触摸输入的位置和第二触摸输入的位置是否在合并区内;以及响应于第一触摸输入的位置和第二触摸输入的位置在合并区内而从第一触摸输入到第二触摸输入切换对象的控制。
在进一步的实施例中,本发明可特征化为一种计算机可读存储介质,其存储一个或多个计算机可读程序,这些程序适于使基于处理器的系统执行下列步骤:在屏幕上显示对象;响应于第一触摸输入来控制对象的移动;检测对从第一触摸输入到第二触摸输入切换对象的控制的请求;确定第一触摸输入的位置和第二触摸输入的位置是否在合并区内;以及响应于第一触摸输入的位置和第二触摸输入的位置在合并区内而从第一触摸输入到第二触摸输入切换对象的控制。
附图说明
通过结合以下附图呈现的以下更具体的描述,本发明的若干实施例的以上和其它方面、特征和优势将更加显而易见。
图1示出了根据本发明的一个或多个实施例的显示对象的示例性触敏装置。
图2示出了根据本发明的若干实施例的用于在第一输入和第二输入之间切换控制的方法的流程图。
图3示出了根据一些实施例的用于在第一输入和第二输入之间切换控制的方法的流程图。
图4示出了根据本发明的一个实施例的用于在第一输入和第二输入之间切换控制的替代方法的流程图。
图5A示出了根据本发明的一个或多个实施例的显示对象的示例性触敏装置。
图5B示出了根据本发明的若干实施例的用于定位对象的控制的过程的流程图。
图6示出了根据本发明的若干实施例的用于定位对象的控制的过程的流程图。
图7示出了根据本发明的若干实施例的用于实现本发明的方法和设备中的一个或多个的系统的系统示意图。
对应的参考字符贯穿若干幅图指示对应的组件。技术人员将理解,图中的元件是处于简明的目的而示出的,并且不一定按比例绘制。例如,图中某些元件的尺寸可能相对于其它元件有所夸大,以帮助改善对本发明的各种实施例的理解。此外,在商业上可行的实施例中有用或必要的通用但很好理解的元件通常不被绘出,以便促进对本发明的这些不同实施例的更直观的查看。
具体实施方式
不应以限制性的含义来理解以下描述,提供以下描述仅仅是为了描述示例性实施例的一般原理的目的。本发明的范围应参考权利要求书来确定。
可采用触摸屏技术的一种设备的实例是手持装置,如智能电话或便携式游戏装置。这样的装置可包括用于控制装置的功能的触摸屏。为了向用户提供大的显示区域、向用户提供用户友好的功能控制器或出于其它原因,可将装置构造成使得用户无法单手遍历整个触摸屏。在这样的实例中,用户通常无法从显示器的一侧向显示器的另一侧移动对象而而不招致一些困难。
在本发明的一些实施例中,提供了一种使用触敏控制板(如触摸屏、触摸板或其它类型的触敏控制板)无缝地连续控制显示的对象的方法。无缝地连续控制显示的对象是通过允许在在触敏控制板上的两个不同输入之间切换控制来提供的。在一个实施例中,例如,本发明提供了一种在由用户的右手提供的第一“触摸输入”到由用户的左手提供的第二“触摸输入”之间的切换控制方法。在另一实施例中,本发明提供了一种从例如用户的右手的一个“触摸输入”到即用户的左手的第二“触摸输入”投掷/定位对象的方法。
首先参考图1,示出了根据本发明的一个或多个实施例的显示对象的示例性触敏装置。
如图所示,在本示例性实施例中,用户正与在装置100上运行的应用交互。装置100可包括任何类型的装置,如手持计算装置或未示出的外部装置或系统的控制器。手持计算装置的实例包括但不限于移动装置和电话、蜂窝装置和电话、智能电话、个人数字助理(PDA)、平板式或板式计算机、手持计算机或简单地“手持设备”、掌上装置和计算机、便携式游戏和/或娱乐装置、袖珍个人计算机等。外部装置或系统的控制器的实例包括但不限于游戏系统控制器、娱乐系统控制器、电视遥控器等。在装置100上运行的应用可包括任何类型的应用,如游戏或其它娱乐应用,或电子邮件、电话或其它通信应用,或整理器,如通讯录,或任何其它类型的应用。
装置100被示出为长方形的装置,其具有触敏屏幕,其中该触敏屏幕包括用于如应用被操纵那样查看应用的显示器。在示出的实施例中,手持装置100包括外壳102,且进一步包括附接到手持装置的外壳102的至少一个触敏控制板120。在一个实施例中,外壳102可具有旨在用于手持使用的大小。在一个实施例中,装置100可进一步包括基于处理器的系统,其被配置来执行如下文中更详细地讨论的一种或多种方法。在一些实施中,装置100可包括在装置的一侧上的触摸板以及在装置的另一侧上的用于查看应用的传统(非触敏)显示屏。在另外的实施例中,装置100可仅包括触摸板,并且应用可显示在诸如电视的外部装置上。
通常,在一些实施例中,可在触敏控制板上以允许用户在右手手指和左手手指之间切换的方式进行滑动移动。例如,对象可显示在与装置100相关的任何显示屏(如附接到装置100的触敏或非触敏显示屏,或者是在装置100外部的触敏或非触敏显示屏)上。用户使用第一手指来通过附接到装置100的触敏控制板(如位于装置100的任一侧上的触摸屏,或者是位于装置100的任一侧上的触摸板)选择和移动显示的对象。该第一手指在本文称为第一触摸输入。
接下来,用户用第二手指触摸触敏控制板,其中用户要把显示的对象转交到第二手指。该第二手指在本文称为第二触摸输入。与装置100相关的处理系统跟踪移动对象的第一手指,并忽略用户的第二手指,直到两个手指触摸区域合并,这时发生转交。在转交之后,系统跟踪用户的第二手指,并根据第二手指的移动来移动对象。
在一些实施例中,在第一和第二触摸输入之间的切换通过允许未联系到屏幕上的对象的第二触摸输入与控制对象的第一触摸输入合并来准确地完成。在合并时,两个单独的触摸被视为一个触摸。当控制对象的第一手指不再触摸触敏控制板时,转交完成并且“新的”(即第二)手指/触摸此时控制对象。
更具体来说,参考图1,在一个实施例中,用户使用第一触摸输入130(例如,如图所示的左手)控制显示的对象110。如图所示,用户能够使用他的/她的手指从第一位置(1)向第三位置(3)移动对象。如图所示,在位置3,用户的左手指完全伸展。相应地,用户将不得不伸展他的手,以便使用相同的手来进一步控制对象110,并且可进一步失去对对象的掌控。
在一个实施例中,当用户在位置(3)时,系统检测对象的转交。检测转交请求的细节的示例性实施例在下文参照图2至图4进一步描述。接下来,系统确定对象110和第二输入源是否在合并区150内,并且对象的控制从第一输入130切换到第二输入140。在一个实施例中,第一输入和第二输入的指示可显示给用户,以便帮助用户将第二输入放置在转交可以发生的地方。例如,在一个实施例中,对象被显示并指示控制对象的输入的位置。在一个实施例中,第二输入的指示也显示在屏幕上,使得用户能够查看输入相对于彼此以及相对于对象的位置。通过转交请求的检测,系统开始从第一输入到第二输入的切换控制过程。
如图所示,用户的第二手140在本示例性实施例中表示第二输入。在一个实施例中,用户的第二触摸输入140(右手)的位置由系统确定,并与第一触摸输入130(左手)的位置和/或对象110的位置(例如,位置(3))比较。如图1的示例性实施例中所示,在位置(3),第一输入、第二输入和对象的位置都在合并区150内。在这样的实施例中,用户用第一输入控制对象,直到提供第二输入并完成切换。因此,在本示例性实施例中,当对象在位置(3)时,系统将进行到从第一输入130(即,用户的左手/手指)到第二输入(即,用户的右手/手指)140切换对象的控制。
在另一实施例中,用户可在对象的控制被切换到第二输入140之前短暂地释放对象。在这样的实施例中,系统可允许在移除了第一输入之后对象保持在第一输入的最近一个位置的预先确定的时间,并且当第二输入被提供时控制将被切换到第二输入。在这样的实施例中,用户的第二触摸输入140(右手)的位置由系统确定,并与对象110的位置(例如,位置(3))比较。在一个实施例中,对象的位置是第一输入的最近一个已知的位置。在这样的实施例中,当第二输入到达对象的位置(例如,位置(3))时,系统将进行到将对象的控制给予第二输入140(即,用户的右手/手指140)。
在一些实施例中,如图1所示,在已根据下文所述的过程200和/或300切换控制之后,然后第二输入140可开始对象的控制,并且如图所示可跨屏幕移动对象(例如,从位置(3)到第二和第三位置(4)和(5))。
在上面的实例中,触摸输入包括触摸触敏控制板的用户的拇指。应理解,触摸输入可包括触摸触敏控制板的任何手指、手、脚趾或任何其它身体部位。还应理解,触摸输入可包括用任何物体(如手写笔)触摸触敏控制板。
接下来参考图2,图2示出了在第一触摸输入和第二触摸输入之间切换控制的简化方法200的流程图。首先,在步骤210中,将对象显示在屏幕上。例如,可将对象显示在与装置100相关的任何显示屏(如附接到装置100的触敏或非触敏显示屏,或者是在装置100外部的触敏或非触敏显示屏)上。在一个实施例中,将屏幕附接到手持装置。在一个实施例中,屏幕可为触摸屏显示器。在其它实施例中,屏幕在装置外部。接下来,在步骤220中,接收第一触摸输入来控制对象的移动。例如,在一个实施例中,手持装置包括外壳,并且进一步包括附接到手持装置的外壳的至少一个触摸控制板。在一个实施例中,控制板进一步包括显示能力,其中在这样的实施例中对象显示在触摸控制板上。在一个实施例中,通过用户将手指放在屏幕上并移动对象来接收触摸输入。在另一实施例中,用户可使用替代的触摸输入装置,如笔或手写笔。在步骤220中,系统接收输入并根据触摸输入控制对象的移动。在一个实施例中,例如,用户通过将他的/她的手指放在对象上并跨屏幕移动对象来引导对象。
接下来,在步骤230中,在手持装置处检测转交请求。例如,在一个实施例中,当用户的第一触摸输入获得对象的控制时检测请求。也就是说,在一个实施例中,用户可使用第一手(例如右手)控制对象,并可到达用户不能使用该手舒服地控制对象的点,在这样的时候用户可抬起他的/她的手,并且这样的控制获取可触发系统来识别转交请求。在另一实施例中,可能存在预定义的动作,例如可被系统理解为转交请求的单击或双击。
在又一实施例中,系统可监视由第一输入移动对象的速度,并且在系统检测到对象的移动速度的不可接受的变化时,可将该变化理解为转交请求。在另一实施例中,系统检测在触敏控制板上的第二触摸输入,并且将检测到理解为对在第一输入和第二输入之间转交控制的请求。例如,在用户使用第一触摸输入(例如,第一手指)控制对象的实施例中,在某个点,用户可在触敏控制板上放置另一触摸输入(例如,第二手指),并且系统可将此理解为对从第一触摸输入到第二触摸输入切换控制的请求。在另一实施例中,一旦对象已经过预定义的阈值区域,系统便可检测转交请求。例如,在一个实施例中,系统可指定半途点,在该点处确定应将控制从一只手切换到另一只手。在其它实施例中,系统可使用这样的方法的组合来检测转交请求。
接下来,在步骤240中,系统确定是否在合并区内检测到第二输入。如上文所述,在一个实施例中,第一输入和第二输入中的一个或两个为触摸输入。在一个实施例中,合并区定义为在其中可在第一输入和第二输入之间切换控制的区域。在一个实施例中,合并区定义其中第二输入在邻近对象的位置使得可将对象的控制传递到第二输入的区域。在一个实施例中,合并区可为用于正在运行的特定应用和/或整个系统的预定义区域。也就是说,应用开发者和/或系统开发者可在输入面板或屏幕上指定定义为合并区的位置。在另一实施例中,合并区可相对于第一输入、第二输入的位置和/或对象的位置中的一个或多个来计算。在一个实施例中,在检测到请求时确定第一输入、第二输入和/或对象的位置。在另一实施例中,将合并区计算为第一输入和第二输入之间的距离、对象和第二输入之间的距离、第二输入周围的半径、第一输入周围的半径、对象周围的半径或其某个组合。在一些实施例中,在计算合并区时可考虑由第一输入移动对象的速度以及其它变量。
如果在步骤240确定在合并区内检测到第二输入,则在步骤250系统将对象的控制切换到第二输入。在一个实施例中,例如,在步骤250中,对象的控制从第一输入释放并切换到第二输入。在另一实施例中,在步骤250中,第一输入可已释放对象,并且第二输入可获得对象的控制。在这样的实施例中,一旦从第一输入的控制释放了对象,对象将保持在第一输入的最近一个位置,直到在步骤250控制切换到第二输入。
在完成该步骤之后,第二输入具有应用中对象的控制,例如,直到检测到另一转交请求。在一个实施例中,在步骤250之前,可能存在对象不受第一或第二输入中的任何一个控制的时段。在一些实施例中,系统可自动在此时间期间控制对象,直到控制从第一输入切换到第二输入。在一个实施例中,在自动控制期间,对象的位置可固定在第一输入获得对象的控制的位置。在另一实施例中,系统可基于若干不同变量(如在步骤210在转交请求之前对象的移动速度和/或移动方向、第二输入的位置、应用的上下文、预定义的用户或系统设置等)自动移动对象。
或者,当确定未在合并区内检测到第二输入时,在步骤260中,从控制释放对象。在一个实施例中,系统可在释放对象之前等待预先确定的时间,在该时间期间系统将持续监视第二输入的位置,以确定该位置是否在合并区内。在另一实施例中,系统可在释放对象之前通知用户。在一个实施例中,在释放对象之后,对象返回到其在被第一输入控制之前的原始位置。在另一实施例中,在释放之后,对象保持在其当前位置,即第一输入的最近的已知位置。
接下来参考图3,图3示出了根据本发明的一个实施例的用于在第一输入和第二输入之间切换控制的方法300的更详细的流程图。
首先,在步骤310中,在屏幕上显示对象。例如,可将对象显示在与装置100相关的任何显示屏(如附接到装置100的触敏或非触敏显示屏,或者是在装置100外部的触敏或非触敏显示屏)上。在一个实施例中,将屏幕附接到手持装置。在一个实施例中,屏幕可为触摸屏显示器。在另一实施例中,屏幕可在装置外部。接下来,在步骤320中,接收第一触摸输入来控制对象的移动。例如,在一个实施例中,手持装置包括外壳,并且进一步包括附接到手持装置的外壳的至少一个触敏控制板。在一个实施例中,控制板进一步包括显示能力,其中在这样的实施例中对象显示在触摸控制板上。在一个实施例中,通过用户将手指放在屏幕上并移动对象来接收触摸输入。在另一实施例中,用户可使用替代的触摸输入装置,如笔。在步骤320,系统接收输入并根据触摸输入控制对象的移动。在一个实施例中,例如,用户通过将他的/她的手指放在对象上并跨屏幕移动对象来引导对象。
接下来,在步骤330中,在手持装置处检测转交请求。在一个实施例中,转交请求开始从第一输入(例如,第一触摸输入)和第二输入(例如,第二触摸输入)切换控制的过程。在一个实施例中,当控制对象的移动时,系统可持续地监视对象、第一输入和第二输入中的一个或多个,直到检测到转交请求。在一个实施例中,当用户获得对象的控制时可检测到转交请求。也就是说,在一个实施例中,用户可使用第一手(例如右手)控制对象,并可到达用户不再能够使用该手舒服地控制对象的点,在这样的时候用户可抬起他的/她的手,并且这样的控制获取可触发系统来识别转交请求。在另一实施例中,可能存在预定义的动作,例如可被系统理解为转交请求的单击或双击。
在又一实施例中,系统可监视由第一输入移动对象的速度,并且在系统检测到对象的移动速度的未预期的变化时,可将该变化理解为转交请求。在另一实施例中,系统检测在手持装置处的第二输入,例如在触敏控制板或屏幕上提供的第二触摸输入,并且将检测到理解为对在第一输入和第二输入之间转交控制的请求。例如,在用户使用第一触摸输入(例如,第一手指)控制对象的实施例中,在某个点,用户可在触敏控制板上放置另一触摸输入(例如,第二手指),并且系统可将此理解为对从第一触摸输入到第二触摸输入切换控制的请求。在另一实施例中,一旦对象已经过预定义的阈值区域,系统便可检测转交请求。例如,在一个实施例中,系统可指定半途点,在该点处确定应将控制从一只手切换到另一只手。在其它实施例中,系统可使用这样的方法的组合来检测转交请求。
如果在步骤330检测到转交,则过程进行到步骤340。否则,系统继续根据第一输入控制对象的移动。
接下来,在步骤340中,系统确定是否在合并区内检测到第二输入。在一些实施例中,可将第一输入和第二输入的指示显示给用户,以便帮助用户将第二输入放置在转交可以发生的地方。例如,在一个实施例中,对象可被显示并指示控制对象的输入的位置。在一个实施例中,第二输入的指示也显示在屏幕上,使得用户能够查看输入相对于彼此以及相对于对象的位置。如上文所述,在一个实施例中,第一输入和第二输入中的一个或两个为触摸输入。在一个实施例中,合并区定义为在其中可在第一输入和第二输入之间切换控制的区域。在一个实施例中,合并区定义其中第二输入在邻近对象的位置使得可将对象的控制传递到第二输入的区域。在一个实施例中,合并区可为用于在手持装置处的正在运行的特定应用和/或整个系统的预定义区域。也就是说,应用开发者和/或系统开发者可在输入面板或屏幕上指定定义为合并区的位置。在另一实施例中,合并区可相对于第一输入的位置、第二输入的位置和/或对象的位置中的一个或多个来计算。在一个实施例中,在检测到请求时确定第一输入、第二输入和/或对象的位置。在一些实施例中,可将合并区计算为第一输入和第二输入之间的距离、第二输入周围的半径、第一输入周围的半径或其某个组合。在一些实施例中,在计算合并区时可考虑由第一输入移动对象的速度以及其它变量。
如果确定未在合并区内检测到第二输入,则在步骤345,确定是否第一输入仍在控制对象。也就是说,在一个实施例中,系统将查看是否第一输入已获得对象的控制,例如通过从对象提起触摸输入。在一个实施例中,当第一输入获得对象的控制时,对象将保持在获得控制的位置达预先确定的时间量t。在一个实施例中,如果在步骤345确定第一输入已获得对象的控制,则在步骤350从控制释放对象。在一个实施例中,系统可在释放对象前通知用户。在一个实施例中,在释放对象之后,对象返回到其在被第一输入控制之前的原始位置。在另一实施例中,在被释放之后,对象保持在其当前位置,即第一输入获得对象的控制的位置,例如第一输入的最近的已知位置。
如果在另一方面在步骤345确定第一输入仍在控制对象,则系统将返回到步骤340并监视是否在合并区内检测到第二输入。在一个实施例中,系统可在释放对象之前等待预先确定的时间,在该时间期间,系统将持续地监视第二输入并监视第二输入的位置来确定是否检测到第二输入和/或第二输入的位置在合并区内。在一个实施例中,只要对象被控制,系统就可继续监视位置,并且一旦第一输入获得对象的控制(如在步骤345所确定的)便可释放对象。
或者,如果在步骤340确定在合并区内检测到第二输入,则在步骤360将控制切换到第二输入并且第一输入可被提起和/或获得对象的控制。在一个或多个实施例中,在步骤340和/或360期间,第一输入/对象和第二输入的位置被监视,并且一旦第一输入和第二输入的位置使得第二输入控制对象,例如第二输入触摸对象,控制便被切换到第二输入。在步骤360,在一些实施例中,对象的控制从第一输入被释放,并被切换到第二输入。在此步骤完成之后,第二输入具有应用中的对象的控制,直到检测到另一转交请求。
接下来参考图4,图4示出了根据本发明的一个实施例的用于在第一输入和第二输入之间切换控制的替代方法400的详细的流程图。
首先,在步骤410中,在屏幕上显示对象。例如,可将对象显示在与装置100相关的任何显示屏(如附接到装置100的触敏或非触敏显示屏,或者是在装置100外部的触敏或非触敏显示屏)上。在一个实施例中,将屏幕附接到手持装置。在一个实施例中,屏幕可为触摸屏显示器。在另一实施例中,屏幕可在装置外部。接下来,在步骤420中,接收第一触摸输入来控制对象的移动。例如,在一个实施例中,手持装置包括外壳,并且进一步包括附接到手持装置的外壳的至少一个触敏控制板。在一个实施例中,控制板进一步包括显示能力,其中在这样的实施例中对象显示在触摸控制板上。在一个实施例中,通过用户将手指放在控制板上并移动对象来接收触摸输入。在另一实施例中,用户可使用替代的触摸输入装置,如笔。在步骤420,系统接收第一输入并根据第一触摸输入控制对象的移动。在一个实施例中,例如,用户通过将他的/她的手指放在对象上并跨屏幕移动对象来引导对象。
接下来,在步骤430中,在手持装置处检测转交请求。在一个实施例中,当控制对象的移动时,系统可持续地监视对象、第一输入和第二输入中的一个或多个,直到检测到转交请求。在一个实施例中,转交请求开始从第一输入(例如,第一触摸输入)和第二输入(例如,第二触摸输入)切换控制的过程。在一个实施例中,当用户获得对象的控制时可检测到转交请求。也就是说,在一个实施例中,用户可使用第一手(例如右手)控制对象,并可到达用户不再能够使用该手舒服地控制对象的点,在这样的时候用户可抬起他的/她的手,并且这样的控制获取可触发系统来识别转交请求。在另一实施例中,可能存在预定义的动作,例如可被系统理解为转交请求的单击或双击。
在又一实施例中,系统可监视由第一输入移动对象的速度,并且在系统检测到对象的移动速度的未预期的变化时,可将该变化理解为转交请求。在另一实施例中,系统检测在手持装置处的第二输入,例如在触敏控制板或屏幕上提供的第二触摸输入,并且将检测到理解为对在第一输入和第二输入之间转交控制的请求。例如,在用户使用第一触摸输入(例如,第一手指)控制对象的实施例中,在某个点,用户可在触敏控制板上放置另一触摸输入(例如,第二手指),并且系统可将此理解为对从第一触摸输入到第二触摸输入切换控制的请求。在另一实施例中,一旦对象已经过预定义的阈值区域,系统便可检测转交请求。例如,在一个实施例中,系统可指定半途点,在该点处确定应将控制从一只手切换到另一只手。在其它实施例中,系统可使用这样的方法的组合来检测转交请求。
如果在步骤430检测到转交,则过程进行到步骤440。否则,系统继续根据第一输入控制对象的移动。
接下来,在步骤440中,系统确定是否在合并区内检测到第二输入。在一个实施例中,合并区定义其中第二输入在邻近对象的位置使得可将对象的控制传递到第二输入的区域。在一个实施例中,可将第一输入和第二输入的指示显示给用户,以便帮助用户将第二输入放置在转交可以发生的地方。例如,在一个实施例中,对象可被显示并指示控制对象的输入的位置。在一个实施例中,第二输入的指示也显示在屏幕上,使得用户能够查看输入相对于彼此以及相对于对象的位置。如上文所述,在一个实施例中,第一输入和第二输入中的一个或两个为触摸输入。在一个实施例中,合并区定义为在其中可在第一输入和第二输入之间切换控制的区域。在一个实施例中,合并区定义其中第二输入在邻近对象的位置使得可将对象的控制传递到第二输入的区域。
在一个实施例中,合并区可为用于在手持装置处的正在运行的特定应用和/或整个系统的预定义区域。也就是说,应用开发者和/或系统开发者可在输入面板或屏幕上指定定义为合并区的位置。在另一实施例中,合并区可相对于第一输入的位置、第二输入的位置和/或对象的位置中的一个或多个来计算。在一个实施例中,在检测到请求时确定第一输入、第二输入和/或对象的位置。在一些实施例中,可将合并区计算为第一输入和第二输入之间的距离、第二输入周围的半径、第一输入周围的半径或其某个组合。在一些实施例中,在计算合并区时可考虑由第一输入移动对象的速度以及其它变量。
如果确定未在合并区内检测到第二输入,则在步骤445,确定是否第一输入仍在控制对象。也就是说,在一个实施例中,系统将查看是否第一输入已获得对象的控制,例如通过从对象提起触摸输入。在一个实施例中,当第一输入获得对象的控制时,对象将保持在获得控制的位置达预先确定的时间量t,以允许第二输入取得对象的控制。
在一个实施例中,预先确定的时间t可由系统或特定程序(例如,游戏应用)定义。在另一实施例中,预先确定的时段可能另外或替代地可由用户自定义。在另一实施例中,系统或应用可基于用户特征随着时间推移来调整预先确定的时段。例如,在一个实施例中,系统可确定用户具有在输入之间的更长的延迟的模式,并可调整预先确定的时间来反映此延迟。
在一个实施例中,如果在步骤445确定第一输入已获得对象的控制,则在步骤450确定是否已经过预先确定的时间t。例如,在一个实施例中,当第一输入获得对象的控制时,然后可启动计时器来保持对对象不由任何输入控制的已经过的时间的跟踪。在一个实施例中,在此预先确定的时段期间,对象保持在第一输入的最近的已知位置。
如果在步骤450确定已经过所述时间,则过程进行到步骤455并且从控制释放对象。在一个实施例中,系统可在释放对象前通知用户。在一个实施例中,在释放对象之后,对象返回到其在被第一输入控制之前的原始位置。在另一实施例中,在被释放之后,对象保持在其当前位置,即第一输入获得对象的控制的位置,例如第一输入的最近的已知位置。
如果在另一方面在步骤445确定第一输入仍在控制对象或如果在步骤450确定尚未经过时间t,则系统将返回到步骤440并监视是否在合并区内检测到第二输入。
在一个实施例中,只要第一输入控制对象(步骤445)或尚未经过预先确定的时间,系统就将持续地监视第二输入并监视第二输入的位置来确定是否检测到第二输入和/或第二输入的位置在合并区内,因为第一输入获得了对象的控制(步骤450)且一旦步骤445和步骤450的条件都不满足将释放对象。
当在步骤440确定在合并区内检测到第二输入时,在步骤460将控制切换到第二输入并且第一输入可被提起和/或获得对象的控制。在一些实施例中,对象的控制从第一输入被释放,并被切换到第二输入。在此步骤完成之后,第二输入具有应用中的对象的控制,直到检测到另一转交请求。
在一个或多个实施例中,在步骤440和/或460期间,第一输入/对象和第二输入的位置被监视,并且一旦第一输入和第二输入的位置使得第二输入控制对象,例如第二输入触摸对象,控制便被切换到第二输入。在一个实施例中,可允许第二时段t2来确保第二输入的位置在相对于对象的位置以允许对象的控制。在一个或多个实施例中,第一输入和第二输入的指示可显示给用户,以便帮助用户将第二输入放置在转交可以发生的地方。例如,在一个实施例中,对象被显示并指示控制对象的输入的位置。在一个实施例中,第二输入的指示也显示在屏幕上,使得用户能够查看输入相对于彼此以及相对于对象的位置。
接下来,将描述本发明的可替代实施例,其中控制从一个输入定位/传递到第二输入。
总的来说,在一些实施例中,第一触摸输入可以使对象行进一段距离并允许用户在其行进轨迹期间用第二触摸输入捕获对象的方式将对象定位在触敏控制板上。例如,可将对象显示在与装置100相关的任何显示屏(如附接到装置100的触敏或非触敏显示屏,或者是在装置100外部的触敏或非触敏显示屏)上。用户使用第一手指来通过附接到装置100的触敏控制板(如位于装置100的任一侧上的触摸屏,或者是位于装置100的任一侧上的触摸板)选择和移动显示的对象。该第一手指在本文称为第一触摸输入。接下来,第一手指可例如通过在触敏控制板上产生定位运动(使对象跨屏幕行进一段距离)来促使显示的对象的定位。
接下来,用户用第二手指触摸触敏控制板,其中用户要把显示的对象转交到第二手指。该第二手指在本文称为第二触摸输入。与装置100相关的处理系统在对象根据定位遍历一段距离时跟踪对象的移动,并忽略用户的第二手指,直到对象和第二触摸输入合并,这时第二输入可开始控制对象。在那之后,系统跟踪用户的第二手指,并根据第二手指的移动来移动对象。
参考图5A,图5A示出了根据本发明的一个或多个实施例的显示对象的示例性触敏装置。
如图所示,在本示例性实施例中,用户与在装置100上运行的应用交互。装置100被示出为长方形的装置,其具有外壳102、触敏屏幕120,其中触敏屏幕120包括用于查看如其被操纵那样的应用的显示器。在其它实施例中,装置100可仅包括触摸板,并且应用可显示在诸如电视的外部装置上。在又一实施例中,装置100可不具有触敏能力,并且用户可替代地使用诸如滚动球、按钮、操纵杆等的其它控制方式来控制对象。例如,在示出的实施例中,装置100包括具有旨在用于手持使用的大小的外壳102且进一步包括附接到手持装置的外壳的至少一个触敏控制板102。在一个实施例中,装置100可进一步包括基于处理器的系统,其包括在外壳中,用于执行如下文更详细地描述的一种或多种方法。在装置上运行的应用可包括任何类型的应用,如上述任何类型的应用。
在一个实施例中,如图所示,用户使用第一手130(例如,左手)控制对象110,如图5A所示。如图所示,用户能够使用他的/她的第一手指将对象从第一位置(1)定位到第二位置(5)。在一个实施例中,用户将对象从位置(1)定位使得定位使对象行进一段距离,例如从屏幕上的位置(1)到位置(5)。在一个实施例中,当对象跨屏幕行进时,可在装置100处检测第二输入140。在下文参照图5B和6详细描述了检测第二输入的实例过程。
在一个实施例中,系统在对象110跨屏幕行进一段距离时递归地监视对象110的位置。在一个实施例中,系统确定对象110和第二输入源140在合并区150内,并且对象的控制被切换到第二输入140。在一个实施例中,可将合并区150显示给用户。例如,用户可能够查看合并区,以便确定用来提供第二输入的区域。在另一实施例中,不将合并区显示给用户。
如图所示,用户的第二手140在本示例性实施例中表示第二触敏输入。在一个实施例中,用户的第二输入140(右手)的位置由系统确定,并与对象的位置(例如,位置(1)、位置(2)、位置(3)、位置(4)和位置(5))比较。如在图5A的示例性实施例中所示,在位置(5),第二输入的位置和对象的位置都在合并区150内。因此,在本示例性实施例中,当对象在位置(5)时,系统将进行到将对象的控制切换到第二输入,即用户的右手/手指140。在一些实施例中,在已根据过程500和/或下面描述的过程600切换控制之后,第二输入140可然后开始对象的控制并可跨屏幕移动对象。
接下来参考图5B,图5B示出了根据若干实施例的用于定位对象的控制的过程500的流程图。首先,在步骤505中,显示对象。例如,对象可显示在与装置100相关的任何显示屏(如附接到装置100的触敏或非触敏显示屏,或者是在装置100外部的触敏或非触敏显示屏)上。在一个实施例中,对象显示在手持装置的触敏显示器上。在另一实施例中,对象显示在与接收输入的触敏装置或触敏控制板分开的显示器上。在一个实施例中,在显示对象期间的某些时间对象由在装置处提供的第一输入控制。例如,在一个实施例中,在触敏控制板/显示器处的第一触摸输入控制对象的移动。
在此时间期间,在步骤510中,在装置处检测通过第一输入的对象定位。例如,在一个实施例中,系统可监视由第一输入移动对象的速度,并且当系统检测到对象的移动速度的不可接受的变化时,可将该变化理解为定位。在一些实施例中,在由第一输入移动和/或控制对象的过程中的突然中止可指示已定位对象。在另一实施例中,可能存在预定义的动作,如可被系统理解为转交请求的单击或双击。在又一实施例中,对象的移动方向可向系统发出对象被定位的警报。在一个实施例中,用户可创建定位运动,从而向系统发出对象被定位的警报。在其它实施例中,这些和其它指示器的组合可由系统用来检测定位。
在一个实施例中,在检测到对象被定位时,系统开始通过确定的路径的对象的自动控制。在一个实施例中,对象的定位将使对象跨屏幕行进一段距离。在一个实施例中,对象行进经过的路径根据定位的速度、对象的重量、正在运行的特定应用的环境以及其它类似值中的一个或多个来确定。例如,在一个实施例中,用户可通过调整确定对象将行进的速度、对象将行进的距离或对象的投影的设置来调整路径。
接下来,在步骤520中,系统确定定位的对象的当前位置。在一些实施例中,在定位时和/或在定位之前对象的速度用来确定当前位置。在另一实施例中,对象的重量可另外或替代地用于确定当前位置。在又一实施例中,应用环境的上下文可用于确定当前位置。例如,在一个实施例中,应用可包括游戏,并且可在对象的特性之外还或代替对象的特性考虑游戏中的其它对象和/或效果。例如,在一个实施例中,系统可确定对象将通过具有路障的一段距离行进。在这样的实施例中,将考虑导致与这样的路障接触的对象速度的放缓。
一旦确定了对象的当前位置,过程便进行到步骤530,并确定当前位置和第二输入是否在合并区内。如上文所述,在一个实施例中,合并区定义为在其中可在第一输入和第二输入之间切换控制的区域。在一个实施例中,合并区可为用于正在运行的特定应用的预定义区域。在另一实施例中,可将合并区计算为第一输入和第二输入之间的距离、对象位置和第二输入之间的距离、第二输入周围的半径、对象周围的半径或其某个组合。在一些实施例中,在计算合并区时可考虑由第一输入移动对象的速度以及对象的其它特性和/或应用内的其它对象。
如果在步骤530确定对象的位置和第二输入在合并区内,则在步骤540将对象的控制切换到第二输入。在完成此步骤之后,第二输入具有应用中对象的控制,直到检测到另一转交或定位。在一个实施例中,在步骤540之前,可能存在对象既不受第一输入控制也不受第二输入控制的时段。例如,在一个实施例中,一旦在步骤510定位了对象,第一输入便可释放对象的控制。在一些实施例中,系统可在此时间期间自动控制对象,直到控制被切换到第二输入。在一个实施例中,系统可在对象跨屏幕行进一段距离时基于若干不同变量(如在步骤510中的定位之前对象的移动时的速度、定位的力量和/或移动的方向,第二输入的位置、应用的上下文、预定义的用户或系统设置等)来自动控制对象。在一些实施例中,对象在其行进轨迹期间的移动也可自动调整。例如,在一个实施例中,可将平滑效果应用于对象,以产生对象的平滑移动。在另一实施例中,可计算对象的实际行进轨迹路线。在一个实施例中,如果此实际行进轨迹导致某个未预期的路线或路障,则系统可自动调整行进轨迹来允许对象到达想要的目标位置。
或者,如果在步骤530确定第一和第二输入不在合并区内,则在步骤550一旦对象已遍历定位所意欲的距离(例如,到达了目标位置)便从控制释放对象。在一个实施例中,系统可在释放对象之前等待预先确定的时间,在该时间期间,系统将持续地监视对象的位置和第二输入,以确定位置是否在合并区内。在另一实施例中,系统可在释放对象之前通知用户。在一个实施例中,当对象被释放时,其将保持在最终位置,直到提供了另一输入来控制对象。在又一实施例中,在被释放时,对象可返回到其在定位时的原始位置,即在步骤510之前的位置。
接下来参考图6,图6示出了根据一些实施例的用于从第一输入到第二输入定位控制的过程600的更详细的流程图。
首先,在步骤610中,显示对象。在一个实施例中,对象显示在手持装置的触敏显示器上。在另一实施例中,对象显示在与接收输入的触敏装置或触敏控制板分开的显示器上。在一个实施例中,显示器可在手持装置外部,而在其它实施例中,显示器是集成的。在一个实施例中,在显示对象期间的某些时间对象由在装置处提供的第一输入控制。例如,在一个实施例中,在触敏控制板/显示器处的第一触摸输入控制对象的移动。
在用户控制对象时,在步骤610对象持续地被监视,直到在步骤620检测到定位。例如,在一个实施例中,监视对象的位置、移动速度、移动方向和其它特性。此外,在一些实施例中,在步骤610期间可监视第一输入的控制方式。在一些实施例中,系统可监视由第一输入移动对象的速度,并且当系统检测到对象的移动速度的未预期的变化时,可将该变化理解为步骤620中的定位。在一个实施例中,在由第一输入移动和/或控制对象过程中的突然中止可指示已定位对象。在另一实施例中,可能存在预定义的动作,如可被系统理解为转交请求的单击或双击。在又一实施例中,对象的移动方向可向系统发出对象被定位的警报。在其它实施例中,这些和其它方法的组合可被系统用来检测定位。在一个实施例中,系统可继续监视对象,直到检测到定位。
在一个实施例中,对象的定位使对象跨屏幕遍历路径。在一个实施例中,对象将行进的路径基于若干不同因素来确定。根据若干环境,对象将行进经过的路径根据定位的速度、对象的重量、应用环境以及其它类似值中的一个或多个来确定。例如,在一个实施例中,用户可通过调整确定对象将行进的速度、对象将行进的距离或对象的投影的设置来调整路径。在一个实施例中,在检测到对象被定位时,系统开始通过确定的路径的对象的自动控制。
在一个实施例中,一旦在步骤620检测到定位,系统便可开始对象的自动控制。例如,在一个实施例中,一旦在步骤620对象被定位,第一输入便可释放对象的控制。在一些实施例中,系统可在此时间期间自动控制对象,直到控制被切换到第二输入。在一个实施例中,系统可在对象跨屏幕行进一段距离时基于若干不同变量(如在步骤610中的定位之前对象的移动速度、定位的力量和/或移动方向,第二输入的位置、应用的上下文、预定义的用户或系统设置等)来自动控制对象。在一些实施例中,对象在其行进轨迹期间的移动也可自动调整。在一个实施例中,可将平滑效果应用于对象,以产生对象的平滑移动。在另一实施例中,可计算对象的实际行进轨迹路线。在一个实施例中,如果此实际行进轨迹导致某个未预期的路线或路障,则系统可自动调整行进轨迹来允许对象到达想要的目标位置。
一旦在步骤620检测到定位,系统便可进行到步骤630。在步骤630,系统监视定位的对象的当前位置。也就是说,系统确定定位的对象当前所在的位置。在一个实施例中,在步骤630期间,递归地确定在对象跨屏幕上的一段距离的行进轨迹/遍历期间的当前位置,直到对象中止并停止移动,或者直到用户输入开始对象的控制。
在一个实施例中,基于响应于定位而确定对象的遍历路径且因此确定在不同时间间隔相对于对象的已确定路径的位置来确定对象的位置。在一些实施例中,在定位时和/或就在定位前对象的速度可用于确定对象的当前位置。在另一实施例中,对象的重量可另外或替代地用于确定位置。在又一实施例中,应用环境可用于确定对象的位置。例如,在一个实施例中,可在对象的特性之外还或代替对象的特性考虑应用中的其它对象和/或效果。例如,在一个实施例中,系统可确定对象将通过具有路障的一段距离行进。在这样的实施例中,在确定对象的当前位置时,将考虑导致与这样的路障接触的对象速度的放缓。
在步骤630确定对象的当前位置之后,过程继续到步骤640,并确定对象位置和第二输入的位置是否在合并区内。如上文所述,在一个实施例中,合并区定义为在其中可将控制切换到第二输入的区域。在一个实施例中,合并区可为用于应用的预定义区域。在另一实施例中,将合并区计算为第一输入和第二输入之间的距离、目标位置和第二输入之间的距离、第二输入周围的半径、目标位置周围的半径或其某个组合。在一些实施例中,在计算合并区时可考虑由第一输入移动对象的速度以及对象的其它特性和/或应用内的其它对象。
如果在步骤640确定对象的当前位置和第二输入不在合并区内,则在步骤650对象被释放并且将不再受控制,直到检测到另一输入。在一个实施例中,递归地进行步骤640中的确定,直到对象中止移动和/或落定。也就是说,在一些实施例中,当在步骤640确定对象的当前位置和第二输入不在合并区内时,在步骤645系统确定对象是否仍在响应于定位而移动和/或遍历。如果在步骤645确定对象仍在移动,则过程返回到步骤630并递归地重复步骤630、步骤640和步骤645,直到确定对象的位置和第二输入在合并区内(步骤640)或对象已停止跨屏幕移动(645)。
如果在步骤645确定对象已停止移动,则释放对象。在一个实施例中,当对象被释放时,对象将保持在最终位置,直到提供了另一输入来控制对象。在又一实施例中,在被释放时,对象可返回到其在定位时的原始位置,即刚好在步骤620之前的位置。
接下来,如果确定目标位置和第二输入的位置在合并区内,则在步骤660系统继续监视并确定对象和第二输入的位置以确定其是否位于可以将控制切换到第二输入的位置。在步骤670,系统确定是否第二输入在对象的位置。如果确定对象的位置和第二输入的位置相等,则系统进行到步骤280,并将对象的控制切换到第二输入。
或者,如果在步骤670确定对象不在第二输入处,则系统在步骤675确定是否对象仍在响应于定位而跨屏幕移动。在一个实施例中,根据方法600,系统可继续递归地确定即监视对象的移动和第二输入,直到其在相同位置使得对象的控制可转交到第二输入或者当对象中止移动即落定时。如果在监视对象和第二输入的位置期间的任何点确定了第二输入和对象在相同位置(步骤670),则系统继续到步骤690并将对象的控制切换到第二输入。
或者,如果在监视移动期间的任何点在步骤675中确定对象已停止移动,则当已确定对象位置和第二输入不使得可以切换对象的控制时,然后在步骤680对象被释放。在一个实施例中,当对象被释放时,对象将保持在最终位置,直到提供了另一输入来控制对象。在又一实施例中,在被释放时,对象可返回到其在定位时的原始位置,即刚好在步骤610之前的位置。
在一些实施例中,在监视对象和第二输入的位置以便切换对象的控制期间,可将对象的位置调整为放置在第二输入的位置,以允许控制的切换。也就是说,在一些实施例中,可为了处于第二输入的位置而自动移动对象。如上文所述,在一些实施例中,在控制从第一输入切换到第二输入的时候期间,系统可自动控制对象。在这样的实施例中,可自动将对象的位置调整为在第二输入的位置。或者,在一些实施例中,可固定对象的位置,并且可向用户提示改变第二输入的位置。在一个实施例中,仅在对象的位置在与第二输入相距预先确定的距离之内时才调整对象的位置。在一个实施例中,系统可基于若干不同变量(如在转交请求之前对象的移动速度和/或移动方向、第二输入的位置、应用的上下文、预定义的用户或系统设置等)自动移动对象。
在将对象的位置调整为在第二输入处之后,系统继续到步骤690,并将对象的控制切换到第二输入。
如上文所述,装置100(图1和图5A)可包括任何类型的装置,如手持计算装置或未示出的外部装置或系统的控制器。相信许多这样的装置将采用触敏控制板技术,且因此本发明的实施例可在任何这样的装置中实现。
例如,在一些实施例中,装置100可包括用于控制外部游戏或娱乐系统的手持游戏控制器。传统上,向用户提供手持游戏控制器是为了控制计算机游戏内的对象。在一些实施例(其中装置100包括手持游戏控制器)中,装置100可被配置来使用双手来拿住,并且由用户使用按钮和/或其它控制方式来控制,也包括根据本发明的一个或多个实施例操作的一个或多个触敏控制板。这样的控制器使用触敏控制板技术作为控制在玩的游戏内的对象的方式。例如,这样的游戏控制器可配有用户接口,其具有用于控制游戏内的对象的触摸板和/或触摸屏。
作为另一实例,在一些实施例中,装置100可包括便携式游戏装置。这样的装置也使用触敏控制板技术作为控制在玩的游戏内的对象的方式。一个或多个触敏控制板可根据本发明的一个或多个实施例操作。
因此,本发明的方法和系统可与能够采用本文描述的系统和方法的一个或多个实施例的任何装置一起使用。触敏控制板装置允许使用触摸技术控制对象。
本文描述的方法和技术可在许多不同类型的系统(包括例如计算机、游戏控制台、娱乐系统等)上利用、实现和/或运行。参考图7,图7示出了可用于任何这样的实现的系统700。系统700的一个或多个组件可用于实现上文所述的任何系统或装置,如手持装置。然而,系统700或其任何部分的使用当然不是必需的。例如,在一个实施例中,可将手持装置实现为具有系统700的一个或多个元件。在另一实施例中,可使用系统700的一些元件实现手持控制器,而系统的其它元件可驻留在与手持控制器相关且与手持控制器分开的游戏控制台中。
作为实例,系统700可包括但不必需包括中央处理单元(CPU)710、随机存取存储器(RAM)720和海量存储单元730,如磁盘驱动器。系统700可耦合到本文描述的其它组件(如输入装置750和其它输入装置760)中的任何一个或与其集成。系统700包括基于处理器的系统的实例。CPU710可用于执行或辅助执行本文所述的方法和技术的步骤。在一个实施例中,系统700可进一步包括用来执行或辅助执行本文所述的方法和技术的步骤的GPU。
在一些实施例中,输入装置740可包括触敏控制板/显示器。此外,在一个实施例中,系统700包括其它输入装置750,如按钮、键盘、鼠标、操纵杆等。在另一实施例中,其它输入装置750可进一步包括输出方式,如立体声系统、显示器、发光器等。在一个实施例中,输入装置740和其它输入装置750中的一个或多个包括显示功能。在一个实施例中,可在输入装置740和其它输入装置750中的一个或多个上呈现各种程序内容、图像、阴影、照明等。
海量存储单元730可包括任何类型的计算机可读存储或记录介质。计算机可读存储或记录介质可固定在海量存储单元730中,或者海量存储单元730可可选地包括外部存储器760,如数字视频光盘(DVD)、蓝光光盘、光盘(CD)、USB存储装置、软盘或其它介质。作为实例,海量存储单元730可包括磁盘驱动器、硬盘驱动器、闪存装置、USB存储装置、蓝光光盘驱动器、DVD驱动器、光盘驱动器、软盘驱动器等。海量存储单元730或外部存储器760可用于存储实现本文所述的方法和技术的程序代码或宏。
因此,外部存储器760可可选地与海量存储单元730一起使用,海量存储单元730可用于存储实现本文所述的方法和技术的程序代码。然而,任何一个存储装置(如单独或组合的RAM720、海量存储单元730或外部存储器760)可用于存储这样的程序代码。例如,这样的存储装置中的任何一个可作为用于存储或体现用于使控制台、系统、计算机或其它基于处理器的系统执行本文所述的方法、代码和/或技术中的任何一个的步骤的计算机程序的有形计算机可读存储介质。此外,任何一个存储装置(如RAM720、海量存储单元730或外部存储器760)可用于存储任何所需的数据库、动作、列表、宏等。
在一些实施例中,基于处理器的设备可用于执行任何一个上述步骤、方法和/或技术。因此,在一些实施例中,本发明提供一种计算机程序产品,其包括用于体现计算机程序的的介质,该计算机程序用于向计算机或在介质中体现的计算机程序输入,以使计算机执行包括本文描述的实施例、方法、途径和/或技术中的任何一个或多个所涉及的步骤中的任何一个或多个的步骤。
例如,在一些实施例中,本发明提供一种计算机可读存储介质,其存储适于使基于处理器的系统执行包括下列步骤的步骤的一个或多个计算机程序:在屏幕上显示对象;响应于第一触摸输入来控制对象的移动;检测对从第一触摸输入到第二触摸输入切换对象的控制的请求;确定是否第一触摸输入的位置和第二触摸输入的位置在合并区内;以及响应于第一触摸输入的位置和第二触摸输入的位置在合并区内而从第一触摸输入到第二触摸输入切换对象的控制。
在另一实施例中,本发明提供一种计算机可读存储介质,其存储适于使基于处理器的系统执行包括下列步骤的步骤的一个或多个计算机程序:在屏幕上显示对象;检测来自控制对象的第一触摸输入的对象的定位,其中定位使对象在屏幕上行进一段距离;确定是否对象的位置和第二触摸输入的位置在合并区内;以及当确定对象的位置和第二触摸输入在合并区内时,将对象的控制切换到第二触摸输入。
在本说明书中描述的许多功能单元已被标示为模块,以便更着重地强调其实现独立性。例如,可将模块实现为包括定制的VLSI电路或门阵列、诸如逻辑芯片的现成的半导体、晶体管或其它离散组件的硬件电路。也可以可编程硬件装置(如现场可编程门阵列、可编程阵列逻辑、可编程逻辑装置等)来实现模块。
也可以供各种类型的处理器执行的软件来实现模块。例如,可执行代码的已识别模块可包括可例如组织为对象、过程或函数的计算机指令的一个或多个物理或逻辑块。尽管如此,已识别的模块的可执行指令不需要物理地定位在一起,但可包括存储在不同位置的异类指令,当逻辑上联合在一起时,这些指令包括所述模块并实现该模块的所述用途。
实际上,可执行代码的模块可为单个指令或许多指令,并且甚至可以分布为若干不同的代码段、在不同的程序之间以及跨若干存储装置。类似地,操作数据在本文可以在模块内识别和示出,并可以任何合适的形式来体现以及组织在任何合适类型的数据结构内。操作数据可被收集为单个数据集合,或者可以分布在不同位置(包括分布在不同存储装置),并且可至少部分地仅作为系统或网络上的电子信号存在。
贯穿本说明书的对“一个实施例”、“实施例”或类似语言的提及指的是结合实施例描述的特定特征、结构或特点包括在本发明的至少一个实施例中。因此,贯穿本说明书出现的短语“在一个实施例中”、“在实施例中”或类似语言可以但不一定全部指相同的实施例。
此外,在一个或多个实施例中可以任何适合的方式组合本发明的所述特征、结构或特点。在下面的描述中,提供了大量具体细节,如编程、软件模块、用户选择、网络交易、数据库查询、数据库结构、硬件模块、硬件电路、硬件芯片等的实例,以提供对本发明的实施例的透彻理解。然而,相关领域的技术人员将认识到,可以在没有这些具体细节中的一个或多个的情况下或在具有其它方法、组件、材料等的情况下实践本发明。在其它实例中,没有详细示出或描述众所周知的结构、材料或操作,以避免使本发明的方面难以理解。
虽然借助于本发明的具体实施例、实例和应用描述了本文公开的本发明,但本领域技术人员可在不脱离权利要求书中阐述的本发明的范围的情况下对其进行各种修改和变化。
Claims (26)
1.一种方法,其包括:
在屏幕上显示对象;
检测对象距控制所述对象的第一触摸输入的定位,其中所述定位使得所述对象在所述屏幕上进行一段距离;
确定所述对象的位置和第二触摸输入的位置是否在合并区内;以及
当确定所述对象的位置和所述第二触摸输入的位置在合并区内时,将所述对象的控制切换到所述第二触摸输入。
2.如权利要求1所述的方法,其中所述合并区包括围绕所述第二触摸输入的位置的区域。
3.如权利要求1或2所述的方法,其中检测所述定位包括检测所述第一触摸输入已经释放所述对象。
4.如权利要求1或2所述的方法,其中检测所述定位包括检测预定量的力量在释放之前施加到所述对象。
5.如权利要求1或2所述的方法,其中检测所述定位包括监视所述对象的移动。
6.如权利要求5所述的方法,其中检测所述定位包括监视所述对象以预定方式的移动。
7.如权利要求1或2所述的方法,如果确定所述对象的位置和所述第二触摸输入的位置不在所述合并区内,则释放所述对象。
8.如权利要求1或2所述的方法,其中所述对象的切换包括:
确定所述对象的位置是否是处于所述第二触摸输入的位置;以及
当确定所述对象的位置是处于所述第二触摸输入的位置时,允许所述第二触摸输入控制所述对象。
9.如权利要求1或2所述的方法,还包括在检测所述定位之后,自动控制所述对象,其中切换所述对象的控制包括从自动控制释放所述对象。
10.如权利要求1或2所述的方法,还包括递归地确定所述对象的位置,直到所述对象已经进行所述距离。
11.如权利要求1或2所述的方法,其中所述第一触摸输入和所述第二触摸输入在第一触敏控制板上提供。
12.如权利要求11所述的方法,其中所述第一触敏控制板包括触敏显示器。
13.如权利要求12所述的方法,其中所述触敏显示器包括所述屏幕。
14.一种设备,其包括:
外壳,其具有旨在用于手持使用的大小;
触敏控制板,其附接到所述外壳的第一表面;以及
基于处理器的系统,其包括在所述外壳中,并被配置来执行下列步骤:
在屏幕上显示对象;
检测对象距控制所述对象的第一触摸输入的定位,其中所述定位使得所述对象在所述屏幕上进行一段距离;
确定所述对象的位置和第二触摸输入的位置是否在合并区内;以及
当确定所述对象的位置和所述第二触摸输入的位置在合并区内时,将所述对象的控制切换到所述第二触摸输入。
15.如权利要求14所述的设备,其中所述合并区包括围绕所述第二触摸输入的位置的区域。
16.如权利要求14或15所述的设备,其中检测所述定位包括检测所述第一触摸输入已经释放所述对象。
17.如权利要求14或15所述的设备,其中检测所述定位包括检测预定量的力量在释放之前施加到所述对象。
18.如权利要求14或15所述的设备,其中检测所述定位包括监视所述对象的移动。
19.如权利要求14或15所述的设备,其中所述基于处理器的系统被配置来执行下列步骤,包括:如果确定所述第一触摸输入的所述位置和所述第二触摸输入的所述位置不在所述合并区内则释放所述对象。
20.如权利要求14或15所述的设备,其中所述对象的切换包括:
确定所述对象的位置是否是处于所述第二触摸输入的位置;以及
当确定所述对象的位置是处于所述第二触摸输入的位置时,允许所述第二触摸输入控制所述对象。
21.如权利要求14或15所述的设备,其中所述基于处理器的系统被配置来执行下列步骤,包括:在检测所述定位之后,自动控制所述对象,其中切换所述对象的控制包括从自动控制释放所述对象。
22.如权利要求14或15所述的设备,其中所述基于处理器的系统被配置来执行下列步骤,包括:递归地确定所述对象的位置,直到所述对象已经进行所述距离。
23.如权利要求14或15所述的设备,其中所述第一触敏控制板包括触敏显示器。
24.如权利要求23所述的设备,其中所述触敏显示器包括所述屏幕。
25.如权利要求14或15所述的设备,其中所述屏幕在所述外壳的外部。
26.一种计算机可读存储介质,其存储一个或多个计算机可读程序,所述程序适于使基于处理器的系统执行下列步骤:
在屏幕上显示对象;
检测对象距控制所述对象的第一触摸输入的定位,其中所述定位使得所述对象在所述屏幕上进行一段距离;
确定所述对象的位置和第二触摸输入的位置是否在合并区内;以及
当确定所述对象的位置和所述第二触摸输入的位置在合并区内时,将所述对象的控制切换到所述第二触摸输入。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/006,337 | 2011-01-13 | ||
US13/006,337 US8907903B2 (en) | 2011-01-13 | 2011-01-13 | Handing control of an object from one touch input to another touch input |
CN201280005217.0A CN103314346B (zh) | 2011-01-13 | 2012-01-06 | 从一个触摸输入到另一个触摸输入的对象的手部控制 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280005217.0A Division CN103314346B (zh) | 2011-01-13 | 2012-01-06 | 从一个触摸输入到另一个触摸输入的对象的手部控制 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103500038A true CN103500038A (zh) | 2014-01-08 |
CN103500038B CN103500038B (zh) | 2017-04-12 |
Family
ID=46490395
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310449756.XA Active CN103500038B (zh) | 2011-01-13 | 2012-01-06 | 一种用于切换对象的触摸输入的方法和装置 |
CN201280005217.0A Active CN103314346B (zh) | 2011-01-13 | 2012-01-06 | 从一个触摸输入到另一个触摸输入的对象的手部控制 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280005217.0A Active CN103314346B (zh) | 2011-01-13 | 2012-01-06 | 从一个触摸输入到另一个触摸输入的对象的手部控制 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8907903B2 (zh) |
KR (1) | KR101540366B1 (zh) |
CN (2) | CN103500038B (zh) |
WO (1) | WO2012096845A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016011568A1 (zh) * | 2014-07-25 | 2016-01-28 | 上海逗屋网络科技有限公司 | 一种用于多点触摸终端的触摸控制方法与设备 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150051278A (ko) * | 2013-11-01 | 2015-05-12 | 삼성전자주식회사 | 오브젝트 이동 방법 및 이를 구현하는 전자 장치 |
KR20150104302A (ko) * | 2014-03-05 | 2015-09-15 | 삼성전자주식회사 | 전자 장치의 사용자 입력 검출 방법 및 그 전자 장치 |
JP6500406B2 (ja) * | 2014-12-01 | 2019-04-17 | セイコーエプソン株式会社 | 入出力制御装置、入出力制御プログラム |
CN108710460B (zh) * | 2018-05-15 | 2019-06-25 | 广州视源电子科技股份有限公司 | 元素控制方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6545669B1 (en) * | 1999-03-26 | 2003-04-08 | Husam Kinawi | Object-drag continuity between discontinuous touch-screens |
US20060001650A1 (en) * | 2004-06-30 | 2006-01-05 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
CN1813462A (zh) * | 2003-06-25 | 2006-08-02 | 诺基亚公司 | 用于移动终端的多功能用户界面输入设备 |
US20080075368A1 (en) * | 2004-06-18 | 2008-03-27 | Yevgeniy Pavlovich Kuzmin | Stroke-Based Data Entry Device, System, And Method |
Family Cites Families (115)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7130778B1 (en) | 1985-12-06 | 2006-10-31 | Media Digital, Inc. | Computer touch screen radio station control system |
CA2002912A1 (en) | 1988-11-14 | 1990-05-14 | William A. Clough | Portable computer with touch screen and computer system employing same |
US5119079A (en) | 1990-09-17 | 1992-06-02 | Xerox Corporation | Touch screen user interface with expanding touch locations for a reprographic machine |
US5347295A (en) | 1990-10-31 | 1994-09-13 | Go Corporation | Control of a computer through a position-sensed stylus |
US5231698A (en) | 1991-03-20 | 1993-07-27 | Forcier Mitchell D | Script/binary-encoded-character processing method and system |
JP2827612B2 (ja) | 1991-10-07 | 1998-11-25 | 富士通株式会社 | タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。 |
US7345675B1 (en) | 1991-10-07 | 2008-03-18 | Fujitsu Limited | Apparatus for manipulating an object displayed on a display device by using a touch screen |
US5848187A (en) | 1991-11-18 | 1998-12-08 | Compaq Computer Corporation | Method and apparatus for entering and manipulating spreadsheet cell data |
US5342047A (en) | 1992-04-08 | 1994-08-30 | Bally Gaming International, Inc. | Touch screen video gaming machine |
US5889236A (en) | 1992-06-08 | 1999-03-30 | Synaptics Incorporated | Pressure sensitive scrollbar feature |
US5821930A (en) | 1992-08-23 | 1998-10-13 | U S West, Inc. | Method and system for generating a working window in a computer system |
US7084859B1 (en) | 1992-09-18 | 2006-08-01 | Pryor Timothy R | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
US5612719A (en) | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
US5428805A (en) | 1992-12-22 | 1995-06-27 | Morgan; Michael W. | Method and apparatus for recognizing and performing handwritten calculations |
US5555104A (en) | 1993-03-10 | 1996-09-10 | Canon Kabushiki Kaisha | Operation unit of electronic equipment utilizing visually displayed functions on a touch screen |
JPH07200150A (ja) | 1993-12-28 | 1995-08-04 | Casio Comput Co Ltd | ペン入力装置 |
US6084569A (en) | 1994-03-18 | 2000-07-04 | Avid Technology, Inc. | Editing interface |
US5526422A (en) | 1994-06-20 | 1996-06-11 | At&T Corp. | System and method for cleaning the display screen of a touch screen device |
US5618232A (en) | 1995-03-23 | 1997-04-08 | Martin; John R. | Dual mode gaming device methods and systems |
US5575717A (en) | 1995-08-18 | 1996-11-19 | Merit Industries, Inc. | System for creating menu choices of video games on a display |
US5694150A (en) | 1995-09-21 | 1997-12-02 | Elo Touchsystems, Inc. | Multiuser/multi pointing device graphical user interface system |
US5996080A (en) | 1995-10-04 | 1999-11-30 | Norand Corporation | Safe, virtual trigger for a portable data capture terminal |
US6049329A (en) | 1996-06-04 | 2000-04-11 | International Business Machines Corporartion | Method of and system for facilitating user input into a small GUI window using a stylus |
US5818451A (en) | 1996-08-12 | 1998-10-06 | International Busienss Machines Corporation | Computer programmed soft keyboard system, method and apparatus having user input displacement |
US6121960A (en) | 1996-08-28 | 2000-09-19 | Via, Inc. | Touch screen systems and methods |
IL119955A0 (en) | 1997-01-01 | 1997-04-15 | Advanced Recognition Tech | An instruction and/or identification input unit |
US6608637B1 (en) | 1997-04-23 | 2003-08-19 | Nortel Networks Limited | Multitasking graphical user interface |
US6073036A (en) | 1997-04-28 | 2000-06-06 | Nokia Mobile Phones Limited | Mobile station with touch input having automatic symbol magnification function |
US5977957A (en) | 1997-05-22 | 1999-11-02 | Ericsson Inc. | Adaptive sampling of touch screen input |
US5910800A (en) | 1997-06-11 | 1999-06-08 | Microsoft Corporation | Usage tips for on-screen touch-sensitive controls |
US5910802A (en) | 1997-06-11 | 1999-06-08 | Microsoft Corporation | Operating system for handheld computing device having taskbar auto hide |
US5950045A (en) | 1997-06-20 | 1999-09-07 | Sharp Kabushiki Kaisha | Input device |
US6157372A (en) | 1997-08-27 | 2000-12-05 | Trw Inc. | Method and apparatus for controlling a plurality of controllable devices |
US6624832B1 (en) | 1997-10-29 | 2003-09-23 | Ericsson Inc. | Methods, apparatus and computer program products for providing user input to an application using a contact-sensitive surface |
US7760187B2 (en) | 2004-07-30 | 2010-07-20 | Apple Inc. | Visual expander |
IL137478A (en) | 1998-01-26 | 2005-11-20 | Westerman Wayne | Method and apparatus for integrating manual input |
US6154214A (en) | 1998-03-20 | 2000-11-28 | Nuvomedia, Inc. | Display orientation features for hand-held content display device |
US6130665A (en) | 1998-04-01 | 2000-10-10 | Telefonaktiebolaget Lm Ericsson | Touch screen handling |
US6313853B1 (en) | 1998-04-16 | 2001-11-06 | Nortel Networks Limited | Multi-service user interface |
US6211856B1 (en) | 1998-04-17 | 2001-04-03 | Sung M. Choi | Graphical user interface touch screen with an auto zoom feature |
US6278443B1 (en) | 1998-04-30 | 2001-08-21 | International Business Machines Corporation | Touch screen with random finger placement and rolling on screen to control the movement of information on-screen |
US6359572B1 (en) | 1998-09-03 | 2002-03-19 | Microsoft Corporation | Dynamic keyboard |
US6633746B1 (en) | 1998-11-16 | 2003-10-14 | Sbc Properties, L.P. | Pager with a touch-sensitive display screen and method for transmitting a message therefrom |
US7469381B2 (en) | 2007-01-07 | 2008-12-23 | Apple Inc. | List scrolling and document translation, scaling, and rotation on a touch-screen display |
US6411283B1 (en) | 1999-05-20 | 2002-06-25 | Micron Technology, Inc. | Computer touch screen adapted to facilitate selection of features at edge of screen |
JP4316733B2 (ja) | 1999-06-30 | 2009-08-19 | 富士通コンポーネント株式会社 | 座標入力装置及び記憶媒体 |
US6639584B1 (en) | 1999-07-06 | 2003-10-28 | Chuang Li | Methods and apparatus for controlling a portable electronic device using a touchpad |
US6335725B1 (en) | 1999-07-14 | 2002-01-01 | Hewlett-Packard Company | Method of partitioning a touch screen for data input |
GB2353184A (en) | 1999-08-13 | 2001-02-14 | Nokia Mobile Phones Ltd | Disabling a touch sensitive display screen when a call is established |
JP3998376B2 (ja) | 1999-09-10 | 2007-10-24 | 富士通株式会社 | 入力処理方法及びそれを実施する入力処理装置 |
US6597345B2 (en) | 2000-03-03 | 2003-07-22 | Jetway Technologies Ltd. | Multifunctional keypad on touch screen |
US7009626B2 (en) | 2000-04-14 | 2006-03-07 | Picsel Technologies Limited | Systems and methods for generating visual representations of graphical data and digital document processing |
US6956562B1 (en) | 2000-05-16 | 2005-10-18 | Palmsource, Inc. | Method for controlling a handheld computer by entering commands onto a displayed feature of the handheld computer |
US6784873B1 (en) | 2000-08-04 | 2004-08-31 | Peter V. Boesen | Method and medium for computer readable keyboard display incapable of user termination |
JP4197220B2 (ja) | 2000-08-17 | 2008-12-17 | アルパイン株式会社 | 操作装置 |
US7224991B1 (en) | 2000-09-12 | 2007-05-29 | At&T Corp. | Method and system for handwritten electronic messaging |
US7003308B1 (en) | 2000-09-12 | 2006-02-21 | At&T Corp. | Method and system for handwritten electronic messaging |
US6501464B1 (en) | 2000-10-31 | 2002-12-31 | Intel Corporation | On-screen transparent keyboard interface |
US6897853B2 (en) | 2000-11-10 | 2005-05-24 | Microsoft Corp. | Highlevel active pen matrix |
US6791536B2 (en) | 2000-11-10 | 2004-09-14 | Microsoft Corporation | Simulating gestures of a pointing device using a stylus and providing feedback thereto |
US6590568B1 (en) | 2000-11-20 | 2003-07-08 | Nokia Corporation | Touch screen drag and drop input technique |
US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
JP2002259060A (ja) | 2001-02-15 | 2002-09-13 | Internatl Business Mach Corp <Ibm> | 複数の入力デバイスを備えたコンピュータシステム、入力システム、デバイス管理プログラム、デバイス設定プログラム、ダブルクリック伝達方法、および記憶媒体 |
US7446783B2 (en) | 2001-04-12 | 2008-11-04 | Hewlett-Packard Development Company, L.P. | System and method for manipulating an image on a screen |
US6661409B2 (en) | 2001-08-22 | 2003-12-09 | Motorola, Inc. | Automatically scrolling handwritten input user interface for personal digital assistants and the like |
US6690365B2 (en) | 2001-08-29 | 2004-02-10 | Microsoft Corporation | Automatic scrolling |
GB0201074D0 (en) | 2002-01-18 | 2002-03-06 | 3G Lab Ltd | Graphic user interface for data processing device |
US7296243B2 (en) | 2002-03-19 | 2007-11-13 | Aol Llc | Animating display motion |
US6882337B2 (en) | 2002-04-18 | 2005-04-19 | Microsoft Corporation | Virtual keyboard for touch-typing using audio feedback |
ATE258341T1 (de) | 2002-06-17 | 2004-02-15 | Magnetek Spa | Elektrische stromversorgung mit gleichrichter |
FI20021655A (fi) | 2002-06-19 | 2003-12-20 | Nokia Corp | Menetelmä lukituksen avaamiseksi ja kannettava elektroninen laite |
US7656393B2 (en) | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
JP2004104594A (ja) | 2002-09-11 | 2004-04-02 | Toshiba Corp | デジタルスチルカメラ及びユーザ指示入力方法 |
FI20021682A (fi) | 2002-09-20 | 2004-03-21 | Nokia Corp | Menetelmä laitteen lukitustilan avaamiseksi ja elektroninen laite |
US7158123B2 (en) | 2003-01-31 | 2007-01-02 | Xerox Corporation | Secondary touch contextual sub-menu navigation for touch screen interface |
JP3811128B2 (ja) | 2003-01-31 | 2006-08-16 | 株式会社東芝 | 情報処理装置およびポインタの操作方法 |
US7103852B2 (en) | 2003-03-10 | 2006-09-05 | International Business Machines Corporation | Dynamic resizing of clickable areas of touch screen applications |
TWM240050U (en) | 2003-04-02 | 2004-08-01 | Elan Microelectronics Corp | Capacitor touch panel with integrated keyboard and handwriting function |
JP2007503797A (ja) | 2003-05-30 | 2007-02-22 | プリヴァリス・インコーポレーテッド | 機密データへのアクセス及び使用を制御するための回路内セキュリティ・システム及び方法 |
JP4338513B2 (ja) | 2003-12-26 | 2009-10-07 | アルパイン株式会社 | 入力制御装置及び入力受付方法 |
CN101390034B (zh) | 2004-01-29 | 2012-03-14 | 辛纳普蒂克斯有限公司 | 采用二维定位设备产生一维信号的方法及装置 |
US7319457B2 (en) | 2004-02-12 | 2008-01-15 | Sentelic Corporation | Method of scrolling window screen by means of controlling electronic device |
US7348998B2 (en) | 2004-04-28 | 2008-03-25 | Eastman Kodak Company | Method for orienting a digital image on a display of an image display device |
US7224292B2 (en) | 2004-04-29 | 2007-05-29 | Research In Motion Limited | Reduced keyboard letter selection system and method |
US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US7719523B2 (en) | 2004-08-06 | 2010-05-18 | Touchtable, Inc. | Bounding box gesture recognition on a touch detecting interactive display |
TWI244592B (en) | 2004-08-27 | 2005-12-01 | Mitac Technology Corp | Portable electronic device |
US7489305B2 (en) | 2004-12-01 | 2009-02-10 | Thermoteknix Systems Limited | Touch screen control |
US7432916B2 (en) | 2004-12-09 | 2008-10-07 | Universal Electronics, Inc. | Controlling device with dual-mode, touch-sensitive display |
US7825902B2 (en) * | 2005-03-31 | 2010-11-02 | Avego Technologies General Ip (Singapore) Pte. Ltd. | Controller, system and method for identifying a number of interactions with a computer input area |
EP2027594B1 (en) | 2005-07-08 | 2011-12-14 | NexGen Semi Holding, Inc. | Apparatus and method for controlled particle beam manufacturing of semiconductors |
KR100640808B1 (ko) | 2005-08-12 | 2006-11-02 | 엘지전자 주식회사 | 촬상 이미지의 듀얼 디스플레이 기능을 갖는 이동통신단말기 및 그 방법 |
US7443316B2 (en) | 2005-09-01 | 2008-10-28 | Motorola, Inc. | Entering a character into an electronic device |
JP4819467B2 (ja) | 2005-10-04 | 2011-11-24 | 任天堂株式会社 | オブジェクト移動制御プログラムおよび情報処理装置 |
JP2007158919A (ja) | 2005-12-07 | 2007-06-21 | Fujifilm Corp | 画像表示装置及び画像表示方法 |
US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
US7786975B2 (en) | 2005-12-23 | 2010-08-31 | Apple Inc. | Continuous scrolling list with acceleration |
US7480870B2 (en) | 2005-12-23 | 2009-01-20 | Apple Inc. | Indication of progress towards satisfaction of a user input condition |
US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
KR100771626B1 (ko) | 2006-04-25 | 2007-10-31 | 엘지전자 주식회사 | 단말기 및 이를 위한 명령 입력 방법 |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
KR100798301B1 (ko) | 2006-09-12 | 2008-01-28 | 엘지전자 주식회사 | 스크롤 방법 및 이를 이용하는 이동통신 단말기 |
KR100774927B1 (ko) | 2006-09-27 | 2007-11-09 | 엘지전자 주식회사 | 이동통신 단말기, 메뉴 및 아이템 선택방법 |
JP4033226B1 (ja) * | 2006-09-27 | 2008-01-16 | 富士ゼロックス株式会社 | 画像処理装置、画像形成装置及びプログラム |
US7602378B2 (en) | 2006-10-26 | 2009-10-13 | Apple Inc. | Method, system, and graphical user interface for selecting a soft keyboard |
US7642933B2 (en) | 2006-11-30 | 2010-01-05 | Motorola, Inc. | Methods and devices for keypress validation in a slider form factor device |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
JP4326568B2 (ja) * | 2007-02-20 | 2009-09-09 | 任天堂株式会社 | 情報処理装置および情報処理プログラム |
US7941758B2 (en) | 2007-09-04 | 2011-05-10 | Apple Inc. | Animation of graphical objects |
CN102203708B (zh) * | 2008-01-15 | 2013-01-16 | 苏州瀚瑞微电子有限公司 | 量化电不平衡的装置及加入有该装置的触摸检测系统 |
US20100107067A1 (en) * | 2008-10-27 | 2010-04-29 | Nokia Corporation | Input on touch based user interfaces |
JP4904375B2 (ja) * | 2009-03-31 | 2012-03-28 | 京セラ株式会社 | ユーザインタフェース装置及び携帯端末装置 |
US8473862B1 (en) * | 2009-05-21 | 2013-06-25 | Perceptive Pixel Inc. | Organizational tools on a multi-touch display device |
US8743053B2 (en) * | 2009-08-31 | 2014-06-03 | Adobe Systems Incorporation | Restricting cursor movement to track an existing path |
US20110074694A1 (en) * | 2009-09-25 | 2011-03-31 | Peter William Rapp | Device and Method for Jitter Reduction on Touch-Sensitive Surfaces and Displays |
-
2011
- 2011-01-13 US US13/006,337 patent/US8907903B2/en active Active
-
2012
- 2012-01-06 WO PCT/US2012/020495 patent/WO2012096845A1/en active Application Filing
- 2012-01-06 CN CN201310449756.XA patent/CN103500038B/zh active Active
- 2012-01-06 CN CN201280005217.0A patent/CN103314346B/zh active Active
- 2012-01-06 KR KR1020137018149A patent/KR101540366B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6545669B1 (en) * | 1999-03-26 | 2003-04-08 | Husam Kinawi | Object-drag continuity between discontinuous touch-screens |
CN1813462A (zh) * | 2003-06-25 | 2006-08-02 | 诺基亚公司 | 用于移动终端的多功能用户界面输入设备 |
US20080075368A1 (en) * | 2004-06-18 | 2008-03-27 | Yevgeniy Pavlovich Kuzmin | Stroke-Based Data Entry Device, System, And Method |
US20060001650A1 (en) * | 2004-06-30 | 2006-01-05 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016011568A1 (zh) * | 2014-07-25 | 2016-01-28 | 上海逗屋网络科技有限公司 | 一种用于多点触摸终端的触摸控制方法与设备 |
Also Published As
Publication number | Publication date |
---|---|
US20120182224A1 (en) | 2012-07-19 |
KR20140043703A (ko) | 2014-04-10 |
CN103314346A (zh) | 2013-09-18 |
CN103314346B (zh) | 2016-11-09 |
CN103500038B (zh) | 2017-04-12 |
US8907903B2 (en) | 2014-12-09 |
KR101540366B1 (ko) | 2015-07-29 |
WO2012096845A1 (en) | 2012-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9110584B2 (en) | Controlling a cursor on a touch screen | |
US20210232303A1 (en) | Control-Article-Based Control of a User Interface | |
US20210240309A1 (en) | Method and apparatus for displaying application | |
US9904410B2 (en) | Touch-sensitive button with two levels | |
US10592050B2 (en) | Systems and methods for using hover information to predict touch locations and reduce or eliminate touchdown latency | |
US10606461B1 (en) | Snapping a pointing-indicator to a scene boundary of a video | |
KR101484826B1 (ko) | 직접적인 조작 제스처들 | |
KR102197466B1 (ko) | 터치 패드를 이용한 tv와 같은 가정용 전자 장치의 원격 제어 | |
CN106030497B (zh) | 经由部分用户界面的移动与计算设备的交互 | |
US8212788B2 (en) | Touch input to modulate changeable parameter | |
KR101814391B1 (ko) | 에지 제스처 기법 | |
US20120249461A1 (en) | Dedicated user interface controller for feedback responses | |
US20150169131A1 (en) | Motion sensitive input control | |
US20150095843A1 (en) | Single-hand Interaction for Pan and Zoom | |
CN103500038A (zh) | 从一个触摸输入到另一个触摸输入的对象的手部控制 | |
CN104123095A (zh) | 一种基于矢量运算的悬浮触控方法及装置 | |
CN103257820A (zh) | 控制方法及电子设备 | |
JP2013206058A (ja) | 電源管理装置、電源管理方法、及び電源管理プログラム | |
US20150370443A1 (en) | System and method for combining touch and gesture in a three dimensional user interface | |
US20140168097A1 (en) | Multi-touch gesture for movement of media | |
US9875020B2 (en) | Method for capturing user input from a touch screen and device having a touch screen | |
CN102681702B (zh) | 控制方法、控制装置以及电子设备 | |
US20150153871A1 (en) | Touch-sensitive device and method | |
JP5579914B2 (ja) | スクロール装置、スクロール方法及びプログラム | |
CN104025008A (zh) | 使能性能级联操作 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: SONY COMP ENTERTAINMENT US Address before: American California Applicant before: Sony Computer Entertainment American Inc. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |