CN102650930A - 多阶段接入点 - Google Patents

多阶段接入点 Download PDF

Info

Publication number
CN102650930A
CN102650930A CN2012100007073A CN201210000707A CN102650930A CN 102650930 A CN102650930 A CN 102650930A CN 2012100007073 A CN2012100007073 A CN 2012100007073A CN 201210000707 A CN201210000707 A CN 201210000707A CN 102650930 A CN102650930 A CN 102650930A
Authority
CN
China
Prior art keywords
input
affirmation
target
display
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012100007073A
Other languages
English (en)
Inventor
J.加恩
李毅绚
A.A.里根
H.S.库尔卡尼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102650930A publication Critical patent/CN102650930A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Abstract

这里描述了涉及到确定用户在交互式显示系统上发起动作的意图的各种实施例。例如,一个公开的实施例提供在交互式显示设备(100)上发起动作的方法(200),交互式显示设备包括触摸传感显示器(102)。在这个实例中,该方法包括:在显示器的激活区域(302)处显示(202)发起控制(306);经由发起控制接收(204)发起输入;响应于对发起输入的接收,在显示器的确认区域处显示(206)确认目标(307);经由确认目标接收(208)确认输入;以及响应于确认输入来执行(210)动作。

Description

多阶段接入点
相关申请的交叉引用
本申请主张2011年1月4日申请的、标题为 “Two-stage Access Point”的美国临时专利申请序列号为61/429,715的优先权,该专利申请通过全面引用的方式整体地结合在此。
背景技术
交互式显示系统,诸如表面计算设备,包括显示屏和被配置成检测在显示屏上的触摸的触摸传感机构。可以使用各种类型的触摸传感机构,包括但不限于光学、电容性和电阻性机构。交互式显示系统可以利用诸如初级用户输入设备那样的触摸传感机构,由此允许用户与设备交互而不使用键盘、鼠标、或其它这样的传统输入设备。
发明内容
这里描述了涉及确定用户在交互式显示系统上发起动作的意图的各种实施例。例如,一个公开的实施例提供在交互式显示设备上发起动作的方法,交互式显示设备包括触摸传感显示器。该方法包括:在显示器的激活区域处显示发起控制;经由发起控制接收发起输入;响应于对发起输入的接收在显示器的确认区域处显示确认目标;经由确认目标接收确认输入;以及响应于确认输入执行动作。
提供本发明内容来以简化的形式介绍概念的选择,这些概念还将在下面的具体实施方式中进一步描述。本概要既不打算确认所要求保护的主题的关键特征或必要特征,也不打算被使用来限制所要求保护的主题的范围。而且,所要求保护的主题不限于解决在本公开内容的任何部分中提到的任何或所有缺点的实施方案。
附图说明
图1示意地示出了交互式显示设备的实施例。
图2示出了流程图,以说明在交互式显示设备上发起动作的方法的实施例。
图3示出了包括激活区域和发起控制的用户界面的实施例。
图4示出了在接收发起输入后显示确认目标的图3的实施例。
图5示出了在接收确认输入后的图3的实施例。
具体实施方式
如上所述,交互式显示设备可以利用触摸传感显示器以作为初级输入设备。因此,触摸输入(其可包括手势输入和盘旋(hover)输入(即在显示器表面上方执行的手势)可被使用来与包括应用和操作系统的设备的所有的方面进行交互。
在一些环境中,诸如这样的场合,其中交互式显示设备具有类似于平台的配置,该类似于平台的配置具有水平显示器,则可能发生不经意的触摸。这样的触摸输入的影响的严重性可能变化,这取决于交互式显示设备如何解译不经意的输入。例如,在“绘画”程序时的不经意触摸可能导致画出一条不经意的线或对于其它用户不造成破坏的、其它这样的较小的、可逆的动作,而导致关闭或重新启动应用或操作系统外壳的不经意触摸可以非常严重地破坏用户感受。
因此,这里公开了涉及在交互式显示设备上多阶段发起动作以便有助于避免致使破坏动作执行的不经意触摸的各种实施例。在讨论这些实施例之前,参照图1来描述示例性交互式显示设备100。交互式显示设备100包括显示器102,被配置成显示图像和接收触摸输入。显示器102的非限制性实例包括诸如等离子体显示器和OLED(有机发光器件)显示器那样的发射式显示面板、诸如液晶显示器(LCD)那样的调制显示面板、诸如数字微镜设备(DMD)那样的投影微显示器或LCD微显示器、和阴极射线管(CRT)显示器。将会理解,图1上未示出的各种其它硬件单元,诸如投影仪、透镜、光导管等等可被使用来在显示器102上产生显示图像。还将会理解,交互式显示设备100可以是任何适当类型的设备,包括但不限于诸如智能电话或便携式媒体播放器那样的移动设备、石板计算机(slate computor)、书写板计算机、个人计算机、膝上型计算机、表面计算机、电视系统等等。
交互式显示设备100还包括触摸和/或盘旋检测系统104,其被配置成检测在显示器102上或在其附近的触摸输入和/或盘旋输入。如上所述,触摸和/或盘旋检测系统104可以利用任何适当的机构来检测触摸和/或盘旋输入。例如,光学触摸检测系统可以例如经由投射到显示屏上的红外光和/或经由受抑全内反射(FTIR)机构,而利用一个或多个照相机来检测触摸输入。同样地,光学触摸和/或盘旋检测系统104可以利用像素内传感器式(sensor-in-pixel)显示面板,其中图像传感器像素与图像显示器像素交织。触摸和/或盘旋检测系统104的其它非限制性实例包括电容式和电阻式触摸检测系统。
交互式显示设备100还包括逻辑子系统106和数据保持子系统108。逻辑子系统106被配置成执行被存储在数据保持子系统108中的指令来实施这里描述的各种实施例。逻辑子系统106可包括被配置成执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统106可被配置成执行一个或多个指令,该一个或多个指令作为一个或多个应用、服务、程序、例行程序、库、对象、组件、数据结构或其它逻辑结构的一部分。这样的指令可被实施来:执行任务、实施数据类型、变换一个或多个设备的状态或另外达到想要的结果。
逻辑子系统106可包括被配置成执行软件指令的一个或多个处理器。附加地或替换地,逻辑子系统106可包括被配置成执行硬件或固件指令的一个或多个硬件或固件逻辑机。逻辑子系统106的处理器可以是单核或多核的,以及在其上执行的程序可被配置成用于并行、分布、或其它适当的处理。逻辑子系统106可选地包括单独的构件,其遍布到可以远程定位的和/或被配置成用于协调地处理的两个或多个设备。逻辑子系统106的一个或多个方面可以由可远程接入的联网计算设备进行虚拟化和执行,该可远程接入的联网计算设备被配置在云计算结构体系中。
数据保持子系统108可包括一个或多个物理的非短暂设备,该设备被配置成保持数据和/或保持可由逻辑子系统106执行的指令,以实施这里描述的方法和处理过程。当这样的方法和处理过程被实施时,数据保持子系统108的状态可以被变换(例如用于保持不同的数据)。
数据保持子系统108可包括可移除的计算机介质和/或内建的计算机可读存储介质和/或其它设备。数据保持子系统108可包括光学存储设备(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储设备(例如,RAM、EPROM、EEPROM等)、和磁存储设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)等等。数据保持子系统108可包括具有一个或多个以下的特征的设备:易失性、非易失性、动态、静态、读写、只读、随机存取、顺序存取、位置可寻址的、文件可寻址的和内容可寻址的。在一些实施例中,逻辑子系统106和数据保持子系统108可被集成在一个或多个共同的设备中,诸如专用集成电路或芯片上的系统。
图1还显示呈可移除计算机可读存储介质109形式的数据保持系统108的一个方面,该可移除计算机可读存储介质109可被使用来存储和/或转移数据和/或可执行的指令,以实施这里描述的方法和处理过程。可移除计算机可读存储介质109可以采取CD、DVD、HD-DVD、蓝光盘、EEPROM、和/或软盘和/或其它磁介质等等的形式。
如上所述,不经意触摸输入可以被交互式显示设备解译为执行动作的命令。例如,在一些实施例中,交互式显示设备102可以采取平台或桌面的形式。这样,不经意触摸可以容易地发生,例如,在用户把手或肘部搁置在显示器上的情形下。如果在用于破坏性动作(诸如重新启动或退出动作)的用户界面控制期间发生这样的不经意输入,则不经意触摸对于用户感受而言可以是破坏性的。
作为更具体的实例,在图1的实施例中,交互式显示设备100包括用户界面,其具有被安排在显示器102的拐角处的多个有源区域110。有源区域110表示显示器102中的这样的区域:即其中触摸输入被配置成触发特定应用和/或操作系统控制动作的执行。例如,在有源区域110内的触摸输入可以使得应用重新启动或退出。虽然在图1的实施例中,有源区域110被显示在显示器102的拐角处,但将会理解,这样的有源区域110可以具有任何其它适当的位置。
因为对重新启动指令的非故意的执行(例如)将破坏用户感受,故交互式显示设备102利用多阶段的激活序列以确认用户执行这样的动作的意图。这样,造成非故意的触摸的用户可以避免触发所述动作。虽然这里描述的实施例利用二阶段激活序列,但将会理解,其它实施例可以利用三个或更多个阶段。
图2的流程图示出了说明在交互式显示设备处发起动作的方法200的实施例,其中在显示器的激活区域处接收的发起输入和在显示器的确认区域处接收的确认输入被使用来确认用户输入。虽然方法200在下面是参照图1中所示的实施例进行描述的,但将会意识到,方法200可以通过使用任何适当的硬件和软件而被执行。
方法200包括:在202处,将诸如图标那样的发起控制显示在显示器的激活区域处;以及在204处,接收在激活区域处的发起输入,其中发起输入包括与发起控制的触摸交互。将会理解,发起控制可被持久地显示在激活区域处。激活区域包括显示器的一部分(诸如图1的有源区域110),其被配置成在多阶段序列的第一阶段期间检测发起输入。
通过发起控制期间所作出的发起输入可以是故意的或不经意的。因此,交互式显示设备在接收到确认输入之前不执行动作。因此,方法200接着包括:在206处,将诸如目标图标和/或目标文本那样的确认目标显示在确认区域处。确认目标的显示可以通知用户已识别出发起触摸,并且目标文本可以指示:如果接收到确认输入,则将执行动作。这里使用的术语“确认目标”表示任何用户界面单元,用户与该用户界面单元交互,以便确认执行以前发起的动作的意图。
图3显示用户界面300的实施例,用户界面300包括激活区域302,激活区域302具有发起控制306,发起控制306呈在激活区域302中所显示的图标的形式。正如以上说明的那样,将会理解,图标或另一个适当的发起控制可以持久地被显示在激活区域处,或当在激活区域处检测到触摸时被显示。如图3所示,手指304放置在控制306上。将会理解,手指304仅仅是为了举例而被示出的,而不打算作为限制,因为发起控制可以以任何适当的方式被激活。因此,虽然是结合触摸输入(包括触摸、手势、和上面描述的盘旋输入)进行讨论的,但这里描述的实施例可用于从诸如3D照相机、光标控制设备(诸如跟踪球、指示棍、笔尖、鼠标等等)的其它适当用户输入设备所接收的输入中。
图3还以虚影的形式示出了确认目标307,其包括目标文本308和目标图标310,用户可以与该目标图标交互以便确认意图。这些单元以虚影的形式被显示,以指示当没有被激活时它们可能是看不见的或具有减小的视觉呈现,以及一旦在激活区域302内检测到发起输入,就可以以完全的强度被显示。而且,在一些实施例中,确认目标307的显示可包括适当的动画和/或声音效果,动画和/或声音效果被配置成吸引用户的注意。因此,不熟悉在交互式显示设备处发起动作的用户可以发现,动画和/或声音效果提供关于如何发起动作的、有帮助的线索。而且,这样的动画和/或声音效果可以提醒用户以防与发起控制306的不经意交互。在移动设备上执行的方法200的实施例中,适当的触觉感受可以伴随着确认目标307的显示。
在所显示的实施例中,目标文本308指示:如果已被确认,则要被执行的动作。正如在图3所示的实施例中显示的,目标图标310具有与激活区域中的图标互补的形状且被配置成允许用户把来自激活区域的图标拖拽到目标图标的内部,以便确认意图。将会意识到,激活区域图标与目标图标的互补的形状可以有助于向用户指示要执行的手势的特性。还将会意识到,在图3的实施例中的图标的特定外形和位置是为了举例目的而给出的,且用户界面单元的发起和确认可以具有任何其它适当的外形和位置。
回到图2,方法200接着包括,在208处,接收确认输入。在一些实施例中,确认输入可包括将激活区域中的图标移向确认目标的手势。例如,在一些实施例中,确认输入可包括将来自激活区域的图标拖拽到互补图标内部的手势。附加地或替换地,在一些实施例中,确认输入可包括例如遍布于目标文本的、在围绕确认目标所规定的确认区域内接收的轻打输入。如果在认识到发起输入后在预定的确认时间间隔内接收到确认输入,则设备将执行相关联的动作。否则,多阶段激活序列将暂停和终结,而不执行相关的动作。
确认时间间隔可以具有任何适当的持续时间。适当的持续时间包括但不限于适于允许新用户了解确认输入的特性的持续时间,但还没有以不希望的长时间间隔占用显示空间。虽然图4显示单个确认目标,但将会意识到,某些实施例可包括多个确认目标,每个确认目标可对应于不同的动作。
回到图2,在一些实施例中,训练用户界面单元可以在接收确认输入之前或同时被显示,以便教导用户如何执行确认输入。例如,图4示出了文本块408,其包括教导用户“把图标拖拽到新月形内”的文本,以执行确认输入。训练单元另外或替换地可包括图形单元,该图形单元例如图示要被跟踪以执行确认手势的路径。例如,图4还显示另一个示例的训练单元,该训练单元包括方向箭头409的显示,方向箭头409被配置成引导确认输入的用户性能。将会意识到,文本方块408和方向箭头409是训练单元的非限制性实例,并且可以显示其它适当的训练单元和/或训练单元的组合,或可以干脆不显示训练单元。在一些实施例中,一个或多个训练单元的显示可包括适当的动画和/或虚影效果,该适当的动画和/或虚影效果被配置成增强提供给用户的视觉线索。
这样的训练单元可以基于各种手势输入特性而被显示,这些手势输入特性包括但不限于手势速度和/或方向特性。例如,训练单元可以被显示用于手势,其中该手势被判断为比起预定的阈值速度更慢或具有不正确的路径,因为不太有经验的用户(其对于应当如何操控图标可能不确信)相对于更有经验和更自信的用户而言,可能具有相对较慢的手势输入。
在一些实施例中,发起控制306和/或确认目标307的显示提供由一个或多个训练单元所提供的功能。例如,确认目标307和/或发起控制306的外观在用户执行确认手势时可以变化, 这样的变化被配置成指示用户朝着手势被成功执行方面行进。将会理解,适当的触觉线索、听觉线索和/或视觉动画线索可以伴随着训练单元的显示。
如上所述,除了拖拽手势以外的其它触摸输入可以被利用来作为确认输入。例如,如上所述,接收确认输入可包括接收在确认区域中的轻打输入。作为更具体的实例,有经验的用户可以首先选择轻打控制306,然后是轻打目标文本308或目标图标310,以便确认用户欲使设备执行的动作,而不是执行拖拽确认输入。对于用户而言,这种组合相对于轻打和拖拽序列可以是更快速的,因此对于更熟练的用户是有吸引力的。作为应答,在一些实施例中,显示器可以显示发起控制306移动到目标图标310中,以提供确认输入被成功地执行的视觉线索。在一些实施例中,其它适当的触觉线索、听觉线索和/或视觉动画线索可被提供来指示确认输入的成功的执行,而在一些其它的实施例中,除了与发起的动作的执行伴随的线索(例如,与设备的关断伴随的关断动画序列)以外,不提供其它线索。
一旦交互式显示设备接收到确认输入,方法200就包括:在210处,执行动作。例如,图5示意地示出了在发起控制306被手指304拖拽到目标图标310的内部后的用户界面。响应于该确认输入,交互式显示设备将执行由目标文本308指示的“重新启动”动作。
应当理解,这里描述的配置和/或方法本质上是示例性的,且这些具体的实施例或实例不应当被认为具有限制的意义,因为许多变型都是可能的。这里描述的具体的例行程序或方法可以代表任何数目的处理策略中的一个或多个。这样,所显示的各种动作可以按所描绘的顺序、其它顺序、并行地被执行,或在某些情形下被省略。类似地,上述处理过程的次序可以改变。
本公开内容的主题包括:各种处理过程、系统和配置的所有的新颖的和非显而易见的组合和子组合;和这里公开的其它特征、功能、动作、和/或特性以及它们的任何和全部的等同物。

Claims (10)

1.一种在包括显示器(102)的交互式显示设备(100)上发起动作的方法(200),该方法包括:
在显示器的激活区域(302)处显示(202)发起控制(306);
经由所述发起控制接收(204)发起输入;
响应于对所述发起输入的接收,在显示器的确认区域处显示(206)确认目标(307);
经由所述确认目标接收(208)确认输入;以及
响应于所述确认输入,执行(210)动作。
2.权利要求1的方法,其中接收确认输入包括:接收朝向确认目标拖拽用户界面图标的手势输入。
3.权利要求2的方法,其中手势输入包括拖拽用户界面图标到所述确认目标的互补的用户界面图标的内部。
4.权利要求1的方法,还包括:仅当所述确认输入在预定的确认时间间隔内被接收时才执行动作。
5.权利要求1的方法,其中接收所述确认输入包括经由确认目标接收轻打输入。
6.权利要求1的方法,还包括响应于对所述发起输入的接收,显示训练单元。
7.权利要求6的方法,其中响应于手势速度和手势方向特性中的一项或多项来显示训练单元。
8.一种交互式显示设备(100),包括:
显示器(102);
触摸和/或盘旋检测系统(104),其被配置成检测在显示器上的触摸和/或近触摸;
数据保持子系统(108);以及
逻辑子系统(106),其被配置成执行被存储在数据保持子系统中的指令,所述指令被配置成:
       在显示器的激活区域(302)处显示(202)发起控制(306),
       经由所述发起控制接收(204)发起输入,
       接收(208)在显示器的确认区域处的确认输入,以及
       响应于所述确认输入,执行(210)动作。
9.权利要求8的设备,还包括可执行的指令,用来响应于对发起输入的接收,显示确认目标。
10.权利要求8的设备,还包括可执行的指令,用来响应于手势速度和手势方向特性中的一项或多项,显示训练单元。
CN2012100007073A 2011-01-04 2012-01-04 多阶段接入点 Pending CN102650930A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161429715P 2011-01-04 2011-01-04
US61/429715 2011-01-04
US13/083,227 US20120169624A1 (en) 2011-01-04 2011-04-08 Staged access points
US13/083227 2011-04-08

Publications (1)

Publication Number Publication Date
CN102650930A true CN102650930A (zh) 2012-08-29

Family

ID=46380333

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012100007073A Pending CN102650930A (zh) 2011-01-04 2012-01-04 多阶段接入点

Country Status (15)

Country Link
US (1) US20120169624A1 (zh)
EP (1) EP2661665A4 (zh)
JP (1) JP2014506368A (zh)
KR (1) KR20140027081A (zh)
CN (1) CN102650930A (zh)
AU (1) AU2012204490A1 (zh)
BR (1) BR112013017018A2 (zh)
CA (1) CA2823626A1 (zh)
CL (1) CL2013001948A1 (zh)
CO (1) CO6721053A2 (zh)
MX (1) MX2013007808A (zh)
RU (1) RU2013130669A (zh)
SG (1) SG191132A1 (zh)
WO (1) WO2012094310A2 (zh)
ZA (1) ZA201304329B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101359233B1 (ko) * 2008-07-01 2014-02-05 엘지전자 주식회사 휴대 단말기 및 그 구동 방법
CN108089643B (zh) * 2012-02-17 2022-01-21 索尼移动通信株式会社 电子设备和增强与电子设备交互的方法
WO2014116542A1 (en) 2013-01-22 2014-07-31 Tealium Inc. Activation of dormant features in native applications
US9612740B2 (en) * 2013-05-06 2017-04-04 Barnes & Noble College Booksellers, Inc. Swipe-based delete confirmation for touch sensitive devices
US9537964B2 (en) 2015-03-11 2017-01-03 Tealium Inc. System and method for separating content site visitor profiles
US8805946B1 (en) 2013-08-30 2014-08-12 Tealium Inc. System and method for combining content site visitor profiles
US11695845B2 (en) 2013-08-30 2023-07-04 Tealium Inc. System and method for separating content site visitor profiles
US20150066587A1 (en) 2013-08-30 2015-03-05 Tealium Inc. Content site visitor processing system
US9081789B2 (en) 2013-10-28 2015-07-14 Tealium Inc. System for prefetching digital tags
WO2015069659A1 (en) 2013-11-05 2015-05-14 Tealium Inc. Universal visitor identification system
US9601080B1 (en) * 2013-11-13 2017-03-21 Google Inc. Systems and methods for virtually weighted user input elements for performing critical actions
US9288256B2 (en) 2014-04-11 2016-03-15 Ensighten, Inc. URL prefetching
US9864979B2 (en) 2014-08-29 2018-01-09 Panasonic Intellectual Property Management Co., Ltd. Transaction terminal device
US20160077793A1 (en) * 2014-09-15 2016-03-17 Microsoft Corporation Gesture shortcuts for invocation of voice input
JP6222879B2 (ja) * 2014-11-14 2017-11-01 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体の制御方法、装置及び移動デバイス
KR102380228B1 (ko) * 2014-11-14 2022-03-30 삼성전자주식회사 디바이스를 제어하는 방법 및 그 디바이스
US11347316B2 (en) 2015-01-28 2022-05-31 Medtronic, Inc. Systems and methods for mitigating gesture input error
US10613637B2 (en) * 2015-01-28 2020-04-07 Medtronic, Inc. Systems and methods for mitigating gesture input error
JP6143023B2 (ja) * 2015-11-19 2017-06-07 カシオ計算機株式会社 電子機器、タッチ操作制御方法及びプログラム
US11146656B2 (en) 2019-12-20 2021-10-12 Tealium Inc. Feature activation control and data prefetching with network-connected mobile devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080165140A1 (en) * 2007-01-05 2008-07-10 Apple Inc. Detecting gestures on multi-event sensitive devices
US20080195961A1 (en) * 2007-02-13 2008-08-14 Samsung Electronics Co. Ltd. Onscreen function execution method and mobile terminal for the same
CN101540794A (zh) * 2008-03-21 2009-09-23 Lg电子株式会社 移动终端及其屏幕显示方法
CN101901104A (zh) * 2009-03-31 2010-12-01 仁宝电脑工业股份有限公司 电子装置及使用者介面的控制方法
CN101371258B (zh) * 2005-12-23 2010-12-29 苹果公司 通过在解锁图像上执行手势来解锁设备的方法和设备

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701027B2 (ja) * 2004-09-02 2011-06-15 キヤノン株式会社 情報処理装置、制御方法及びプログラム
JP2007013530A (ja) * 2005-06-30 2007-01-18 Orion Denki Kk キーロック解除機能を備えた電子機器
KR20070113018A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 터치스크린 장치 및 그 실행방법
KR100720335B1 (ko) * 2006-12-20 2007-05-23 최경순 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
KR100883115B1 (ko) * 2007-03-28 2009-02-10 삼성전자주식회사 실행영역이 설정된 터치스크린을 구비하는 휴대 단말기 및그 기능 실행 방법
EP2045700A1 (en) * 2007-10-04 2009-04-08 LG Electronics Inc. Menu display method for a mobile communication terminal
US7958460B2 (en) * 2007-10-30 2011-06-07 International Business Machines Corporation Method for predictive drag and drop operation to improve accessibility
US8327272B2 (en) * 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
KR100942821B1 (ko) * 2008-05-08 2010-02-18 주식회사 한모아 터치 위치 이동과 방향 전환에 의한 명령 또는 데이터 입력 방법 및 장치
US20100146425A1 (en) * 2008-12-08 2010-06-10 Lance John M Drag and drop target indication in a graphical user interface
US20100229129A1 (en) * 2009-03-04 2010-09-09 Microsoft Corporation Creating organizational containers on a graphical user interface
US8539382B2 (en) * 2009-04-03 2013-09-17 Palm, Inc. Preventing unintentional activation and/or input in an electronic device
KR101537706B1 (ko) * 2009-04-16 2015-07-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US8519960B2 (en) * 2009-09-17 2013-08-27 Aten International Co., Ltd. Method and apparatus for switching of KVM switch ports using gestures on a touch panel
KR20100006150A (ko) * 2009-11-19 2010-01-18 주식회사 한모아 터치 위치 이동과 방향 전환에 의한 명령 또는 데이터 입력 방법 및 장치
US8769443B2 (en) * 2010-02-11 2014-07-01 Apple Inc. Touch inputs interacting with user interface items
US20110320978A1 (en) * 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101371258B (zh) * 2005-12-23 2010-12-29 苹果公司 通过在解锁图像上执行手势来解锁设备的方法和设备
US20080165140A1 (en) * 2007-01-05 2008-07-10 Apple Inc. Detecting gestures on multi-event sensitive devices
US20080195961A1 (en) * 2007-02-13 2008-08-14 Samsung Electronics Co. Ltd. Onscreen function execution method and mobile terminal for the same
CN101540794A (zh) * 2008-03-21 2009-09-23 Lg电子株式会社 移动终端及其屏幕显示方法
CN101901104A (zh) * 2009-03-31 2010-12-01 仁宝电脑工业股份有限公司 电子装置及使用者介面的控制方法

Also Published As

Publication number Publication date
EP2661665A4 (en) 2017-06-28
JP2014506368A (ja) 2014-03-13
BR112013017018A2 (pt) 2018-11-06
CO6721053A2 (es) 2013-07-31
AU2012204490A1 (en) 2013-07-25
WO2012094310A2 (en) 2012-07-12
ZA201304329B (en) 2014-08-27
KR20140027081A (ko) 2014-03-06
MX2013007808A (es) 2013-08-21
CA2823626A1 (en) 2012-07-12
SG191132A1 (en) 2013-07-31
NZ613914A (en) 2014-05-30
US20120169624A1 (en) 2012-07-05
CL2013001948A1 (es) 2013-12-13
EP2661665A2 (en) 2013-11-13
RU2013130669A (ru) 2015-01-10
WO2012094310A3 (en) 2012-12-27

Similar Documents

Publication Publication Date Title
CN102650930A (zh) 多阶段接入点
US20230289023A1 (en) Method and apparatus for displaying application
US10152948B2 (en) Information display apparatus having at least two touch screens and information display method thereof
US8446376B2 (en) Visual response to touch inputs
US10416777B2 (en) Device manipulation using hover
US9658766B2 (en) Edge gesture
JP5684291B2 (ja) オンおよびオフスクリーン・ジェスチャーの組み合わせ
JP5883400B2 (ja) オンスクリーン入力を作るためのオフスクリーン・ジェスチャー
US8775973B2 (en) Presentation of search results
US20120304107A1 (en) Edge gesture
US20120304131A1 (en) Edge gesture
CN102207788A (zh) 使用边框手势的径向菜单
CN102207818A (zh) 使用屏幕上和屏幕外手势的页面操纵
CN102122229A (zh) 使用边框作为输入机制
TW200805132A (en) Touch screen device and operating method thereof
CN102508572A (zh) 触摸手势通知撤消技术
US10620772B2 (en) Universal back navigation for multiple windows
US20130009880A1 (en) Apparatus and method for inputting character on touch screen
US20140052746A1 (en) Method of searching for playback location of multimedia application and electronic device thereof
NZ613914B (en) Staged access points
Fourney et al. Understanding the effects and implications of gesture-based interaction for dynamic presentations
KR20160031276A (ko) 전자 장치, 및 이의 동작 방법
TW201641145A (zh) 模擬長距離活動的遊戲方法及可攜式電子裝置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20120829