CN104246680B - 发起帮助特征 - Google Patents

发起帮助特征 Download PDF

Info

Publication number
CN104246680B
CN104246680B CN201280072857.3A CN201280072857A CN104246680B CN 104246680 B CN104246680 B CN 104246680B CN 201280072857 A CN201280072857 A CN 201280072857A CN 104246680 B CN104246680 B CN 104246680B
Authority
CN
China
Prior art keywords
gesture
control piece
interaction
engine
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201280072857.3A
Other languages
English (en)
Other versions
CN104246680A (zh
Inventor
J.梅勒
W.F.韦尼耶
M.G.德奧利韦拉
V.H.多斯桑托斯
A.梅-拉斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Antite Software Co., Ltd.
Original Assignee
Hewlett Packard Enterprise Development LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Enterprise Development LP filed Critical Hewlett Packard Enterprise Development LP
Publication of CN104246680A publication Critical patent/CN104246680A/zh
Application granted granted Critical
Publication of CN104246680B publication Critical patent/CN104246680B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种用于发起帮助特征的方法包括检测和做出关于与关联于用户界面的表面的第一交互是否匹配预定的第一手势的第一确定。跟随在肯定的第一确定之后,检测第二交互并且做出关于与表面的第二交互是否匹配预定的第二手势的第二确定。跟随在肯定的第二确定之后,识别对应于第二交互的呈现在用户界面中的多个控制件之一。使对应于识别出的控制件的帮助特征显示。

Description

发起帮助特征
背景技术
与新应用或具有新特征的应用交互并不总是直观的。应用的用户界面可以包括用户通过其进行交互的任何数目的控制件(control)。控制件可以用于向用户显示信息以及接受用户输入。这样的输入例如可以是单选按钮或复选框的选择或者文本的输入。其它输入可以包括被设计成使应用采取指定动作的命令按钮的选择。任何给定控制件的功能可能并不总是清楚的。用于帮助用户识别用户界面控制件的目的的各种技术随时间发展。一种技术包括将帮助链接放置在靠近控制件。另一种包括添加在鼠标光标悬停在给定控制件之上时出现的弹出解释。
附图说明
图1-5描绘了根据示例的呈现协作内容的用户接口的屏幕视图。
图6描绘了根据示例的系统。
图7描绘了根据示例的将用户界面位置映射到控制件和用于该控制件的帮助数据的表格。
图8是描绘了根据示例的存储器资源和处理资源的框图。
图9是描绘了被采取以实现示例的步骤的流程图。
具体实施方式
绪论:发展以下描述的各种实施例以提供供用户发起关于显示在用户界面中的控制件的帮助特征的直观方式。用户界面充当用户与应用之间的公共联系点。积极用户体验严重地受该界面影响——越直观越好。交互通过诸如文本字段、菜单、复选框、单选按钮、命令按钮等等之类的用户界面控制件达成。为了允许用户完全地进行交互,复杂的应用可以包括跨显示器散布的许多这样的控制件。因此,有时对于用户而言可能难以完全领会可用的功能和如何与控制件交互以达成期望的结果。不太复杂的应用可以依赖于较为精致、在视觉上吸引人的用户界面。这同样可能致使用户猜测关于给定控制件的真实性质。
帮助用户理解界面及其控制件的一种方法已经提供了邻近控制件的用户能够选择并且访问针对该控制件的帮助特征的链接。对于复杂的应用而言,如果真要这样做的话,通常不存在以视觉上吸引人的方式显示这样的链接的空间。另外,向较为简约的界面添加这样的链接添加了减小预期视觉吸引力的混乱。另一方法已经添加悬停特征使得当用户将光标定位在控制件之上时,出现显示关于控制件的信息的弹出窗。这样的方法在利用不依赖于由诸如鼠标之类的定点设备控制的光标的使用的触摸屏界面的情况下丧失了其有效性。
本文呈现的方法涉及诸如问号之类的直观的两部分手势的使用。问号是针对帮助的直观符号并且传统地包括两部分——钩和点。在示例实现方式中,用户经由划扫(swiping)运动在显示用户界面的触摸屏上做手势表示(gesture)问号的钩部分。在时间窗内,用户然后通过敲击或触摸所讨论的控制件来做手势表示点以发起针对该控制件的帮助特征。要注意,点部分无需与钩部分对准。还要注意,可以使用其它的两部分手势。在另一示例中,用户可以做手势表示绕所讨论的控制件的圆形并且然后敲击中心的控制件。在又一示例中,用户可以划扫Z图案并且然后敲击对应的控制件。以下关于图1-4描述说明性示例。
将以下描述被分成章节。第一,标记为“说明性示例”,其呈现其中协作内容被个性化并呈现给协作体验中的参与者的示例。第二章节,标记为“环境”,其描述其中可以实现各种实施例的环境。第三章节,标记为“组件”,其描述用于实现各种实施例的各种物理和逻辑组件的示例。第四章节,标记为“操作”,其描述实现各种实施例所采取的步骤。
说明性示例:图1-2描绘了示例用户界面的屏幕视图。图1描绘了显示具有各种控制件12-16的相对复杂的用户界面10的触摸屏。初看之下,每个控制件的目的或用户如何与界面10交互以达成期望的目标可能不是清楚的。向控制件12-18添加帮助链接平添了视觉混乱并且添加悬停功能并不与触摸屏界面良好地工作。
图2描绘了显示具有各种控制件22-28的相对简单的用户界面20的触摸屏。虽然图标直观地标识功能,但是可能存在并不如此清楚的附加功能。例如,控制件26涉及打印,但是用户可能如何选择期望的打印机并不是显而易见的。如同图1一样,向控制件22-28添加帮助链接平添了视觉混乱并且添加悬停功能性并不与触摸屏界面良好地工作。
图3-5描绘了其中用户已经发起关于用户界面20的控制件24的帮助特征的示例。开始于图3,用户已经与显示用户界面20的触摸屏表面交互。该交互30涉及以钩32的形状划扫表面。要注意钩32可以但不需要是可见的。另外,钩32可以以任何方式取向。在图4中,用户已经再次与表面交互。该第二交互34涉及在对应于控制件24的位置处敲击表面。该敲击由点36表示。直观地,点36表示问号的点部分。然而要注意,点36无需以关于钩32的任何特定位置在表面上定位。通过敲击控制件24,在图5中显示包含帮助数据40的帮助特征38。在此,帮助数据对应于控制件24。虽然帮助数据40作为文本示出,但是帮助数据40可以允许通过菜单、链接和其它交互式控制件的用户交互。
组件:图6-8描绘了用于实现各种实施例的物理和逻辑组件的示例。图6描绘了用于发起帮助特征的帮助系统42。在图6的示例中,系统42包括映射引擎44、手势引擎46和显示引擎48。同样示出的是系统42可以与其交互的映射储存库50。映射储存库50通常表示存储数据以供系统42使用的存储器。以下关于图7描述由映射储存库50存储的示例数据结构51。
映射引擎44通常表示被配置成将用户界面的多个控制件中的每一个映射到关于该控制件的帮助数据的硬件和编程的组合。因此,当控制件被选择(例如经由点动作)时,可以标识出映射到该控制件的帮助数据。在一些实现方式中,映射引擎44还可以负责将每个控制件映射到与该用户界面的显示器相关联的表面的位置。该表面例如可以是用于显示用户界面的触摸屏。以此方式,可以通过检测被用户加入在其上的表面的位置来识别特定控制件。
在执行其功能中,映射引擎44可以维护或者以其它方式利用图7的数据结构51。在该示例中,数据结构51包括一系列条目52,每一个对应于用户界面的一个控制件。每个条目52包括在控制件ID字段54、帮助数据字段56中的数据。控制件ID字段54中的数据标识用户界面的特定控制件。帮助数据字段58中的数据包括或标识针对在控制件ID字段54中标识的控制件的帮助数据。帮助数据可以包括关于对应控制件的任何信息。这样的信息可以包括文本以及交互式控制件,其例如可以允许用户设置与控制件有关的参数。作为示例,控制件可以是发起保存操作的命令按钮。针对这样的控制件的帮助数据可以包括用于选择默认保存位置或格式的其它控制件以及文本解释。每个条目52还可以包括位置字段58中的数据,其标识如显示的用户界面内的对应控制件的相对位置。该位置然后可以对应于显示用户界面的触摸屏的表面上的位置。
参考回图6,手势引擎46通常表示被配置成识别用户与表面的交互并且确定所述交互是否匹配其后跟随有预定的第二手势的预定的第一手势的硬件和编程的组合。同样,表面可以是显示用户界面的触摸屏。预定的第一手势可以包括钩运动并且预定的第二手势可以包括点动作。钩运动和点动作指示问号。然而,不存在关于点动作相对于钩运动的相对定位的要求。换言之,点动作无需与钩运动对准以形成问号,如在打印材料中使用的问号的情况。
在手势引擎46肯定地确定交互匹配其后跟随有第二手势的第一手势的情况下,映射引擎44然后负责识别对应于第二手势的多个控制件之一。对应控制件例如可以是由第二手势选择的控制件。对应控制件可以是映射到对应于第二手势的表面的位置的用户界面的多个控制件之一。例如在第二手势是点动作的情况下,所识别的控制件是由点动作选择的控制件或者最接近点动作的位置定位的控制件。换言之,它是被用户敲击的控制件。在一个示例中,显示用户界面的设备的操作系统或负责用户界面的应用响应于第二手势而传送数据。在此,该数据包括所选控制件的标识。在另一示例中,手势引擎46检测点动作的表面位置并且向映射引擎44报告该位置。映射引擎44然后使用位置以在图7的数据结构51中找到对应的条目52。从该条目52,映射引擎44识别出控制件。
显示引擎48通常表示被配置成引起与所识别的控制件相关联的帮助数据的显示的硬件和编程的组合。在执行其功能中,显示引擎48可以访问数据结构51并且获得包括在针对所识别的控制件的条目52中或由其识别的帮助数据。显示引擎48可以通过直接交互和控制显示设备来引起显示。显示引擎48可以替代地通过传送指示要显示的内容的数据来引起显示。
为了重申,用户的交互可以包括第一交互和第二交互。手势引擎46然后可以负责检测是否第一交互匹配钩运动并且是否第二交互匹配点动作。手势引擎46可以另外负责确定是否第二交互发生在第一交互的预定的时间内。预定的时间是设置成帮助确保第一和第二交互是发起帮助特征的有意尝试的阈值。如果第二交互发生在阈值之外,则不通过映射引擎44或显示引擎48采取进一步动作。
在前述讨论中,将各种组件描述为硬件和编程的组合。这样的组件可以以许多方式实现。参见图8,编程可以是存储在有形存储器资源60上的处理器可执行指令并且硬件可以包括用于执行那些指令的处理资源62。因此存储器资源60可以据说存储当由处理器资源62执行时实现图6的系统42的程序指令。
存储器资源60通常表示能够存储可以由处理资源执行的指令的任何数目的存储器组件。存储器资源可以集成在单个设备中或者跨设备分布。同样地,处理资源62表示能够执行由存储器资源存储的指令的任何数目的处理器。处理资源62可以集成在单个设备中或者跨设备分布。另外,存储器资源60可以完全地或部分地集成在与处理资源62相同的设备中或者它可以是单独的但是对该设备和处理资源62可访问的。因此,要注意系统42可以实现在用户设备上、服务器设备或服务器设备的集合上、或者用户设备和一个或多个服务器设备的组合上。
在一个示例中,程序指令可以是当被安装时可以由处理资源62执行以实现系统42的安装包的一部分。在该情况下,存储器资源60可以是诸如CD、DVD或闪速驱动器之类的便携式介质或者可以是由安装包可以从其被下载和安装的服务器所维护的存储器。在另一示例中,程序指令可以是已经安装的一个或多个应用的一部分。在此,存储器资源60可以包括诸如硬驱动、固态驱动等等之类的集成存储器。
在图8中,将存储在存储器资源60中的可执行程序指令描绘为映射模块64、手势模块66以及显示模块68。映射模块64表示当执行时使处理资源62实现图6的映射引擎44的程序指令。手势模块66表示当执行时引起手势引擎46的实现的程序指令。同样地,显示模块68表示当执行时引起显示引擎48的实现的程序指令。
操作:图9是实现用于发起帮助特征的方法所采取的步骤的流程图。在讨论图8中,可以对图3-5的屏幕视图和图6-8中描绘的组件做出参考。做出这样的参考以仅仅提供上下文的示例而不限制其中可以实现图9描绘的方法的方式。
最初,检测与关联于用户界面的表面的第一交互(步骤64)。然后做出关于第一交互是否匹配第一预定的手势的第一确定(步骤66)。第一手势例如可以是钩运动。在否定的第一确定的情况下,过程循环返回到步骤64。在肯定的确定的情况下,过程继续检测与表面的第二交互(步骤68)。做出关于第二交互是否匹配预定的第二手势的第二确定(步骤70)。在步骤70中做出第二确定可以包括确定是否第二交互已经发生并且已经发生在第一交互的预定的时间内。第二手势可以是点动作。再次注意,点动作无需在与钩运动成任何特定关系定位。点动作关于表面的位置被用于识别要显示的帮助特征所针对的特定控制件。所述确定可以包括关于是否第二交互导致控制件的选择或是否交互具有表面的特定位置的确定。这样的位置可以例如是作为点动作的结果被敲击的表面的区域。在否定的第二确定的情况下,过程循环回到步骤64。否则过程继续进行。参考回到图6,手势引擎46负责步骤64-70。图3图示了钩手势的示例而图4描绘了点动作。
假设肯定的第二确定,则识别出呈现在用户界面中的多个控制件之一(步骤72)。所识别出的控制件是对应于第二交互的控制件。这样的控制件例如可以是经由第二交互被敲击或以其它方式选择的控制件。这样的控制件可以是映射到对应于第二交互的表面的位置的控制件。例如,第二交互可以是点动作,其中用户在被显示为用户界面的部分的控制件的位置处敲击触摸屏的表面。参考图6,映射引擎44可以负责步骤72。作为示例参考图4,控制件24将在步骤72中被识别。
引起显示对应于在步骤72中识别出的控制件的帮助特征(步骤74)。帮助特征可以包括帮助数据,其以控制件的文本解释以及允许用户设置关于控制件的参数的其它交互式控制件的形式。参考图6,显示引擎48可以负责实现步骤74。图5描绘了针对所选控制件显示的帮助特征的示例。
虽然未示出,但是图9中描绘的方法还可以包括将用户界面的多个控制件映射到表面。每个控制件然后可以与有关于该控制件的帮助数据相关联。在步骤74中被引起显示的帮助特征然后可以包括针对对应控制件的帮助数据。参考图6,映射引擎44可以负责该映射并且可以至少部分地通过维护图7的数据结构51来完成任务。
结论:图1-5描绘了各种用户界面的示例屏幕视图。那些用户界面的特定布局和设计仅仅为示例并且旨在描绘其中向协作体验的不同参与者呈现个性化的协作内容的样本工作流。图6-8有助于描绘各种实施例的架构、功能和操作。特别地,图6和8描绘了各种物理和逻辑组件。各种组件被至少部分地定义为程序或编程。每个这样的组件、其部分或其各种组合可以整体地或部分地表示包括实现任何一个或多个指定逻辑功能的一个或多个可执行指令的代码的模块、段或部分。每个组件或其各种组合可以表示实现一个或多个指定逻辑功能的电路或许多互连电路。
实施例可以实现在供指令执行系统使用或与其有关的任何非临时性计算机可读介质中,所述指令执行系统诸如基于计算机/处理器的系统或ASIC(专用集成电路)或可以从计算机可读介质提取或获得逻辑并且执行包含在其中的指令的其它系统。“计算机可读介质”可以是任何非临时性介质,其可以包含、存储或维护供指令执行系统使用或与其有关的程序和数据。计算机可读介质可以包括许多物理介质中的任何一个,诸如例如电子、磁性、光学、电磁或半导体介质。合适的计算机可读介质的更具体的示例包括但不限于硬驱动器、固态驱动器、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器、闪速驱动器和便携式压缩盘。
尽管图9的流程图示出执行的特定次序,但是执行的次序可以不同于所描绘的次序。例如,两个或更多块或箭头的执行次序可以相对于所示出的次序被打乱。同样,接连示出的两个或更多块可以同时或部分同时地执行。所有这样的变型在本发明的范围内。
已经参考前述示例性实施例示出和描述了本发明。然而要理解,可以在不脱离于在随附权利要求中限定的本发明的精神和范围的情况下采取其它形式、细节和实施例。

Claims (15)

1.一种用于发起帮助特征的方法,包括:
检测和做出关于与关联于用户界面的表面的第一交互是否匹配预定的第一手势的第一确定;
跟随在肯定的第一确定之后,检测和做出关于与表面的第二交互是否匹配预定的第二手势的第二确定;以及
跟随在肯定的第二确定之后,识别在用户界面中呈现的多个控制件之一并且引起对应于识别出的控制件的帮助特征的显示,所述识别出的控制件对应于第二交互;
其中所述第一手势和所述第二手势是直观符号的两部分,所述第二手势不要求在相对于所述第一手势彼此的与所述第一手势一起形成所述直观符号的形状的指定位置定位,并且所述识别出的控制件为所述多个控制件中在最接近检测到所述第二手势的位置处呈现的一个。
2.根据权利要求1所述的方法,其中:
预定的第一手势包括钩运动并且预定的第二手势包括点动作;以及
钩运动和点动作指示问号而不要求钩运动和点动作相对于彼此的指定相对定位。
3.根据权利要求2所述的方法,其中做出第二确定包括做出关于与表面的第二交互是否匹配预定的第二手势并且已经发生在第一交互的预定的时间内的第二确定。
4.根据权利要求2所述的方法,其中:
检测和做出第二确定包括检测第二交互并且确定是否第二交互包括对多个控制件之一的选择;并且
在肯定的第二确定的情况下,识别包括识别所选控制件并且引起对应于所选控制件的帮助特征的显示。
5.根据权利要求2所述的方法,其中所述表面包括其上显示用户界面的触摸屏并且其中识别控制件包括识别出最接近点动作的位置定位的控制件。
6.一种用于发起帮助特征的系统,所述系统包括其上存储有指令的计算机可读存储器资源,所述指令当被执行时使处理资源实现系统,所述系统包括映射引擎、手势引擎和显示引擎,其中:
手势引擎被配置成识别与关联于被显示的用户界面的表面的用户的交互并且确定所述交互是否匹配其后跟随有第二预定的手势的第一预定的手势;并且
在肯定的确定的情况下,映射引擎被配置成识别对应于第二手势的显示在用户界面中的多个控制件之一,并且显示引擎被配置成引起对应于识别出的控制件的帮助特征的显示;
其中所述第一手势和所述第二手势是直观符号的两部分,所述第二手势不要求在相对于所述第一手势彼此的与所述第一手势一起形成所述直观符号的形状的指定位置定位,并且所述识别出的控制件为所述多个控制件中在最接近检测到所述第二手势的位置处呈现的一个。
7.根据权利要求6所述的系统,其中:
预定的第一手势包括钩运动并且预定的第二手势包括点动作;并且
钩运动和点动作指示问号而不要求钩运动和点动作相对于彼此的指定相对定位。
8.根据权利要求7所述的系统,其中用户的交互包括第一交互和第二交互,并且其中手势引擎被配置成确定:
是否第一交互匹配钩运动;以及
是否第二交互匹配发生在第一交互的预定的时间内的点动作。
9.根据权利要求7所述的系统,其中所述表面包括其上显示用户界面的触摸屏并且其中映射引擎被配置成通过以下动作而识别在用户界面中显示的多个控制件之一:
识别最接近点动作的位置定位在表面上的控制件并且将点动作链接到识别出的控制件,或者
识别由点动作选择的控制件。
10.根据权利要求9所述的系统,其中,对于用户界面的多个控制件中的每一个控制件,映射引擎被配置成将该控制件映射到关于该控制件的帮助数据,并且其中显示引擎被配置成通过引起映射到识别出的控制件的帮助数据的显示而引起帮助特征的显示。
11.根据权利要求6所述的系统,还包括处理资源。
12.一种用于发起帮助特征的系统,所述系统包括映射引擎、手势引擎和显示引擎,其中:
映射引擎被配置成,对于用户界面的多个控制件中的每一个,将该控制件映射到关于该控制件的帮助数据;
手势引擎被配置成识别与表面的用户的交互并且确定所述交互是否匹配其后跟随有预定的第二手势的预定的第一手势;
在通过手势引擎的肯定的确定的情况下,映射引擎被配置成识别对应于第二手势的用户界面的多个控制件之一,并且显示引擎被配置成引起映射到识别出的控制件的帮助数据的显示;
其中所述第一手势和所述第二手势是直观符号的两部分,所述第二手势不要求在相对于所述第一手势彼此的与所述第一手势一起形成所述直观符号的形状的指定位置定位,并且所述识别出的控制件为所述多个控制件中在最接近检测到所述第二手势的位置处呈现的一个。
13.根据权利要求12所述的系统,其中:
预定的第一手势包括钩运动并且预定的第二手势包括点动作;并且
钩运动和点动作指示问号而不要求钩运动和点动作相对于彼此的指定相对定位。
14.根据权利要求13所述的系统,其中用户的交互包括第一交互和第二交互,并且其中手势引擎被配置成确定:
是否第一交互匹配钩运动;以及
是否第二交互匹配发生在第一交互的预定的时间内的点动作。
15.根据权利要求13所述的系统,其中所述表面包括其上显示用户界面的触摸屏并且其中映射引擎被配置成识别作为点动作的结果而被选择的或最接近点动作的位置定位的控制件。
CN201280072857.3A 2012-07-24 2012-07-24 发起帮助特征 Expired - Fee Related CN104246680B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2012/047923 WO2014018006A1 (en) 2012-07-24 2012-07-24 Initiating a help feature

Publications (2)

Publication Number Publication Date
CN104246680A CN104246680A (zh) 2014-12-24
CN104246680B true CN104246680B (zh) 2018-04-10

Family

ID=49997653

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280072857.3A Expired - Fee Related CN104246680B (zh) 2012-07-24 2012-07-24 发起帮助特征

Country Status (4)

Country Link
US (1) US20150089364A1 (zh)
EP (1) EP2831712A4 (zh)
CN (1) CN104246680B (zh)
WO (1) WO2014018006A1 (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9744300B2 (en) 2011-12-21 2017-08-29 Deka Products Limited Partnership Syringe pump and related method
US9677555B2 (en) 2011-12-21 2017-06-13 Deka Products Limited Partnership System, method, and apparatus for infusing fluid
US9789247B2 (en) 2011-12-21 2017-10-17 Deka Products Limited Partnership Syringe pump, and related method and system
US9295778B2 (en) 2011-12-21 2016-03-29 Deka Products Limited Partnership Syringe pump
US10722645B2 (en) 2011-12-21 2020-07-28 Deka Products Limited Partnership Syringe pump, and related method and system
US9675756B2 (en) 2011-12-21 2017-06-13 Deka Products Limited Partnership Apparatus for infusing fluid
US11217340B2 (en) 2011-12-21 2022-01-04 Deka Products Limited Partnership Syringe pump having a pressure sensor assembly
US11295846B2 (en) 2011-12-21 2022-04-05 Deka Products Limited Partnership System, method, and apparatus for infusing fluid
USD757813S1 (en) * 2013-04-04 2016-05-31 Nuglif Inc. Display screen with interactive interface
USD736370S1 (en) 2013-06-11 2015-08-11 Deka Products Limited Partnership Medical pump
USD767756S1 (en) 2013-06-11 2016-09-27 Deka Products Limited Partnership Medical pump
USD735319S1 (en) 2013-06-11 2015-07-28 Deka Products Limited Partnership Medical pump
USD749124S1 (en) * 2013-10-17 2016-02-09 Microsoft Corporation Display screen with transitional graphical user interface
USD760288S1 (en) * 2013-12-20 2016-06-28 Deka Products Limited Partnership Medical pump display screen with transitional graphical user interface
USD760289S1 (en) * 2013-12-20 2016-06-28 Deka Products Limited Partnership Display screen of a syringe pump with a graphical user interface
USD760782S1 (en) 2013-12-20 2016-07-05 Deka Products Limited Partnership Display screen of a medical pump with a graphical user interface
CA2934359C (en) 2014-02-21 2023-02-14 Deka Products Limited Partnership Syringe pump having a pressure sensor assembly
WO2016044146A2 (en) 2014-09-18 2016-03-24 Deka Products Limited Partnership Apparatus and method for infusing fluid through a tube by appropriately heating the tube
USD803387S1 (en) 2015-02-10 2017-11-21 Deka Products Limited Partnership Syringe medical pump
USD803386S1 (en) 2015-02-10 2017-11-21 Deka Products Limited Partnership Syringe medical pump
USD801519S1 (en) 2015-02-10 2017-10-31 Deka Products Limited Partnership Peristaltic medical pump
USD805183S1 (en) 2015-02-10 2017-12-12 Deka Products Limited Partnership Medical pump
CN105373289A (zh) * 2015-10-10 2016-03-02 惠州Tcl移动通信有限公司 根据触摸轨迹显示帮助界面的智能设备及其方法
BR112021002737A2 (pt) 2018-08-16 2021-06-08 Deka Products Limited Partnership bomba médica

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1437136A (zh) * 2002-02-08 2003-08-20 微软公司 笔迹手迹

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4789962A (en) * 1984-10-31 1988-12-06 International Business Machines Corporation Methods of displaying help information nearest to an operation point at which the help information is requested
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5864635A (en) * 1996-06-14 1999-01-26 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by stroke analysis
US6480194B1 (en) * 1996-11-12 2002-11-12 Silicon Graphics, Inc. Computer-related method, system, and program product for controlling data visualization in external dimension(s)
JP4119004B2 (ja) * 1998-05-19 2008-07-16 株式会社東芝 データ入力システム
EP1639439A2 (en) * 2003-06-13 2006-03-29 The University Of Lancaster User interface
US20060017702A1 (en) * 2004-07-23 2006-01-26 Chung-Yi Shen Touch control type character input method and control module thereof
JP2010015238A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び補助情報の表示方法
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
CN101339489A (zh) * 2008-08-14 2009-01-07 炬才微电子(深圳)有限公司 人机交互方法、装置和系统
KR20110121926A (ko) * 2010-05-03 2011-11-09 삼성전자주식회사 터치 스크린에서 선택된 정보에 대응하는 부가정보를 포함하는 투명 팝업을 표시하는 방법 및 장치
US8825734B2 (en) * 2011-01-27 2014-09-02 Egain Corporation Personal web display and interaction experience system
US10409851B2 (en) * 2011-01-31 2019-09-10 Microsoft Technology Licensing, Llc Gesture-based search
US8868598B2 (en) * 2012-08-15 2014-10-21 Microsoft Corporation Smart user-centric information aggregation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1437136A (zh) * 2002-02-08 2003-08-20 微软公司 笔迹手迹

Also Published As

Publication number Publication date
EP2831712A4 (en) 2016-03-02
CN104246680A (zh) 2014-12-24
US20150089364A1 (en) 2015-03-26
EP2831712A1 (en) 2015-02-04
WO2014018006A1 (en) 2014-01-30

Similar Documents

Publication Publication Date Title
CN104246680B (zh) 发起帮助特征
CN106575196B (zh) 电子装置及用于显示其用户界面的方法
US10509537B2 (en) Display control apparatus, display control method, and program
EP3000013B1 (en) Interactive multi-touch remote control
US20160210008A1 (en) Electronic device, method for controlling electronic device, and storage medium
US9411484B2 (en) Mobile device with memo function and method for controlling the device
CN107870672B (zh) 虚拟现实场景实现菜单面板的方法、装置和可读存储介质
US11061562B2 (en) Method for providing haptic feedback to an operator of a touch-sensitive display device
EP2701052A2 (en) Portable device and guide information provision method thereof
JP2008123476A5 (zh)
KR20160046885A (ko) 응시 제어 인터페이스 방법 및 시스템
CN103189830A (zh) 模式切换
US10572134B2 (en) Method and system for providing prototyping tool, and non-transitory computer-readable recording medium
CN106464749B (zh) 用户界面的交互方法
CN102693073A (zh) 用于方向敏感按钮指派的方法和装置
CN102768597B (zh) 一种操作电子设备的方法及装置
US20170123646A1 (en) Apparatus and method for evaluating user interface
US20150012856A1 (en) Electronic device and method for displaying user interface for one handed operation
CN104252263A (zh) 电子设备及其触摸感测方法
CN104380241A (zh) 利用图像上的姿态激活可编程装置上的应用
CN104077114A (zh) 一种更换应用软件的显示界面的方法及电子设备
US20180157339A1 (en) Display device for interfacing by using smaller number of buttons of key pad and display method for the same
US9547775B2 (en) Device and method for data privacy management
US20160026382A1 (en) Touch-Based Flow Keyboard For Small Displays
KR20150104801A (ko) 체감형 콘텐츠 기기의 배치 및 센싱영역 검출 시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20180223

Address after: American Texas

Applicant after: HEWLETT PACKARD ENTERPRISE DEVELOPMENT LP

Address before: American Texas

Applicant before: Hewlett-Packard Development Company, Limited Liability Partnership

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20180619

Address after: American California

Patentee after: Antite Software Co., Ltd.

Address before: American Texas

Patentee before: HEWLETT PACKARD ENTERPRISE DEVELOPMENT LP

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180410

Termination date: 20200724