CN103927082A - 基于手势的用户界面方法和设备 - Google Patents
基于手势的用户界面方法和设备 Download PDFInfo
- Publication number
- CN103927082A CN103927082A CN201410126592.1A CN201410126592A CN103927082A CN 103927082 A CN103927082 A CN 103927082A CN 201410126592 A CN201410126592 A CN 201410126592A CN 103927082 A CN103927082 A CN 103927082A
- Authority
- CN
- China
- Prior art keywords
- input
- gesture
- guide
- image
- touch display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供了一种基于手势的用户界面方法和设备以改进基于手势的用户界面的操作的便利性。该基于手势的用户界面方法包括:检测输入位置,确定在检测的位置可能输入的至少一个手势,以及在屏幕上显示与确定的至少一个手势对应的至少一个向导。
Description
本申请是申请日为2007年6月27日,申请号为“200710126810.1”,标题为“基于手势的用户界面方法和设备”的发明专利申请的分案申请。
技术领域
与本发明一致的装置和方法涉及一种用户界面,更具体地说,涉及一种基于手势(gesture-based)的用户界面设备和方法以改进用户界面的操作的便利性。
背景技术
基于手势的界面通常通过用户界面中使用的隐喻(metaphor)或帮助项目来提供必须由用户输入的手势的向导。然而,使用这种向导,缺乏经验的用户可能在操作基于手势的用户界面时重复错误直到他们记住手势。
发明内容
本发明提供一种基于手势的用户界面方法和设备,使得用户更容易使用基于手势的用户界面,并提供一种计算机可读记录介质,在其上记录用于实施所述基于手势的用户界面方法的程序。
根据本发明的一方面,提供一种基于手势的用户界面方法,包括:检测输入位置,确定至少一个可以在检测的位置输入的手势,以及在屏幕上显示与确定的至少一个手势对应的至少一个向导。
输入位置的检测的步骤可包括:使用基于触摸的输入装置在预定的时间间隔检测触摸的位置。
基于手势的用户界面方法还可包括:将屏幕虚拟地划分为至少一个区域,并为所述至少一个区域中的每一个分配可以输入的至少一个手势。
在屏幕上显示至少一个向导的步骤可包括:将介绍确定的至少一个手势的至少一个图像确定作为将要在屏幕上显示的向导。
基于手势的用户界面方法还可包括:根据输入位置的改变而改变屏幕上显示的至少一个向导。
基于手势的用户界面方法还可包括:如果没有继续检测到输入位置,则从屏幕移除显示的至少一个向导。
根据本发明的另一方面,提供一种基于手势的用户界面设备,包括:手势输入单元、手势处理单元和中央处理单元。手势输入单元检测输入位置。手势处理单元确定至少一个在检测的位置可能输入的手势。中央处理单元从存储单元读取与确定的至少一个手势对应的至少一个向导,并在屏幕上显示读取的向导。
附图说明
通过下面参照附图对示例性实施例的详细描述,本发明的上述和其他特征和方面将会变得更加清楚,其中:
图1是根据本发明的示例性实施例的基于手势的用户界面设备的框图;
图2是根据本发明的示例性实施例的基于手势的用户界面方法的流程图;
图3是根据本发明的另一示例性实施例的基于手势的用户界面的流程图;
图4示出根据本发明的示例性实施例的向导图像和手势之间的关系;
图5示出根据本发明的示例性实施例被虚拟划分的屏幕的示例;
图6示出根据本发明的示例性实施例被虚拟划分的屏幕的另一示例;
图7示出根据本发明的示例性实施例在屏幕上显示的向导图像的示例;
图8示出根据本发明的示例性实施例在屏幕上显示的向导图像的另一示例;
图9示出根据本发明的示例性实施例在屏幕上显示的两个向导图像的示例;
图10示出根据本发明的示例性实施例在屏幕上显示的向导图像的另一示例;和
图11示出根据图10中示出的屏幕中的输入位置的改变而改变的向导图像的示例。
具体实施方式
以下,将参照附图来详细描述本发明的示例性实施例。
图1是根据本发明的示例性实施例的基于手势的用户界面设备的框图。
参照图1,基于手势的用户界面设备包括:手势输入单元101,输入来自用户的手势;存储单元103;显示单元106;手势处理单元102,识别通过手势输入单元101输入的手势,从而确定与该手势对应的操作,并预测手势可以被输入或者在由手势输入单元101检测的输入位置是有效的;和中央处理单元105,执行由手势输入单元101确定的操作,并从存储单元103读取与预测的手势对应的向导图像104,从而在显示单元106上显示该向导图像。将参照图2到图11描述这些元件的细节。
图2是根据本发明的示例性实施例的基于手势的用户界面方法的流程图。
参照图2,在操作202,如果有来自用户的输入,则手势输入单元101检测用户的输入位置。手势输入单元101可以是用于在预定的时间间隔检测用户的触摸位置的基于触摸的输入装置(例如触摸屏或触摸板),但是也可以是其他类型的输入装置(例如鼠标装置),但不限于此。在操作204,手势处理单元102确定在检测的输入位置中可能输入的手势。换句话说,如果用户开始手势输入操作,则手势处理单元102基于用户输入位置预测用户想要做出的手势。中央处理单元105将介绍由手势处理单元102预测的手势的向导重叠在显示单元106上。可以图像的形式显示向导,并从存储与手势对应的向导图像104的存储单元103读取向导。
图3是根据本发明的另一示例性实施例的基于手势的用户界面方法的流程图,其中使用触摸屏作为手势输入单元101。
参照图3,手势输入单元101检测由用户的手指或记录笔触摸的坐标。在操作302,这些坐标将在下文中被称为触摸坐标。当用户首先触摸触摸屏时,手势处理单元102确定在包括触摸坐标的区域中可用的手势。在操作304,中央处理单元105选择用于确定的手势的向导。在操作306,在触摸坐标周围显示与选择的向导对应的图像,在下文中将其称为向导图像。在操作308,在用户与屏幕接触时一旦移动,(即,用户拖动手指或记录笔),为了改变触摸坐标,在操作310,手势输入单元101继续检测改变的触摸坐标。在操作312,中央处理单元105也根据移动的触摸坐标改变向导图像,并在屏幕上显示改变的向导图像。在操作314,如果用户从屏幕移开手指或记录笔并因此不再检测到触摸坐标,则从屏幕移除向导图像。
图4示出根据本发明的示例性实施例的向导图像和手势之间的关系,其中示出可以输入的手势和可以显示的用于手势的向导图像。
参照图4,如果预测是手势“顺时针旋转”,则显示与预测的手势对应的顺时针旋转图像402。如果预测是手势“逆时针旋转”,则显示逆时针旋转图像404。如果预测是手势“形成向右的直线”,则显示向右的箭头图像406。如果预测是手势“形成向左的直线”,则显示向左的箭头图像408。如果预测是手势“形成向上的直线”,则显示向上的箭头图像410。如果预测是“形成向下的直线”,则显示向下的箭头图像412。这些手势可以实现向上滚动功能、向下滚动功能、回车功能、后退功能、提高音量功能和降低音量功能。然而,对于本领域的技术人员很明显,与其对应的这些手势和向导图像只是示例,并且可以改变示例性实施例。
根据本发明的示例性实施例,为了根据检测的输入位置确定可以由用户输入的手势,手势处理单元102可以将屏幕虚拟地划分为至少一个区域并为该区域分配至少一个可用手势。换句话说,包括确定用户首先触摸的坐标所在的区域来执行手势输入操作,并在触摸坐标的周围显示与在确定的区域中被预测为可用的手势对应的向导。
图5示出根据本发明的示例性实施例被虚拟划分的屏幕的示例。
参照图5,将屏幕划分为第一区域501到第三区域503。将与其对应的有效手势和向导图像分配给第一区域501到第三区域503中的每一个。例如,可以将手势“形成向右的直线”分配给第一区域501,并且当用户首先触摸第一区域501来执行手势输入操作时,可以将向右的箭头图像406显示作为输入手势的向导。可以将手势“旋转”分配给第二区域502,并且当用户首先触摸第二区域502来执行手势输入操作时,可以将顺时针旋转图像402或逆时针旋转图像404显示作为输入手势的向导。可选择地,在显示不具有方向性的圆圈图像作为向导之后,可以根据用户的拖动方向将向导图像更新为顺时针旋转图像402或者逆时针旋转图像404。可以将手势“形成向右直线”分配给第三区域503,并且当用户首先触摸第三区域503来执行手势输入时,可以显示向左的箭头图像408。
图6示出根据本发明的示例性实施例被虚拟划分的屏幕的另一示例。
参照图6,屏幕被划分为第一区域601到第八区域608。将与其对应的有效手势和向导图像分配给第一区域601到第八区域608中的每一个。例如,可以将手势“形成向下的直线”和向下箭头图像412分配给第一区域601;可以将手势“形成向右的直线”和向右箭头图像406分配给第二区域602;可以将手势“形成向上的直线”和向上箭头图像410分配给第三区域603;可以将手势“逆时针旋转”和逆时针旋转图像404分配给第四区域604;可以将手势“顺时针旋转”和顺时针旋转图像402分配给第五区域605;可以将手势“形成向左的直线”和向左箭头图像408分配给第六区域606;可以将手势“形成向左的直线”和向左箭头图像408分配给第七区域607;可以将手势“形成向上的直线”和向上箭头图像410分配给第八区域608。
图7到图11示出本发明的示例性实施例应用到移动装置的内容搜索。
图7示出根据本发明的示例性实施例在屏幕上显示的向导图像的示例,其中如图5所示屏幕被划分为第一区域501到第三区域503。由于用户输入或触摸的位置701与第二区域502对应,所以显示与滚动功能对应的向导图像702。在本发明的当前示例性实施例中,向导还指示与手势“顺时针旋转”对应的功能是“SCROLL”,因此用户可以立即检查是否正确输入其期望的手势。
图8示出根据本发明的示例性实施例在屏幕上显示的向导图像的另一示例,其中与图5总示出的第三区域503对应的位置801被触摸。在这种情况下,显示介绍手势“形成向左的直线”的向导图像802。
也可以将多个手势分配给一个区域。在这种情况下,将多个向导图像分配给一个区域。图9示出根据本发明的示例性实施例在屏幕上显示的两个向导图像的示例,其中将两个手势“形成向左的直线”和“形成向上的直线”分配给包括第一触摸位置901的区域。在这种情况下,当用户对位置901的进行触摸时显示两个向导图像902和903。因此,用户可以选择与期望的功能对应的手势,并根据与选择的手势对应的向导图像输入手势。
图10示出根据本发明的示例性实施例在屏幕上显示的向导图像的另一示例。如果用户首先触摸包括在屏幕中心的第一位置1001,则与手势“旋转”对应的缓进-往复(jog-shuttle)控制器向导图像1002和滚动功能在显示内容列表的屏幕上重叠。向导图像1002包括指示缓进-往复控制器的旋转量的图像1003。
图11示出根据图10中示出的屏幕中的输入位置的改变而改变的向导图像的示例。一旦用户从第一位置1001拖动到第二位置1102,缓进-往复控制器也旋转,指示旋转量的图像1003的位置也被改变。
例如,可以通过计算机可读记录介质上的计算机可读的代码来实施根据本发明的基于手势的用户界面方法。
如上所述,根据本发明的一方面,当用户开始手势输入操作时,在屏幕上显示对可用手势的向导,从而使用户更容易熟悉基于手势的用户界面。
虽然已经参照本发明的示例性实施例对其进行具体地显示和描述,但是本领域的技术人员将理解,在不脱离权利要求限定的本发明的精神和范围的情况下可以在形式和细节上做出各种改变。
Claims (12)
1.一种基于手势的用户界面方法,包括:
在触摸显示屏上显示图像;
接收触摸显示屏上的触摸输入;
响应于触摸输入,在显示在触摸显示屏上的图像上的与触摸输入相应的位置处,重叠地显示多个向导图像,所述多个向导图像的每一个与能够对显示在触摸显示屏上的图像执行的功能相关联;
接收与显示在触摸显示屏上的所述多个向导图像中的一个相应的拖动输入;
响应于拖动输入,执行与所述多个向导图像中的一个相关联的功能,并根据执行的功能改变显示在触摸显示屏上的图像;
在拖动输入期间根据输入位置的改变来改变所述多个向导图像中的一个;
当拖动输入结束时移除所述多个向导图像。
2.如权利要求1所述的基于手势的用户界面方法,其中,所述多个向导图像中的一个包括指示与所述多个向导图像中的一个相关联的功能的文本。
3.如权利要求1所述的基于手势的用户界面方法,其中,所述多个向导图像中的一个包括箭头向导。
4.一种基于手势的用户界面设备,包括:
输入装置,被配置为接收触摸显示屏上的触摸输入和拖动输入;
处理器,被配置为在触摸显示屏上显示图像;响应于触摸输入,在显示在触摸显示屏上的图像上的与触摸输入相应的位置处,重叠地显示多个向导图像,所述多个向导图像的每一个与能够对显示在触摸显示屏上的图像执行的功能相关联;响应于与显示在触摸显示屏上的所述多个向导图像中的一个相应的拖动输入,执行与所述多个向导图像中的一个相关联的功能,并根据执行的功能改变显示在触摸显示屏上的图像;在拖动输入期间根据输入位置的改变来改变所述多个向导图像中的一个;当拖动输入结束时移除所述多个向导图像。
5.如权利要求4所述的基于手势的用户界面设备,其中,所述多个向导图像中的一个包括指示与所述多个向导图像中的一个相关联的功能的文本。
6.如权利要求4所述的基于手势的用户界面设备,其中,所述多个向导图像中的一个包括箭头向导。
7.一种基于手势的用户界面方法,包括:
在触摸显示屏上显示图像;
接收触摸显示屏上的触摸输入;
通过将多个向导图像覆盖在显示在触摸显示屏上的图像上,在与触摸输入相应的多个位置处,显示所述多个向导图像;
接收拖动输入;
检测拖动输入的坐标;
基于拖动输入的坐标,执行与所述多个向导图像中的一个相应的功能,并根据该功能改变显示在触摸显示屏上的图像;
在拖动输入期间根据输入位置的改变来改变所述多个向导图像中的一个;
响应于完成拖动输入移除所述多个向导图像。
8.如权利要求7所述的基于手势的用户界面方法,其中,所述多个向导图像中的一个包括指示与所述多个向导图像中的一个相关联的功能的文本。
9.如权利要求7所述的基于手势的用户界面方法,其中,所述多个向导图像中的一个包括箭头向导。
10.一种基于手势的用户界面设备,包括:
触摸显示器,被配置为接收触摸输入和拖动输入,并显示图像;
处理器,被配置为:
控制触摸显示器显示图像,响应于触摸输入,通过将多个向导图像覆盖在显示在触摸显示屏上的图像上,在与触摸输入相应的多个位置处,显示所述多个向导图像;
检测拖动输入的坐标,基于拖动输入的坐标,执行与所述多个向导图像中的一个相应的功能,并根据执行的功能改变显示在触摸显示屏上的图像;
在拖动输入期间根据输入位置的改变来改变所述多个向导图像中的一个;
响应于完成拖动输入移除所述多个向导图像。
11.如权利要求10所述的基于手势的用户界面设备,其中,所述多个向导图像中的一个包括指示与所述多个向导图像中的一个相关联的功能的文本。
12.如权利要求10所述的基于手势的用户界面设备,其中,所述多个向导图像中的一个包括箭头向导。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2006-0121784 | 2006-12-04 | ||
KR1020060121784A KR101304461B1 (ko) | 2006-12-04 | 2006-12-04 | 제스처 기반 사용자 인터페이스 방법 및 장치 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2007101268101A Division CN101196793A (zh) | 2006-12-04 | 2007-06-27 | 基于手势的用户界面方法和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103927082A true CN103927082A (zh) | 2014-07-16 |
Family
ID=39420350
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2007101268101A Pending CN101196793A (zh) | 2006-12-04 | 2007-06-27 | 基于手势的用户界面方法和设备 |
CN201410126592.1A Pending CN103927082A (zh) | 2006-12-04 | 2007-06-27 | 基于手势的用户界面方法和设备 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2007101268101A Pending CN101196793A (zh) | 2006-12-04 | 2007-06-27 | 基于手势的用户界面方法和设备 |
Country Status (4)
Country | Link |
---|---|
US (2) | US20080129686A1 (zh) |
EP (1) | EP1944683A1 (zh) |
KR (1) | KR101304461B1 (zh) |
CN (2) | CN101196793A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106125924A (zh) * | 2016-06-22 | 2016-11-16 | 北京博瑞爱飞科技发展有限公司 | 遥控方法、装置及系统 |
Families Citing this family (77)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008138046A1 (en) * | 2007-05-11 | 2008-11-20 | Rpo Pty Limited | Double touch inputs |
US20090136016A1 (en) * | 2007-11-08 | 2009-05-28 | Meelik Gornoi | Transferring a communication event |
WO2009120984A1 (en) | 2008-03-28 | 2009-10-01 | Kopin Corporation | Handheld wireless display device having high-resolution display suitable for use as a mobile internet device |
US8566717B2 (en) * | 2008-06-24 | 2013-10-22 | Microsoft Corporation | Rendering teaching animations on a user-interface display |
JP4957750B2 (ja) * | 2008-07-31 | 2012-06-20 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2010157039A (ja) * | 2008-12-26 | 2010-07-15 | Toshiba Corp | 電子機器、入力制御方法 |
JP5256109B2 (ja) | 2009-04-23 | 2013-08-07 | 株式会社日立製作所 | 表示装置 |
US9377857B2 (en) | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
EP2442214A4 (en) * | 2009-06-10 | 2015-05-20 | Nec Corp | ELECTRONIC DEVICE, GESTURE TREATMENT METHOD, AND GESTURE TREATMENT PROGRAM |
US8380225B2 (en) * | 2009-09-14 | 2013-02-19 | Microsoft Corporation | Content transfer involving a gesture |
CN102033684B (zh) * | 2009-09-30 | 2013-01-02 | 万达光电科技股份有限公司 | 触控面板的手势侦测方法 |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US20110126094A1 (en) * | 2009-11-24 | 2011-05-26 | Horodezky Samuel J | Method of modifying commands on a touch screen user interface |
KR20110088727A (ko) * | 2010-01-29 | 2011-08-04 | 삼성전자주식회사 | 휴대용 단말기에서 출력 이미지를 회전시키기 위한 장치 및 방법 |
US8638371B2 (en) * | 2010-02-12 | 2014-01-28 | Honeywell International Inc. | Method of manipulating assets shown on a touch-sensitive display |
US8570286B2 (en) * | 2010-02-12 | 2013-10-29 | Honeywell International Inc. | Gestures on a touch-sensitive display |
US20110199386A1 (en) * | 2010-02-12 | 2011-08-18 | Honeywell International Inc. | Overlay feature to provide user assistance in a multi-touch interactive display environment |
US8957866B2 (en) * | 2010-03-24 | 2015-02-17 | Microsoft Corporation | Multi-axis navigation |
US20110239149A1 (en) * | 2010-03-24 | 2011-09-29 | Microsoft Corporation | Timeline control |
EP2421252A1 (en) | 2010-08-17 | 2012-02-22 | LG Electronics | Display device and control method thereof |
KR101685529B1 (ko) * | 2010-08-20 | 2016-12-12 | 삼성전자주식회사 | 화면 구성 방법, 그 방법을 수행할 수 있는 유저 디바이스, 및 저장 매체 |
US10013976B2 (en) | 2010-09-20 | 2018-07-03 | Kopin Corporation | Context sensitive overlays in voice controlled headset computer displays |
US9122307B2 (en) * | 2010-09-20 | 2015-09-01 | Kopin Corporation | Advanced remote control of host application using motion and voice commands |
US9377862B2 (en) | 2010-09-20 | 2016-06-28 | Kopin Corporation | Searchlight navigation using headtracker to reveal hidden or extra document data |
US9316827B2 (en) | 2010-09-20 | 2016-04-19 | Kopin Corporation | LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking |
US9870141B2 (en) * | 2010-11-19 | 2018-01-16 | Microsoft Technology Licensing, Llc | Gesture recognition |
BR112013014287B1 (pt) * | 2010-12-30 | 2020-12-29 | Interdigital Ce Patent Holdings | Método e aparelho para reconhecimento de gesto |
TWI446236B (zh) * | 2011-01-04 | 2014-07-21 | Sentelic Corp | 電子裝置及其控制方法 |
CN102654815B (zh) * | 2011-03-01 | 2015-03-04 | 联想(北京)有限公司 | 电子设备和用于改变其对象的显示状态的方法 |
CN102681746B (zh) * | 2011-03-08 | 2016-08-03 | 腾讯科技(深圳)有限公司 | 一种操作手持设备中列表的方法及装置 |
CN102681703A (zh) * | 2011-03-10 | 2012-09-19 | 联咏科技股份有限公司 | 单指与多指手势判断方法、触控感应控制芯片及触控系统 |
JP2012194794A (ja) * | 2011-03-16 | 2012-10-11 | Fujitsu Ltd | 携帯端末及びコンテンツ表示プログラム |
US8836802B2 (en) | 2011-03-21 | 2014-09-16 | Honeywell International Inc. | Method of defining camera scan movements using gestures |
CN102694942B (zh) * | 2011-03-23 | 2015-07-15 | 株式会社东芝 | 图像处理装置、操作方法显示方法及画面显示方法 |
WO2012154938A1 (en) | 2011-05-10 | 2012-11-15 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
JP5000776B1 (ja) * | 2011-05-31 | 2012-08-15 | 楽天株式会社 | 情報提供システム、情報提供システムの制御方法、情報提供装置、プログラム、及び情報記憶媒体 |
CN105718192B (zh) * | 2011-06-07 | 2023-05-02 | 联想(北京)有限公司 | 移动终端及其触摸输入方法 |
KR101810884B1 (ko) * | 2011-06-07 | 2017-12-20 | 삼성전자주식회사 | 디바이스에서 제스처를 이용한 웹브라우저 인터페이스 제공 장치 및 방법 |
JP5545497B2 (ja) * | 2011-08-22 | 2014-07-09 | 富士ゼロックス株式会社 | 入力表示装置、画像形成装置、撮像装置、及びプログラム |
CN103176595B (zh) * | 2011-12-23 | 2016-01-27 | 联想(北京)有限公司 | 一种信息提示方法及系统 |
WO2013101438A1 (en) | 2011-12-29 | 2013-07-04 | Kopin Corporation | Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair |
KR102003267B1 (ko) * | 2011-12-30 | 2019-10-02 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
EP2648086A3 (en) * | 2012-04-07 | 2018-04-11 | Samsung Electronics Co., Ltd | Object control method performed in device including transparent display, the device, and computer readable recording medium thereof |
KR101692252B1 (ko) * | 2012-04-08 | 2017-01-04 | 삼성전자주식회사 | 플렉서블 디스플레이 장치 및 제어 방법 |
US9507772B2 (en) | 2012-04-25 | 2016-11-29 | Kopin Corporation | Instant translation system |
US9619036B2 (en) * | 2012-05-11 | 2017-04-11 | Comcast Cable Communications, Llc | System and methods for controlling a user experience |
US20140006944A1 (en) * | 2012-07-02 | 2014-01-02 | Microsoft Corporation | Visual UI Guide Triggered by User Actions |
CN103577029B (zh) * | 2012-07-27 | 2016-09-28 | 鸿富锦精密工业(武汉)有限公司 | 应用程序控制系统及方法 |
TWI475440B (zh) * | 2012-09-10 | 2015-03-01 | Elan Microelectronics Corp | 觸控裝置及其手勢判斷方法 |
JP5999579B2 (ja) * | 2012-09-19 | 2016-09-28 | ブラザー工業株式会社 | 電子機器及び操作端末の操作表示方法 |
CN103870176B (zh) * | 2012-12-11 | 2016-12-28 | 联想(北京)有限公司 | 一种控制方法及电子设备 |
US20140215382A1 (en) * | 2013-01-25 | 2014-07-31 | Agilent Technologies, Inc. | Method for Utilizing Projected Gesture Completion to Improve Instrument Performance |
US20140281964A1 (en) * | 2013-03-14 | 2014-09-18 | Maung Han | Method and system for presenting guidance of gesture input on a touch pad |
JP6043221B2 (ja) * | 2013-03-19 | 2016-12-14 | 株式会社Nttドコモ | 情報端末、操作領域制御方法及び操作領域制御プログラム |
KR20140138424A (ko) | 2013-05-23 | 2014-12-04 | 삼성전자주식회사 | 제스쳐를 이용한 사용자 인터페이스 방법 및 장치 |
USD746862S1 (en) * | 2013-06-12 | 2016-01-05 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with icon |
KR101511132B1 (ko) * | 2013-06-28 | 2015-04-10 | 고려대학교 산학협력단 | 문자 및 캐릭터 제공을 위한 정보 처리 장치 및 방법 |
US9612736B2 (en) * | 2013-07-17 | 2017-04-04 | Korea Advanced Institute Of Science And Technology | User interface method and apparatus using successive touches |
CN104423825A (zh) * | 2013-09-02 | 2015-03-18 | 联想(北京)有限公司 | 电子设备及其信息处理方法 |
US10466876B2 (en) * | 2014-04-17 | 2019-11-05 | Facebook, Inc. | Assisting a user of a software application |
KR102319530B1 (ko) | 2014-08-18 | 2021-10-29 | 삼성전자주식회사 | 사용자 입력 처리 방법 및 장치 |
US9535495B2 (en) | 2014-09-26 | 2017-01-03 | International Business Machines Corporation | Interacting with a display positioning system |
KR20160051081A (ko) * | 2014-10-31 | 2016-05-11 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
JP6387825B2 (ja) * | 2014-12-26 | 2018-09-12 | セイコーエプソン株式会社 | 表示システム、及び、情報表示方法 |
US20160196584A1 (en) * | 2015-01-06 | 2016-07-07 | Facebook, Inc. | Techniques for context sensitive overlays |
KR101650269B1 (ko) * | 2015-03-12 | 2016-08-22 | 라인 가부시키가이샤 | 화면 제어를 위한 효율적인 인터페이스를 제공하는 시스템 및 방법 |
CN104778000A (zh) * | 2015-03-20 | 2015-07-15 | 广东欧珀移动通信有限公司 | 方向标记显示方法及方向标记显示系统 |
US10881713B2 (en) * | 2015-10-28 | 2021-01-05 | Atheer, Inc. | Method and apparatus for interface control with prompt and feedback |
KR20170104819A (ko) * | 2016-03-08 | 2017-09-18 | 삼성전자주식회사 | 제스처를 가이드하는 전자 장치 및 그의 제스처 가이드 방법 |
CN108700999B (zh) * | 2016-04-29 | 2020-10-09 | 华为技术有限公司 | 一种用户界面显示方法及终端 |
US20180090027A1 (en) * | 2016-09-23 | 2018-03-29 | Apple Inc. | Interactive tutorial support for input options at computing devices |
JP6879454B2 (ja) * | 2017-01-19 | 2021-06-02 | セイコーエプソン株式会社 | 電子機器 |
US10671602B2 (en) | 2017-05-09 | 2020-06-02 | Microsoft Technology Licensing, Llc | Random factoid generation |
CN108520228A (zh) * | 2018-03-30 | 2018-09-11 | 百度在线网络技术(北京)有限公司 | 手势匹配方法及装置 |
US11150923B2 (en) * | 2019-09-16 | 2021-10-19 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for providing manual thereof |
KR20210101858A (ko) * | 2020-02-11 | 2021-08-19 | 삼성전자주식회사 | 제스처 인식 기반의 기능 운용 방법 및 이를 지원하는 전자 장치 |
KR20210138923A (ko) * | 2020-05-13 | 2021-11-22 | 삼성전자주식회사 | 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4988981B1 (en) * | 1987-03-17 | 1999-05-18 | Vpl Newco Inc | Computer data entry and manipulation apparatus and method |
US5252951A (en) * | 1989-04-28 | 1993-10-12 | International Business Machines Corporation | Graphical user interface with gesture recognition in a multiapplication environment |
US5481278A (en) * | 1992-10-21 | 1996-01-02 | Sharp Kabushiki Kaisha | Information processing apparatus |
US5612719A (en) * | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
JPH06242885A (ja) * | 1993-02-16 | 1994-09-02 | Hitachi Ltd | 文書編集方法 |
US5745116A (en) * | 1996-09-09 | 1998-04-28 | Motorola, Inc. | Intuitive gesture-based graphical user interface |
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US7840912B2 (en) * | 2006-01-30 | 2010-11-23 | Apple Inc. | Multi-touch gesture dictionary |
US6681031B2 (en) * | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
EP1148411A3 (en) * | 2000-04-21 | 2005-09-14 | Sony Corporation | Information processing apparatus and method for recognising user gesture |
GB0204652D0 (en) * | 2002-02-28 | 2002-04-10 | Koninkl Philips Electronics Nv | A method of providing a display gor a gui |
GB2386707B (en) * | 2002-03-16 | 2005-11-23 | Hewlett Packard Co | Display and touch screen |
JP2003323259A (ja) * | 2002-05-02 | 2003-11-14 | Nec Corp | 情報処理装置 |
US7656393B2 (en) * | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
WO2004047440A2 (en) * | 2002-11-18 | 2004-06-03 | United Video Properties, Inc. | Systems and methods for providing real-time services in an interactive television program guide application |
US7665041B2 (en) * | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US20050091604A1 (en) * | 2003-10-22 | 2005-04-28 | Scott Davis | Systems and methods that track a user-identified point of focus |
US7358965B2 (en) * | 2004-02-18 | 2008-04-15 | Microsoft Corporation | Tapping to create writing |
US7173604B2 (en) * | 2004-03-23 | 2007-02-06 | Fujitsu Limited | Gesture identification of controlled devices |
JP4855654B2 (ja) * | 2004-05-31 | 2012-01-18 | ソニー株式会社 | 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体 |
US20060007176A1 (en) * | 2004-07-06 | 2006-01-12 | Chung-Yi Shen | Input method and control module defined with an initial position and moving directions and electronic product thereof |
US7653883B2 (en) * | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US20060181519A1 (en) * | 2005-02-14 | 2006-08-17 | Vernier Frederic D | Method and system for manipulating graphical objects displayed on a touch-sensitive display surface using displaced pop-ups |
US7477233B2 (en) * | 2005-03-16 | 2009-01-13 | Microsoft Corporation | Method and system for providing modifier key behavior through pen gestures |
US7487461B2 (en) * | 2005-05-04 | 2009-02-03 | International Business Machines Corporation | System and method for issuing commands based on pen motions on a graphical keyboard |
KR100597798B1 (ko) * | 2005-05-12 | 2006-07-10 | 삼성전자주식회사 | 휴대용 단말기에서 동작인식을 위한 정보를 사용자에게제공하기 방법 |
JP2009522669A (ja) * | 2005-12-30 | 2009-06-11 | アップル インコーポレイテッド | マルチタッチ入力を備えた携帯電子装置 |
US9311528B2 (en) * | 2007-01-03 | 2016-04-12 | Apple Inc. | Gesture learning |
-
2006
- 2006-12-04 KR KR1020060121784A patent/KR101304461B1/ko active IP Right Grant
-
2007
- 2007-05-03 US US11/743,701 patent/US20080129686A1/en not_active Abandoned
- 2007-06-22 EP EP07110839A patent/EP1944683A1/en not_active Withdrawn
- 2007-06-27 CN CNA2007101268101A patent/CN101196793A/zh active Pending
- 2007-06-27 CN CN201410126592.1A patent/CN103927082A/zh active Pending
-
2014
- 2014-04-09 US US14/249,019 patent/US20140223299A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106125924A (zh) * | 2016-06-22 | 2016-11-16 | 北京博瑞爱飞科技发展有限公司 | 遥控方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20140223299A1 (en) | 2014-08-07 |
CN101196793A (zh) | 2008-06-11 |
KR20080050895A (ko) | 2008-06-10 |
US20080129686A1 (en) | 2008-06-05 |
KR101304461B1 (ko) | 2013-09-04 |
EP1944683A1 (en) | 2008-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103927082A (zh) | 基于手势的用户界面方法和设备 | |
TWI552040B (zh) | 多區域觸控板 | |
US20080134078A1 (en) | Scrolling method and apparatus | |
EP3736675B1 (en) | Method for performing operation on touchscreen and terminal | |
US20110069018A1 (en) | Double Touch Inputs | |
US20110060986A1 (en) | Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same | |
EP2256614A1 (en) | Display control apparatus, display control method, and computer program | |
US20110283212A1 (en) | User Interface | |
KR101636665B1 (ko) | 프로그래머블 표시기 및 그 화면 조작 처리 프로그램 | |
CN102272699A (zh) | 手势检测分区 | |
EP1969450A1 (en) | Mobile device and operation method control available for using touch and drag | |
KR20140112296A (ko) | 다중 터치에 대응하는 기능을 처리하기 위한 방법 및 그 전자 장치 | |
KR20080066416A (ko) | 터치 스크린을 갖는 이동 단말기의 사용자 인터페이스 방법 | |
US20150169122A1 (en) | Method for operating a multi-touch-capable display and device having a multi-touch-capable display | |
CN104423836A (zh) | 信息处理装置 | |
KR20100028465A (ko) | 포인터의 드래그 방향에 따른 문자 또는 메뉴입력 방법 | |
JP5605911B2 (ja) | タッチスクリーンデバイスの制御装置、その制御方法及びプログラム | |
US20140298275A1 (en) | Method for recognizing input gestures | |
CN104063154A (zh) | 信息处理装置及其控制方法 | |
KR101442438B1 (ko) | 듀얼 터치 경험 필드를 달성하기 위한 싱글 터치 프로세스 | |
KR20140067861A (ko) | 터치 스크린 디스플레이 상에서의 객체 스크롤 방법 및 장치 | |
KR20160044194A (ko) | 터치 스크린을 구비하는 전자기기 상의 복수객체에서 객체를 선택하는 방법 및 장치 | |
CN102789358A (zh) | 图像输出显示方法、装置以及一种显示设备 | |
US20100309125A1 (en) | Button To Change Modes of a Pointing Device | |
KR20140070264A (ko) | 터치 스크린 디스플레이 입력을 통한 객체 스크롤 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140716 |
|
WD01 | Invention patent application deemed withdrawn after publication |