CN103927082A - 基于手势的用户界面方法和设备 - Google Patents

基于手势的用户界面方法和设备 Download PDF

Info

Publication number
CN103927082A
CN103927082A CN201410126592.1A CN201410126592A CN103927082A CN 103927082 A CN103927082 A CN 103927082A CN 201410126592 A CN201410126592 A CN 201410126592A CN 103927082 A CN103927082 A CN 103927082A
Authority
CN
China
Prior art keywords
input
gesture
guide
image
touch display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410126592.1A
Other languages
English (en)
Inventor
韩相俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN103927082A publication Critical patent/CN103927082A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种基于手势的用户界面方法和设备以改进基于手势的用户界面的操作的便利性。该基于手势的用户界面方法包括:检测输入位置,确定在检测的位置可能输入的至少一个手势,以及在屏幕上显示与确定的至少一个手势对应的至少一个向导。

Description

基于手势的用户界面方法和设备
本申请是申请日为2007年6月27日,申请号为“200710126810.1”,标题为“基于手势的用户界面方法和设备”的发明专利申请的分案申请。
技术领域
与本发明一致的装置和方法涉及一种用户界面,更具体地说,涉及一种基于手势(gesture-based)的用户界面设备和方法以改进用户界面的操作的便利性。
背景技术
基于手势的界面通常通过用户界面中使用的隐喻(metaphor)或帮助项目来提供必须由用户输入的手势的向导。然而,使用这种向导,缺乏经验的用户可能在操作基于手势的用户界面时重复错误直到他们记住手势。
发明内容
本发明提供一种基于手势的用户界面方法和设备,使得用户更容易使用基于手势的用户界面,并提供一种计算机可读记录介质,在其上记录用于实施所述基于手势的用户界面方法的程序。
根据本发明的一方面,提供一种基于手势的用户界面方法,包括:检测输入位置,确定至少一个可以在检测的位置输入的手势,以及在屏幕上显示与确定的至少一个手势对应的至少一个向导。
输入位置的检测的步骤可包括:使用基于触摸的输入装置在预定的时间间隔检测触摸的位置。
基于手势的用户界面方法还可包括:将屏幕虚拟地划分为至少一个区域,并为所述至少一个区域中的每一个分配可以输入的至少一个手势。
在屏幕上显示至少一个向导的步骤可包括:将介绍确定的至少一个手势的至少一个图像确定作为将要在屏幕上显示的向导。
基于手势的用户界面方法还可包括:根据输入位置的改变而改变屏幕上显示的至少一个向导。
基于手势的用户界面方法还可包括:如果没有继续检测到输入位置,则从屏幕移除显示的至少一个向导。
根据本发明的另一方面,提供一种基于手势的用户界面设备,包括:手势输入单元、手势处理单元和中央处理单元。手势输入单元检测输入位置。手势处理单元确定至少一个在检测的位置可能输入的手势。中央处理单元从存储单元读取与确定的至少一个手势对应的至少一个向导,并在屏幕上显示读取的向导。
附图说明
通过下面参照附图对示例性实施例的详细描述,本发明的上述和其他特征和方面将会变得更加清楚,其中:
图1是根据本发明的示例性实施例的基于手势的用户界面设备的框图;
图2是根据本发明的示例性实施例的基于手势的用户界面方法的流程图;
图3是根据本发明的另一示例性实施例的基于手势的用户界面的流程图;
图4示出根据本发明的示例性实施例的向导图像和手势之间的关系;
图5示出根据本发明的示例性实施例被虚拟划分的屏幕的示例;
图6示出根据本发明的示例性实施例被虚拟划分的屏幕的另一示例;
图7示出根据本发明的示例性实施例在屏幕上显示的向导图像的示例;
图8示出根据本发明的示例性实施例在屏幕上显示的向导图像的另一示例;
图9示出根据本发明的示例性实施例在屏幕上显示的两个向导图像的示例;
图10示出根据本发明的示例性实施例在屏幕上显示的向导图像的另一示例;和
图11示出根据图10中示出的屏幕中的输入位置的改变而改变的向导图像的示例。
具体实施方式
以下,将参照附图来详细描述本发明的示例性实施例。
图1是根据本发明的示例性实施例的基于手势的用户界面设备的框图。
参照图1,基于手势的用户界面设备包括:手势输入单元101,输入来自用户的手势;存储单元103;显示单元106;手势处理单元102,识别通过手势输入单元101输入的手势,从而确定与该手势对应的操作,并预测手势可以被输入或者在由手势输入单元101检测的输入位置是有效的;和中央处理单元105,执行由手势输入单元101确定的操作,并从存储单元103读取与预测的手势对应的向导图像104,从而在显示单元106上显示该向导图像。将参照图2到图11描述这些元件的细节。
图2是根据本发明的示例性实施例的基于手势的用户界面方法的流程图。
参照图2,在操作202,如果有来自用户的输入,则手势输入单元101检测用户的输入位置。手势输入单元101可以是用于在预定的时间间隔检测用户的触摸位置的基于触摸的输入装置(例如触摸屏或触摸板),但是也可以是其他类型的输入装置(例如鼠标装置),但不限于此。在操作204,手势处理单元102确定在检测的输入位置中可能输入的手势。换句话说,如果用户开始手势输入操作,则手势处理单元102基于用户输入位置预测用户想要做出的手势。中央处理单元105将介绍由手势处理单元102预测的手势的向导重叠在显示单元106上。可以图像的形式显示向导,并从存储与手势对应的向导图像104的存储单元103读取向导。
图3是根据本发明的另一示例性实施例的基于手势的用户界面方法的流程图,其中使用触摸屏作为手势输入单元101。
参照图3,手势输入单元101检测由用户的手指或记录笔触摸的坐标。在操作302,这些坐标将在下文中被称为触摸坐标。当用户首先触摸触摸屏时,手势处理单元102确定在包括触摸坐标的区域中可用的手势。在操作304,中央处理单元105选择用于确定的手势的向导。在操作306,在触摸坐标周围显示与选择的向导对应的图像,在下文中将其称为向导图像。在操作308,在用户与屏幕接触时一旦移动,(即,用户拖动手指或记录笔),为了改变触摸坐标,在操作310,手势输入单元101继续检测改变的触摸坐标。在操作312,中央处理单元105也根据移动的触摸坐标改变向导图像,并在屏幕上显示改变的向导图像。在操作314,如果用户从屏幕移开手指或记录笔并因此不再检测到触摸坐标,则从屏幕移除向导图像。
图4示出根据本发明的示例性实施例的向导图像和手势之间的关系,其中示出可以输入的手势和可以显示的用于手势的向导图像。
参照图4,如果预测是手势“顺时针旋转”,则显示与预测的手势对应的顺时针旋转图像402。如果预测是手势“逆时针旋转”,则显示逆时针旋转图像404。如果预测是手势“形成向右的直线”,则显示向右的箭头图像406。如果预测是手势“形成向左的直线”,则显示向左的箭头图像408。如果预测是手势“形成向上的直线”,则显示向上的箭头图像410。如果预测是“形成向下的直线”,则显示向下的箭头图像412。这些手势可以实现向上滚动功能、向下滚动功能、回车功能、后退功能、提高音量功能和降低音量功能。然而,对于本领域的技术人员很明显,与其对应的这些手势和向导图像只是示例,并且可以改变示例性实施例。
根据本发明的示例性实施例,为了根据检测的输入位置确定可以由用户输入的手势,手势处理单元102可以将屏幕虚拟地划分为至少一个区域并为该区域分配至少一个可用手势。换句话说,包括确定用户首先触摸的坐标所在的区域来执行手势输入操作,并在触摸坐标的周围显示与在确定的区域中被预测为可用的手势对应的向导。
图5示出根据本发明的示例性实施例被虚拟划分的屏幕的示例。
参照图5,将屏幕划分为第一区域501到第三区域503。将与其对应的有效手势和向导图像分配给第一区域501到第三区域503中的每一个。例如,可以将手势“形成向右的直线”分配给第一区域501,并且当用户首先触摸第一区域501来执行手势输入操作时,可以将向右的箭头图像406显示作为输入手势的向导。可以将手势“旋转”分配给第二区域502,并且当用户首先触摸第二区域502来执行手势输入操作时,可以将顺时针旋转图像402或逆时针旋转图像404显示作为输入手势的向导。可选择地,在显示不具有方向性的圆圈图像作为向导之后,可以根据用户的拖动方向将向导图像更新为顺时针旋转图像402或者逆时针旋转图像404。可以将手势“形成向右直线”分配给第三区域503,并且当用户首先触摸第三区域503来执行手势输入时,可以显示向左的箭头图像408。
图6示出根据本发明的示例性实施例被虚拟划分的屏幕的另一示例。
参照图6,屏幕被划分为第一区域601到第八区域608。将与其对应的有效手势和向导图像分配给第一区域601到第八区域608中的每一个。例如,可以将手势“形成向下的直线”和向下箭头图像412分配给第一区域601;可以将手势“形成向右的直线”和向右箭头图像406分配给第二区域602;可以将手势“形成向上的直线”和向上箭头图像410分配给第三区域603;可以将手势“逆时针旋转”和逆时针旋转图像404分配给第四区域604;可以将手势“顺时针旋转”和顺时针旋转图像402分配给第五区域605;可以将手势“形成向左的直线”和向左箭头图像408分配给第六区域606;可以将手势“形成向左的直线”和向左箭头图像408分配给第七区域607;可以将手势“形成向上的直线”和向上箭头图像410分配给第八区域608。
图7到图11示出本发明的示例性实施例应用到移动装置的内容搜索。
图7示出根据本发明的示例性实施例在屏幕上显示的向导图像的示例,其中如图5所示屏幕被划分为第一区域501到第三区域503。由于用户输入或触摸的位置701与第二区域502对应,所以显示与滚动功能对应的向导图像702。在本发明的当前示例性实施例中,向导还指示与手势“顺时针旋转”对应的功能是“SCROLL”,因此用户可以立即检查是否正确输入其期望的手势。
图8示出根据本发明的示例性实施例在屏幕上显示的向导图像的另一示例,其中与图5总示出的第三区域503对应的位置801被触摸。在这种情况下,显示介绍手势“形成向左的直线”的向导图像802。
也可以将多个手势分配给一个区域。在这种情况下,将多个向导图像分配给一个区域。图9示出根据本发明的示例性实施例在屏幕上显示的两个向导图像的示例,其中将两个手势“形成向左的直线”和“形成向上的直线”分配给包括第一触摸位置901的区域。在这种情况下,当用户对位置901的进行触摸时显示两个向导图像902和903。因此,用户可以选择与期望的功能对应的手势,并根据与选择的手势对应的向导图像输入手势。
图10示出根据本发明的示例性实施例在屏幕上显示的向导图像的另一示例。如果用户首先触摸包括在屏幕中心的第一位置1001,则与手势“旋转”对应的缓进-往复(jog-shuttle)控制器向导图像1002和滚动功能在显示内容列表的屏幕上重叠。向导图像1002包括指示缓进-往复控制器的旋转量的图像1003。
图11示出根据图10中示出的屏幕中的输入位置的改变而改变的向导图像的示例。一旦用户从第一位置1001拖动到第二位置1102,缓进-往复控制器也旋转,指示旋转量的图像1003的位置也被改变。
例如,可以通过计算机可读记录介质上的计算机可读的代码来实施根据本发明的基于手势的用户界面方法。
如上所述,根据本发明的一方面,当用户开始手势输入操作时,在屏幕上显示对可用手势的向导,从而使用户更容易熟悉基于手势的用户界面。
虽然已经参照本发明的示例性实施例对其进行具体地显示和描述,但是本领域的技术人员将理解,在不脱离权利要求限定的本发明的精神和范围的情况下可以在形式和细节上做出各种改变。

Claims (12)

1.一种基于手势的用户界面方法,包括:
在触摸显示屏上显示图像;
接收触摸显示屏上的触摸输入;
响应于触摸输入,在显示在触摸显示屏上的图像上的与触摸输入相应的位置处,重叠地显示多个向导图像,所述多个向导图像的每一个与能够对显示在触摸显示屏上的图像执行的功能相关联;
接收与显示在触摸显示屏上的所述多个向导图像中的一个相应的拖动输入;
响应于拖动输入,执行与所述多个向导图像中的一个相关联的功能,并根据执行的功能改变显示在触摸显示屏上的图像;
在拖动输入期间根据输入位置的改变来改变所述多个向导图像中的一个;
当拖动输入结束时移除所述多个向导图像。
2.如权利要求1所述的基于手势的用户界面方法,其中,所述多个向导图像中的一个包括指示与所述多个向导图像中的一个相关联的功能的文本。
3.如权利要求1所述的基于手势的用户界面方法,其中,所述多个向导图像中的一个包括箭头向导。
4.一种基于手势的用户界面设备,包括:
输入装置,被配置为接收触摸显示屏上的触摸输入和拖动输入;
处理器,被配置为在触摸显示屏上显示图像;响应于触摸输入,在显示在触摸显示屏上的图像上的与触摸输入相应的位置处,重叠地显示多个向导图像,所述多个向导图像的每一个与能够对显示在触摸显示屏上的图像执行的功能相关联;响应于与显示在触摸显示屏上的所述多个向导图像中的一个相应的拖动输入,执行与所述多个向导图像中的一个相关联的功能,并根据执行的功能改变显示在触摸显示屏上的图像;在拖动输入期间根据输入位置的改变来改变所述多个向导图像中的一个;当拖动输入结束时移除所述多个向导图像。
5.如权利要求4所述的基于手势的用户界面设备,其中,所述多个向导图像中的一个包括指示与所述多个向导图像中的一个相关联的功能的文本。
6.如权利要求4所述的基于手势的用户界面设备,其中,所述多个向导图像中的一个包括箭头向导。
7.一种基于手势的用户界面方法,包括:
在触摸显示屏上显示图像;
接收触摸显示屏上的触摸输入;
通过将多个向导图像覆盖在显示在触摸显示屏上的图像上,在与触摸输入相应的多个位置处,显示所述多个向导图像;
接收拖动输入;
检测拖动输入的坐标;
基于拖动输入的坐标,执行与所述多个向导图像中的一个相应的功能,并根据该功能改变显示在触摸显示屏上的图像;
在拖动输入期间根据输入位置的改变来改变所述多个向导图像中的一个;
响应于完成拖动输入移除所述多个向导图像。
8.如权利要求7所述的基于手势的用户界面方法,其中,所述多个向导图像中的一个包括指示与所述多个向导图像中的一个相关联的功能的文本。
9.如权利要求7所述的基于手势的用户界面方法,其中,所述多个向导图像中的一个包括箭头向导。
10.一种基于手势的用户界面设备,包括:
触摸显示器,被配置为接收触摸输入和拖动输入,并显示图像;
处理器,被配置为:
控制触摸显示器显示图像,响应于触摸输入,通过将多个向导图像覆盖在显示在触摸显示屏上的图像上,在与触摸输入相应的多个位置处,显示所述多个向导图像;
检测拖动输入的坐标,基于拖动输入的坐标,执行与所述多个向导图像中的一个相应的功能,并根据执行的功能改变显示在触摸显示屏上的图像;
在拖动输入期间根据输入位置的改变来改变所述多个向导图像中的一个;
响应于完成拖动输入移除所述多个向导图像。
11.如权利要求10所述的基于手势的用户界面设备,其中,所述多个向导图像中的一个包括指示与所述多个向导图像中的一个相关联的功能的文本。
12.如权利要求10所述的基于手势的用户界面设备,其中,所述多个向导图像中的一个包括箭头向导。
CN201410126592.1A 2006-12-04 2007-06-27 基于手势的用户界面方法和设备 Pending CN103927082A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2006-0121784 2006-12-04
KR1020060121784A KR101304461B1 (ko) 2006-12-04 2006-12-04 제스처 기반 사용자 인터페이스 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CNA2007101268101A Division CN101196793A (zh) 2006-12-04 2007-06-27 基于手势的用户界面方法和设备

Publications (1)

Publication Number Publication Date
CN103927082A true CN103927082A (zh) 2014-07-16

Family

ID=39420350

Family Applications (2)

Application Number Title Priority Date Filing Date
CNA2007101268101A Pending CN101196793A (zh) 2006-12-04 2007-06-27 基于手势的用户界面方法和设备
CN201410126592.1A Pending CN103927082A (zh) 2006-12-04 2007-06-27 基于手势的用户界面方法和设备

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CNA2007101268101A Pending CN101196793A (zh) 2006-12-04 2007-06-27 基于手势的用户界面方法和设备

Country Status (4)

Country Link
US (2) US20080129686A1 (zh)
EP (1) EP1944683A1 (zh)
KR (1) KR101304461B1 (zh)
CN (2) CN101196793A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106125924A (zh) * 2016-06-22 2016-11-16 北京博瑞爱飞科技发展有限公司 遥控方法、装置及系统

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008138046A1 (en) * 2007-05-11 2008-11-20 Rpo Pty Limited Double touch inputs
US20090136016A1 (en) * 2007-11-08 2009-05-28 Meelik Gornoi Transferring a communication event
WO2009120984A1 (en) 2008-03-28 2009-10-01 Kopin Corporation Handheld wireless display device having high-resolution display suitable for use as a mobile internet device
US8566717B2 (en) * 2008-06-24 2013-10-22 Microsoft Corporation Rendering teaching animations on a user-interface display
JP4957750B2 (ja) * 2008-07-31 2012-06-20 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2010157039A (ja) * 2008-12-26 2010-07-15 Toshiba Corp 電子機器、入力制御方法
JP5256109B2 (ja) 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
EP2442214A4 (en) * 2009-06-10 2015-05-20 Nec Corp ELECTRONIC DEVICE, GESTURE TREATMENT METHOD, AND GESTURE TREATMENT PROGRAM
US8380225B2 (en) * 2009-09-14 2013-02-19 Microsoft Corporation Content transfer involving a gesture
CN102033684B (zh) * 2009-09-30 2013-01-02 万达光电科技股份有限公司 触控面板的手势侦测方法
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US20110126094A1 (en) * 2009-11-24 2011-05-26 Horodezky Samuel J Method of modifying commands on a touch screen user interface
KR20110088727A (ko) * 2010-01-29 2011-08-04 삼성전자주식회사 휴대용 단말기에서 출력 이미지를 회전시키기 위한 장치 및 방법
US8638371B2 (en) * 2010-02-12 2014-01-28 Honeywell International Inc. Method of manipulating assets shown on a touch-sensitive display
US8570286B2 (en) * 2010-02-12 2013-10-29 Honeywell International Inc. Gestures on a touch-sensitive display
US20110199386A1 (en) * 2010-02-12 2011-08-18 Honeywell International Inc. Overlay feature to provide user assistance in a multi-touch interactive display environment
US8957866B2 (en) * 2010-03-24 2015-02-17 Microsoft Corporation Multi-axis navigation
US20110239149A1 (en) * 2010-03-24 2011-09-29 Microsoft Corporation Timeline control
EP2421252A1 (en) 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
KR101685529B1 (ko) * 2010-08-20 2016-12-12 삼성전자주식회사 화면 구성 방법, 그 방법을 수행할 수 있는 유저 디바이스, 및 저장 매체
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US9122307B2 (en) * 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
US9377862B2 (en) 2010-09-20 2016-06-28 Kopin Corporation Searchlight navigation using headtracker to reveal hidden or extra document data
US9316827B2 (en) 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US9870141B2 (en) * 2010-11-19 2018-01-16 Microsoft Technology Licensing, Llc Gesture recognition
BR112013014287B1 (pt) * 2010-12-30 2020-12-29 Interdigital Ce Patent Holdings Método e aparelho para reconhecimento de gesto
TWI446236B (zh) * 2011-01-04 2014-07-21 Sentelic Corp 電子裝置及其控制方法
CN102654815B (zh) * 2011-03-01 2015-03-04 联想(北京)有限公司 电子设备和用于改变其对象的显示状态的方法
CN102681746B (zh) * 2011-03-08 2016-08-03 腾讯科技(深圳)有限公司 一种操作手持设备中列表的方法及装置
CN102681703A (zh) * 2011-03-10 2012-09-19 联咏科技股份有限公司 单指与多指手势判断方法、触控感应控制芯片及触控系统
JP2012194794A (ja) * 2011-03-16 2012-10-11 Fujitsu Ltd 携帯端末及びコンテンツ表示プログラム
US8836802B2 (en) 2011-03-21 2014-09-16 Honeywell International Inc. Method of defining camera scan movements using gestures
CN102694942B (zh) * 2011-03-23 2015-07-15 株式会社东芝 图像处理装置、操作方法显示方法及画面显示方法
WO2012154938A1 (en) 2011-05-10 2012-11-15 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
JP5000776B1 (ja) * 2011-05-31 2012-08-15 楽天株式会社 情報提供システム、情報提供システムの制御方法、情報提供装置、プログラム、及び情報記憶媒体
CN105718192B (zh) * 2011-06-07 2023-05-02 联想(北京)有限公司 移动终端及其触摸输入方法
KR101810884B1 (ko) * 2011-06-07 2017-12-20 삼성전자주식회사 디바이스에서 제스처를 이용한 웹브라우저 인터페이스 제공 장치 및 방법
JP5545497B2 (ja) * 2011-08-22 2014-07-09 富士ゼロックス株式会社 入力表示装置、画像形成装置、撮像装置、及びプログラム
CN103176595B (zh) * 2011-12-23 2016-01-27 联想(北京)有限公司 一种信息提示方法及系统
WO2013101438A1 (en) 2011-12-29 2013-07-04 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
KR102003267B1 (ko) * 2011-12-30 2019-10-02 삼성전자주식회사 전자 장치 및 그의 제어 방법
EP2648086A3 (en) * 2012-04-07 2018-04-11 Samsung Electronics Co., Ltd Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
KR101692252B1 (ko) * 2012-04-08 2017-01-04 삼성전자주식회사 플렉서블 디스플레이 장치 및 제어 방법
US9507772B2 (en) 2012-04-25 2016-11-29 Kopin Corporation Instant translation system
US9619036B2 (en) * 2012-05-11 2017-04-11 Comcast Cable Communications, Llc System and methods for controlling a user experience
US20140006944A1 (en) * 2012-07-02 2014-01-02 Microsoft Corporation Visual UI Guide Triggered by User Actions
CN103577029B (zh) * 2012-07-27 2016-09-28 鸿富锦精密工业(武汉)有限公司 应用程序控制系统及方法
TWI475440B (zh) * 2012-09-10 2015-03-01 Elan Microelectronics Corp 觸控裝置及其手勢判斷方法
JP5999579B2 (ja) * 2012-09-19 2016-09-28 ブラザー工業株式会社 電子機器及び操作端末の操作表示方法
CN103870176B (zh) * 2012-12-11 2016-12-28 联想(北京)有限公司 一种控制方法及电子设备
US20140215382A1 (en) * 2013-01-25 2014-07-31 Agilent Technologies, Inc. Method for Utilizing Projected Gesture Completion to Improve Instrument Performance
US20140281964A1 (en) * 2013-03-14 2014-09-18 Maung Han Method and system for presenting guidance of gesture input on a touch pad
JP6043221B2 (ja) * 2013-03-19 2016-12-14 株式会社Nttドコモ 情報端末、操作領域制御方法及び操作領域制御プログラム
KR20140138424A (ko) 2013-05-23 2014-12-04 삼성전자주식회사 제스쳐를 이용한 사용자 인터페이스 방법 및 장치
USD746862S1 (en) * 2013-06-12 2016-01-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
KR101511132B1 (ko) * 2013-06-28 2015-04-10 고려대학교 산학협력단 문자 및 캐릭터 제공을 위한 정보 처리 장치 및 방법
US9612736B2 (en) * 2013-07-17 2017-04-04 Korea Advanced Institute Of Science And Technology User interface method and apparatus using successive touches
CN104423825A (zh) * 2013-09-02 2015-03-18 联想(北京)有限公司 电子设备及其信息处理方法
US10466876B2 (en) * 2014-04-17 2019-11-05 Facebook, Inc. Assisting a user of a software application
KR102319530B1 (ko) 2014-08-18 2021-10-29 삼성전자주식회사 사용자 입력 처리 방법 및 장치
US9535495B2 (en) 2014-09-26 2017-01-03 International Business Machines Corporation Interacting with a display positioning system
KR20160051081A (ko) * 2014-10-31 2016-05-11 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP6387825B2 (ja) * 2014-12-26 2018-09-12 セイコーエプソン株式会社 表示システム、及び、情報表示方法
US20160196584A1 (en) * 2015-01-06 2016-07-07 Facebook, Inc. Techniques for context sensitive overlays
KR101650269B1 (ko) * 2015-03-12 2016-08-22 라인 가부시키가이샤 화면 제어를 위한 효율적인 인터페이스를 제공하는 시스템 및 방법
CN104778000A (zh) * 2015-03-20 2015-07-15 广东欧珀移动通信有限公司 方向标记显示方法及方向标记显示系统
US10881713B2 (en) * 2015-10-28 2021-01-05 Atheer, Inc. Method and apparatus for interface control with prompt and feedback
KR20170104819A (ko) * 2016-03-08 2017-09-18 삼성전자주식회사 제스처를 가이드하는 전자 장치 및 그의 제스처 가이드 방법
CN108700999B (zh) * 2016-04-29 2020-10-09 华为技术有限公司 一种用户界面显示方法及终端
US20180090027A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Interactive tutorial support for input options at computing devices
JP6879454B2 (ja) * 2017-01-19 2021-06-02 セイコーエプソン株式会社 電子機器
US10671602B2 (en) 2017-05-09 2020-06-02 Microsoft Technology Licensing, Llc Random factoid generation
CN108520228A (zh) * 2018-03-30 2018-09-11 百度在线网络技术(北京)有限公司 手势匹配方法及装置
US11150923B2 (en) * 2019-09-16 2021-10-19 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing manual thereof
KR20210101858A (ko) * 2020-02-11 2021-08-19 삼성전자주식회사 제스처 인식 기반의 기능 운용 방법 및 이를 지원하는 전자 장치
KR20210138923A (ko) * 2020-05-13 2021-11-22 삼성전자주식회사 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
US5481278A (en) * 1992-10-21 1996-01-02 Sharp Kabushiki Kaisha Information processing apparatus
US5612719A (en) * 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
JPH06242885A (ja) * 1993-02-16 1994-09-02 Hitachi Ltd 文書編集方法
US5745116A (en) * 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
EP1148411A3 (en) * 2000-04-21 2005-09-14 Sony Corporation Information processing apparatus and method for recognising user gesture
GB0204652D0 (en) * 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
GB2386707B (en) * 2002-03-16 2005-11-23 Hewlett Packard Co Display and touch screen
JP2003323259A (ja) * 2002-05-02 2003-11-14 Nec Corp 情報処理装置
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
WO2004047440A2 (en) * 2002-11-18 2004-06-03 United Video Properties, Inc. Systems and methods for providing real-time services in an interactive television program guide application
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050091604A1 (en) * 2003-10-22 2005-04-28 Scott Davis Systems and methods that track a user-identified point of focus
US7358965B2 (en) * 2004-02-18 2008-04-15 Microsoft Corporation Tapping to create writing
US7173604B2 (en) * 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
JP4855654B2 (ja) * 2004-05-31 2012-01-18 ソニー株式会社 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
US20060007176A1 (en) * 2004-07-06 2006-01-12 Chung-Yi Shen Input method and control module defined with an initial position and moving directions and electronic product thereof
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US20060181519A1 (en) * 2005-02-14 2006-08-17 Vernier Frederic D Method and system for manipulating graphical objects displayed on a touch-sensitive display surface using displaced pop-ups
US7477233B2 (en) * 2005-03-16 2009-01-13 Microsoft Corporation Method and system for providing modifier key behavior through pen gestures
US7487461B2 (en) * 2005-05-04 2009-02-03 International Business Machines Corporation System and method for issuing commands based on pen motions on a graphical keyboard
KR100597798B1 (ko) * 2005-05-12 2006-07-10 삼성전자주식회사 휴대용 단말기에서 동작인식을 위한 정보를 사용자에게제공하기 방법
JP2009522669A (ja) * 2005-12-30 2009-06-11 アップル インコーポレイテッド マルチタッチ入力を備えた携帯電子装置
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106125924A (zh) * 2016-06-22 2016-11-16 北京博瑞爱飞科技发展有限公司 遥控方法、装置及系统

Also Published As

Publication number Publication date
US20140223299A1 (en) 2014-08-07
CN101196793A (zh) 2008-06-11
KR20080050895A (ko) 2008-06-10
US20080129686A1 (en) 2008-06-05
KR101304461B1 (ko) 2013-09-04
EP1944683A1 (en) 2008-07-16

Similar Documents

Publication Publication Date Title
CN103927082A (zh) 基于手势的用户界面方法和设备
TWI552040B (zh) 多區域觸控板
US20080134078A1 (en) Scrolling method and apparatus
EP3736675B1 (en) Method for performing operation on touchscreen and terminal
US20110069018A1 (en) Double Touch Inputs
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
EP2256614A1 (en) Display control apparatus, display control method, and computer program
US20110283212A1 (en) User Interface
KR101636665B1 (ko) 프로그래머블 표시기 및 그 화면 조작 처리 프로그램
CN102272699A (zh) 手势检测分区
EP1969450A1 (en) Mobile device and operation method control available for using touch and drag
KR20140112296A (ko) 다중 터치에 대응하는 기능을 처리하기 위한 방법 및 그 전자 장치
KR20080066416A (ko) 터치 스크린을 갖는 이동 단말기의 사용자 인터페이스 방법
US20150169122A1 (en) Method for operating a multi-touch-capable display and device having a multi-touch-capable display
CN104423836A (zh) 信息处理装置
KR20100028465A (ko) 포인터의 드래그 방향에 따른 문자 또는 메뉴입력 방법
JP5605911B2 (ja) タッチスクリーンデバイスの制御装置、その制御方法及びプログラム
US20140298275A1 (en) Method for recognizing input gestures
CN104063154A (zh) 信息处理装置及其控制方法
KR101442438B1 (ko) 듀얼 터치 경험 필드를 달성하기 위한 싱글 터치 프로세스
KR20140067861A (ko) 터치 스크린 디스플레이 상에서의 객체 스크롤 방법 및 장치
KR20160044194A (ko) 터치 스크린을 구비하는 전자기기 상의 복수객체에서 객체를 선택하는 방법 및 장치
CN102789358A (zh) 图像输出显示方法、装置以及一种显示设备
US20100309125A1 (en) Button To Change Modes of a Pointing Device
KR20140070264A (ko) 터치 스크린 디스플레이 입력을 통한 객체 스크롤 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140716

WD01 Invention patent application deemed withdrawn after publication