CN101739208A - 提供用户界面的设备和方法 - Google Patents

提供用户界面的设备和方法 Download PDF

Info

Publication number
CN101739208A
CN101739208A CN200910225143A CN200910225143A CN101739208A CN 101739208 A CN101739208 A CN 101739208A CN 200910225143 A CN200910225143 A CN 200910225143A CN 200910225143 A CN200910225143 A CN 200910225143A CN 101739208 A CN101739208 A CN 101739208A
Authority
CN
China
Prior art keywords
finger
touch
user
information
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN200910225143A
Other languages
English (en)
Inventor
朴用国
朴珉圭
金贤真
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN201611178513.7A priority Critical patent/CN107066137B/zh
Publication of CN101739208A publication Critical patent/CN101739208A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

提供了一种提供用户界面的设备和方法。所述设备包括显示单元、传感器和控制器。所述显示单元显示至少一个图形用户界面(GUI)。所述传感器根据用户的手指触摸输入产生传感器信号。所述控制器从传感器接收传感器信号,基于接收的传感器信号识别触摸区域和相邻区域,根据识别的触摸区域和识别的相邻区域产生基于触摸手指形状的信息,控制显示单元根据产生的基于触摸手指形状的信息显示GUI。

Description

提供用户界面的设备和方法
技术领域
本发明涉及一种用于提供用户界面的设备和方法,以及记录用于提供所述用户界面的程序的计算机可读记录介质。
背景技术
随着传感器和软件相关技术的发展,各种电子设备(例如,台式计算机、膝上型计算机、掌上型计算机、个人数字助理(PDA)、便携式多媒体播放器(PMP)以及移动电话)中的用户界面更应该在使用和设计上用户友好。基于触摸的用户界面被广泛地使用,该界面能够在用户触摸显示设备的屏幕时执行操作,从而执行相应的功能。
然而,传统的基于触摸的用户界面存在这样的限制,即,由于触摸图标仅能执行与其相应的指令,不允许多个用户触摸输入。
发明内容
本发明的示例性实施例提供了一种能执行各种输入的用户友好界面。
本发明的示例性实施例还提供了一种能在小尺寸显示设备中快速执行输入的智能用户界面。
将在后面的描述中阐述本发明的其它特征,一部分通过描述将是清楚的,或者通过实施本发明来了解。
本发明的示例性实施例公开了一种使用基于触摸手指类型的信息的设备。该设备包括显示单元、传感器和控制器。所述显示单元显示至少一个图形用户界面(GUI)。所述传感器根据用户手指触摸输入产生传感器信号。控制器从传感器接收传感器信号,基于接收到的传感器信号识别触摸区域和相邻区域,根据识别的触摸区域和识别的相邻区域产生基于触摸手指形状的信息,控制显示单元根据产生的基于手指形状的信息显示GUI。
本发明的示例性实施例公开了一种使用基于触摸手指类型的信息提供用户界面的方法。该方法包括:在屏幕上显示至少一个图形用户界面(GUI);如果在屏幕上输入了用户的手指触摸,则基于由显示设备中包含的至少一个传感器产生的传感器信号识别屏幕上的手指触摸区域和相邻区域;根据识别的触摸区域和识别的相邻区域产生基于触摸手指形状的信息;根据基于触摸手指形状的信息改变和显示GUI。
本发明的示例性实施例公开了一种计算机可读记录介质,所述计算机可读记录介质记录有用于提供用户界面的可执行程序。所述程序包括:用于在屏幕上显示至少一个图形用户界面(GUI)的指令、用于在屏幕上输入了用户的手指触摸的情况下基于由传感器产生的传感器信号识别手指触摸区域和相邻区域的指令、用于根据识别的触摸区域和识别的相邻区域产生基于触摸手指形状的信息的指令、用于根据基于触摸手指形状的信息改变和显示GUI的指令。
应该理解的是,前述概括性描述和下面的详细描述都是示例性和解释性的,目的在于提供权利要求请求保护的本发明的进一步解释。
附图说明
包含的附图用于提供对本发明的进一步理解,包含在本说明书中并构成本说明书的一部分,所述附图举例说明本发明的示例性实施例,并与描述一起用于解释本发明的原理。
图1是示出根据本发明的示例性实施例的用户界面提供设备的框图。
图2是描述根据本发明的示例性实施例的用于提供用户界面的方法的流程图。
图3a是示出根据本发明的示例性实施例的图1的设备中的手指触摸动作的立体图。
图3b示出了根据本发明示例性实施例的图3A的手指触摸动作的手指图像。
图4是示出了根据本发明的示例性实施例的使用基于手指类型的信息提供用户界面的方法的流程图。
图5示出了根据本发明的示例性实施例的在图1的设备中指令执行的第一示例。
图6示出了根据本发明的示例性实施例的在图1中的设备中指令执行的第二示例。
图7示出了根据本发明的示例性实施例的在图1中的设备中指令执行的第三示例。
图8示出了根据本发明的示例性实施例的在图1中的设备中指令执行的第四示例。
图9是示出了根据本发明的示例性实施例的利用基于手指类型的信息的用户界面提供设备中的手指触摸动作的立体图。
图10示出了根据本发明的示例性实施例的图9的设备中指令执行的第一示例。
图11示出了根据本发明的示例性实施例的图9的设备中指令执行的第二示例。
图12是示出了根据本发明的示例性实施例的利用基于手指类型的信息的用户界面提供设备的立体图。
图13示出了根据本发明的示例性实施例的图11的设备中的指令执行。
图14示出了根据本发明的示例性实施例的图1的设备的输出屏幕的第一示例。
图15示出了根据本发明的示例性实施例的图1的设备的输出屏幕的第二示例。
图16示出了根据本发明的示例性实施例的图1的设备的输出屏幕的第三示例。
图17示出了根据本发明的示例性实施例的图1的设备的输出屏幕的第四示例。
图18示出了根据本发明的示例性实施例的图1的设备的输出屏幕的第五示例。
图19示出了根据本发明示例性实施例的图1的设备的输出屏幕的示例。
具体实施方式
在本发明的示例性实施例中,术语“图形用户界面(GUI)”是指显示在显示设备的屏幕上的图形的概念。GUI包括可以被显示在屏幕上的图形对象,例如,图标、项、缩略图、全屏图像等。GUI还包括由图形对象构成的屏幕。
下面,将参照附图更全面地描述本发明,在附图中示出了本发明的示例性实施例。然而,本发明可以以各种形式实现,不应该理解为限于这里阐述的示例性实施例。相反,提供这些实施例,以使得彻底公开本发明,并将本发明的范围全部传达给本领域的技术人员。在附图中,为了清晰起见,夸大了层或区域的尺寸和相对尺寸。附图中相同的标号始终表示相同的元件。
在下面的描述中,为了便于描述,用于通过手指触摸动作执行功能的目标被称作图标。然而,为了容易地设计各种程序、指令或数据文件,也可形成与各种程序、指令或数据文件相应的小图片或符号,并显示在屏幕上。当搜索图片或图像时,所述图标可包括通过减少图片或图像的表示尺寸而表示的缩略图。当用户提供触摸动作时,显示在屏幕上的目标(如图片或图像)可执行预定的操作。即,所述图标可用作代替GUI的概念。
下面,参照附图更详细地描述本发明的示例性实施例。
图1是示出根据本发明的示例性实施例的使用基于手指的类型(下面称为“手指类型”)的信息的用户界面提供设备的框图。
用户界面提供设备10可包括显示单元11、光学传感器12和控制器13。
显示单元11可显示与可通过手指的触摸(下面称为“触摸动作”)而执行的至少一个指令相应的图标。传感器12可获得显示单元11中发生的触摸动作的传感器信号,并可将所述传感器信号输出到控制器13。在本发明的实施例中,传感器12可以是光学传感器或触摸传感器。传感器12可以被配置为与显示单元11接触,可以形成为多层。传感器12可以是具有彼此相对以矩阵形式设置的发光二极管(LED)和光电晶体管的光学检测传感器,其中,通过发射和接收红外射线来获得手指图像。当发生触摸动作时,光学传感器估计从手指反射的光量,即,反射光的量。估计的反射光的量可用作识别触摸区域和相邻区域的数据。光学传感器以这样的方式执行检测操作,即,当屏幕上发生触摸动作时,通过光电二极管估计触摸对象的图像,检测触摸对象在屏幕上实际接触处的有效触摸区域。有效触摸区域被转换为数字图像。分析数字图像,用于有效触摸区域的坐标,从而识别被触摸的位置。因此,被触摸的位置使得可以执行与对应到被触摸位置的图标相关联的各种功能。
在本发明的示例性实施例中,用触摸传感器来实现传感器12。在这种情况下,优选地,触摸传感器是电容式触摸传感器。触摸传感器执行如下的检测操作。当屏幕上发生触摸动作时,从屏幕上的被触摸部分丢失电荷,即,电流流过所述触摸部分。触摸传感器检测丢失电荷的位置,以及丢失的电荷量,然后识别触摸区域和相邻区域。
在本发明的实施例中,传感器12可以被配置为光学传感器和触摸传感器的组合。在这种情况下,触摸传感器可以是电容式触摸传感器或电阻式触摸传感器。传感器12可通过感测触摸动作并获得触摸区域的图像来产生传感器信号。传感器信号可用作识别触摸区域和相邻区域的数据。
在本发明的示例性实施例中,传感器12还可包括用于将模拟信号转换为数字信号的A/D转换器。
当用户的手指触摸屏幕时,传感器12(例如,光学传感)估计反射光的量。传感器12产生包含关于反射的光量的信息的传感器信号,并将其输出到控制器13。即,传感器12基于估计的反射光的量获得手指的图像,产生包含获得的手指图像的传感器信号,然后将传感器信号输出到控制器13。如果传感器12用触摸传感器实现,则触摸传感器检测从屏幕丢失的电荷中的改变(丢失的电荷量),产生包含关于丢失的电荷量的信息的传感器信号,然后将传感器信号输出到控制器13。
将参照图2为控制器13提供的描述。
图2是根据本发明示例性实施例的用于提供用户界面的方法的流程图。在本发明的实施例中,假定控制器13控制显示单元11以显示至少一个GUI。
控制器13控制传感器12,并确定屏幕上是否发生了用户的触摸动作(201)。如果在步骤201传感器12检测到屏幕上的用户触摸动作,则传感器12产生传感器信号并将其输出到控制器13(202)。例如,如果传感器12被实现为光学传感器,则传感器信号包含关于反射的光量的信息。如果传感器12被实现为触摸传感器,则传感器信号包含关于屏幕上丢失的电荷的改变(即,丢失的电荷量)的信息。
当在步骤202中控制器13从传感器12接收到传感器信号时,控制器13识别手指触摸区域和相邻区域(203)。
例如,如果传感器12被实现为光学传感器,则光反射主要发生在屏幕上的手指接触的区域(被称作触摸区域),并且光反射还相对少量地发生在与触摸区域相邻的但是不与用户的手指直接接触的区域(被称作相邻区域)中。控制器13识别反射的光量主要分布的区域为手指触摸区域。类似地,控制器13还识别反射的光量比手指触摸区域的反射光量分布少的区域为手指相邻区域。即,控制器13可根据从屏幕上某一区域反射的光量与作为参考值的预设光量的比较来识别触摸区域和相邻区域。如果从某一区域反射的光量等于或大于预设的光量,则控制器13确定该区域为触摸区域。另一方面,如果从某一区域反射的光量少于预设的光量,则控制器13确定该区域为相邻区域。在本发明的实施例中,预设了第一参考光量和第二参考光量,如果某一区域中反射的光量等于或大于第一预设参考光量,则控制器13可识别该区域为触摸区域。如果该区域中反射的光量小于第一参考光量但是等于或大于第二参考光量,则控制器13还可识别该区域为相邻区域。否则,即,如果某一区域中反射的光量小于第二参考光量,则控制器13可识别该区域为开放区域。
可选地,如果传感器12被实现为触摸传感器,则传感器检测屏幕上的丢失的电荷量。在用户的手指触摸屏幕的区域(被称作触摸区域)中丢失的电荷量大。另一方面,在与触摸区域相邻但是没有被用户的手指触摸的区域(被称作相邻区域)中丢失的电荷量相对小。控制器13识别丢失的电荷量大的区域为手指触摸区域。类似地,控制器还识别丢失的电荷量小于手指触摸区域中丢失的电荷量的区域为手指相邻区域。即,控制器13可根据屏幕上某一区域中丢失的电荷量与作为参考值的预设的电荷量的比较来识别触摸区域和相邻区域。如果某一区域中的丢失的电荷量等于或大于预设的电荷量,则控制器可确定该区域为触摸区域。另一方面,如果某一区域中丢失的电荷量小于预设的电荷量,则控制器13确定该区域为相邻区域。在本发明的实施例中,由于预设了第一参考电荷量和第二参考电荷量,如果某一区域中丢失的电荷量等于或大于第一参考电荷量,则控制器13可识别该区域为触摸区域。如果某一区域中丢失的电荷量小于第一参考电荷量但是等于或大于第二参考电荷量,则控制器13可识别该区域为相邻区域。否则,即,如果某一区域中丢失的电荷量小于第二参考电荷量,则控制器13识别该区域为开放区域。
控制器13根据识别的触摸区域和识别的相邻区域产生基于手指类型的信息(204)。在本发明的实施例中,基于手指类型的信息包括用户手指的位置、触摸手指的触摸形式和触摸手指的类型。控制器13基于触摸区域和相邻区域检测触摸手指的方向矢量。控制器13还获得方向矢量的角度,以及基于方向矢量的角度估计并产生用户手指的位置。控制器13可估计触摸区域的水平长度和垂直长度,通过根据水平长度和垂直长度确定触摸区域的尺寸来产生关于触摸区域的信息。可选地,控制器13基于触摸区域和相邻区域检测触摸手指的方向矢量。控制器13还获得方向矢量的角度,通过根据方向矢量的角度确定触摸手指是右手手指还是左手手指来产生触摸手指类型信息。
控制器13基于产生的基于手指类型的信息控制显示单元11改变并显示GUI(205)。在本发明的实施例中,控制器13可在显示单元11上执行GUI的旋转、移动或放大。
图3a是示出图1的设备中的手指触摸动作的立体图,图3b示出了图3A的手指触摸动作的手指图像。
参照图3a和图3b,当在屏幕上由触摸手指20执行手指触摸动作时,传感器12产生传感器信号。如果所述传感器被实现为光学传感器,则传感器12可获得触摸手指20的手指图像。可通过使用不同的对比以区分触摸屏幕的手指部分和未触摸屏幕的手指部分来获得手指图像。
控制器13可基于传感器信号检测手指触摸区域31和相邻区域32,其中,手指触摸区域31是指手指20触摸屏幕的区域,相邻区域32是指位于屏幕上但是手指20未触摸所述屏幕的区域。控制器13还可识别不是手指触摸区域31和相邻区域32的开放区域33。然后,控制器13可产生与用户的位置关联的信息,以及手指20的触摸部分的手指类型。控制器13可基于手指触摸区域31和相邻区域32检测方向矢量34。然后,控制器13可确定是左手还是右手正在被使用。在本发明的实施例中,控制器13还可基于手指触摸区域31检测和确定被触摸的图标。当执行与被确定的图标相应的指令时,控制器13可根据产生的基于手指类型的信息执行指令。
图4是示出根据本发明的示例性实施例的在传感器12被实现为光学传感器的情况下使用基于手指类型的信息提供用户界面的方法的流程图。
参照图4,控制器13可确定光学传感器12在显示单元11中是否检测到手指20的触摸动作(20)。
如果检测到手指20的触摸动作,则光学传感器12可获得触摸显示单元11的整个手指20的图像(30)。
然后,控制器13可基于由光学传感器12获得的整个手指20的图像,来确定手指触摸区域31和相邻区域32(40)。
然后,控制器13可通过分析手指触摸区域31的坐标确定显示单元11中显示的图标为被触摸的图标(50)。
控制器13可确定什么类型的指令与被确定的图标关联(501)。控制器13可根据确定的指令基于确定的手指触摸区域31和相邻区域32产生基于手指类型的信息。
如果与被确定的图标关联的指令是使用用户的位置信息的指令,则控制器13可计算在手指触摸区域31和相邻区域32中手指20的方向矢量34(511)。具体地,控制器13可计算从相邻区域32朝向手指触摸区域31的手指20的方向矢量34(见图3b)。控制器13可确定方向矢量34的角度(512)。方向矢量34的角度范围为0°到360°。0°可以是从显示单元11的左侧到右侧的水平轴。
控制器13可(例如,参照表1)估计用户的位置,并可相应地产生用户的位置信息(513)。可使用任何合适的手段将表1存储在设备10中,或者提供给设备10。
【表1】
  方向矢量的角度   用户的位置信息
  45°到135°   显示单元的下部
  大于135°到225°   显示单元的右侧
  大于225°到315°   显示单元的上部
  大于315°到45°   显示单元的左侧
如表1所示,如果手指20的方向矢量33的角度范围为45°到135°,则用户的位置信息可表示显示单元11的下部。如果手指20的方向矢量33的角度范围为大于135°到225°,则用户的位置信息可表示显示单元11的右侧。如果手指20的方向矢量33的角度范围为大于225°到315°,则用户的位置信息可表示显示单元11的上部。如果手指20的方向矢量33的角度范围为大于315°到45°,则用户的位置信息可表示显示单元11的左侧。
控制器13根据在步骤513产生的用户的位置信息执行与确定的图标相应的图像的旋转、移动和放大(61)。例如,如果用户的位置信息是指显示单元11的下部,则在一些情况下,控制器13相对于朝向显示单元11的下部的用户的位置旋转与确定的图标相应的图像。控制器13还可向着显示单元11的下部移动所述图像,和/或在显示单元的下部放大并显示所述图像。
如果与所述确定的图标相应的指令是使用手指的触摸形式的指令,则控制器13可确定手指触摸区域31的水平长度(a)和垂直长度(b)(521)。可使用式1来计算垂直长度(b)与水平长度(a)的比(c)。
【式1】
c=b/a
控制器13可根据计算的值c确定触摸区域31是大还是小。例如,如表2中所示,如果c大于1,则可确定手指触摸区域31大,或者如果c小于1,则可确定手指触摸区域31小。相应地,控制器13可产生与计算的值c相应的手指触摸形式信息(522)。可以使用任何合适的手段将表2存储在设备10中或将其提供给设备10。
【表2】
  c   手指触摸区域
  b/a≥1   大
  b/a<1   小
控制器13可根据产生的手指触摸形式执行与确定的图标关联的指令(62)。例如,当图标是菜单条时,如果手指触摸区域31“大”,则显示下一级菜单,如果手指触摸区域31“小”,则显示上一级菜单。
如果与确定的图标相应的指令是使用手指类型信息的指令,则控制器13可确定是否确定了相邻区域32(530)。如果确定了相邻区域32,则控制器13可计算从相邻区域32向着手指触摸区域31的手指20的方向矢量34(531)。
然后,控制器13可确定方向矢量34的角度(532)。
通常,当根据手指类型执行不同的指令时,可在显示单元的尺寸相对小的移动终端中快速执行输入动作。因此,便携式终端的用户通常可被假定为位于显示单元11的下部。方向矢量33的角度范围为0到180°。
控制器13(例如,参照表3)可基于确定的方向矢量33的角度确定触摸手是右手还是左手,并可相应地产生手指类型信息(535)。可使用任何合适的手段将表3存储在设备10中或提供给设备10。
【表3】
  矢量角度   手指类型信息
  0°到90°   左手
  90°到180°   右手
在表3中,如果方向矢量33的角度范围为0°到90°,则手指20的类型为左手手指。如果方向矢量33的角度范围为90°到180°,则手指20的类型为右手手指。
如果在步骤S530中未确定相邻区域32,则控制器13可确定手指触摸区域31的位置是在显示单元的右侧还是左侧,并且可产生手指类型信息(533)。
例如,如果手指触摸区域31的位置是显示单元的左侧,则手指20可被确定为左手手指。如果手指触摸区域31的位置是右侧,则手指20可被确定为右手手指。
在确定手指20是右手手指还是左手手指((步骤533或步骤535)之后,控制器13可根据产生的手指类型信息执行与确定的图标相关联的指令(63)。例如,当图标是数字键并且手指20的类型为右手手指时,可输入右侧字符。如果手指20的类型是左手手指,则可输入左侧字符。
实施例1
因此,可根据与被触摸的图标相应的指令的类型基于产生的信息执行各种指令。下面,提供指令执行的示例。
图5示出了在图1的设备中指令执行的示例。在图5中,可通过旋转、移动和放大与被触摸图标相应的图片来显示所述图片。然后,可将所述图片置于在显示单元中的与用户的位置相应的位置。
如图5中的(a)中所示,可以以减小的缩略图形式显示图片,并可随机布置图标。当用户35触摸显示单元11中的图标40时,控制器13可计算手指20的手指图像的方向矢量33,测量矢量角度,并估计用户35的位置。在图5中的(a)中,手指20的方向矢量33的范围为45°到135°,因此,可确定用户35的位置相应于显示单元11的下部。当控制器13通过基于手指方向的信息确定用户35的位置时,与被触摸图标40相应的图片可被旋转、移动、放大并被显示,以与用户35的位置相应,如图5中的(b)中所示。
在传统的触摸用户界面中,当执行这种指令时,必须选择图标,并将所述图标拖拽到用户的位置,并且用户旋转所述图标,然而,根据本发明的示例性实施例,通过图标的单一触摸动作来执行这些动作。此外,根据本发明的示例性实施例,由于将用户的位置用作基于手指类型的信息,所以当很多用户在一个显示单元中执行触摸动作时,本发明的示例性实施例是有用的。
图6示出了在图1的设备中指令执行的第二示例。在图6中,图5的第一示例中显示的图标可形成功能选项的菜单。
如图6中的(a)中所示,当用户35从表示功能选项的多个图标中触摸(例如,表示日程表的)图标50时,控制器13可放大并显示用于管理日程表的日历52,以与确定的用户位置相应。
图7示出了图1的设备中指令执行的第三示例。在图7中,通过将与被触摸图标相应的图片旋转为与用户的位置相应来显示所述图片。
如图7中的(a)中所示,当用户35触摸图标60时,控制器13可根据由控制器13确定的用户的位置信息旋转并显示所述图标60,如图7中的(b)中所示。然而,在图7中,可根据被检测的手指20的特定方向矢量由控制器13确定用户的位置,而不管方向矢量是与显示单元11的右侧、左侧、上侧还是下侧相应(如第一示例)。因此,用户的位置可以是手指20的方向矢量的起始点,图标60可被旋转以与用户的位置(即,方向矢量)相应。
图8示出了图1的设备中指令执行的第四示例。在图8中,在显示单元11中以预定方位显示的屏幕图像旋转,以与用户的位置相应。
在图8中的(a)中,屏幕图像70可初始地被显示为与位于显示单元11的左侧的用户相应。如图8的(a)中所示,当通过位于显示单元11的下部的用户的手指20执行触摸动作时,控制器13可产生用户的位置的信息,如图8中的(b)中所示,控制器13可旋转并显示所述屏幕图像70,以与位于显示显示单元11的下部的用户相应。
实施例2
图9是示出了根据本发明的示例性实施例的在使用基于手指类型的信息的用户界面提供设备中手指触摸动作的立体图。
在图9中的(a)示出的示例中,手指20的下部的大部分触摸显示单元11,并且手指触摸区域81会较大。在图9(b)示出的示例中,仅仅手指20的尖部触摸显示单元11,并且手指触摸区域82会较小。相应地,可根据手指触摸动作执行不同的指令。
图10示出了图9的设备中指令执行的第一示例。在图10中,可根据手指触摸形式显示上一级菜单或下一级菜单。
参照图10中,如果手指触摸区域81“大”,则可显示与被触摸图标相应的下一级菜单。尽管在图10中未显示,但是,如果手指触摸区域的“小”,则可显示与被触摸图标相应的上一级菜单。
图11示出了图9的设备中指令执行的第二示例。在图11中,可根据手指触摸形式执行传统鼠标的右键/左键操作相应的输入指令。
参照图11,如果手指触摸区域82“小”,则可以以与鼠标图像位于相应图标上时点击传统鼠标的右键类似的方式显示菜单。尽管在图11中未示出,但是,如果手指触摸区域“大”,则可以与与鼠标图像位于相应图标上时点击传统鼠标的左键类似的方式执行与被触摸图标相应的指令。
图10示出了根据手指的触摸类型,通过以与点击传统鼠标的右键或左键类似的方式执行的指令的上一级菜单或下一级菜单的显示。然而,本发明的示例性实施例不限于此,还可以被应用于字符的输入。例如,当手指触摸区域81“大”时,可输入相应图标的右字符,当手指触摸区域81“小”,则可输入左侧字符。
实施例3
图12是示出根据本发明的示例性实施例的使用基于手指类型的信息的设备的立体图。
参照图12,控制器13可使用被检测手指的方向矢量33确定触摸手指是右手手指111还是左手手指112。此外,在某些情况下,由于在显示单元11的端部(例如,在右侧或左侧)执行所述触摸动作,使得不能确定手指未触摸区域32,因此,不能确定触摸手指20的方向矢量33。如果不能确定方向矢量33,则控制器可基于手指触摸区域31是朝向显示单元11的右侧或左侧来确定触摸手指是右手手指111还是左手手指112。
图13示出了当在显示单元11中显示用于输入字符的字符阵列时图12的设备中的指令执行。
参照图13,例如,如果控制器13确定由右手手指111触摸了图标123,则可输入字符“+”;如果控制器13确定由左手手指112触摸了图标123,则可输入字符“-”。如果控制器13确定由右手手指111触摸图标121,则可输入字符“]”,如果控制器13确定由左手手指112触摸图标121,则可输入字符“[”。
因此,根据本发明的示例性实施例,可通过单一触摸动作确定手指类型,然后可执行不同的指令。因此,当在具有小尺寸显示器的设备(例如,移动设备)中输入字符时,传统输入方法是不必要的,在所述传统输入方法中,通过一个触摸动作输入左侧字符,通过两个触摸动作输入右侧字符。因此,可更快地输入字符。
图13示出了根据手指类型输入相应图标的右字符或左字符的情形。然而,本发明的示例性实施例不限于此,而是可以应用于,例如,显示上一级菜单或下一级菜单,以与点击传统鼠标的右键或左键类似的方式显示执行指令的菜单,如上面所解释的。例如,如果触摸手指类型是右手手指111,则可显示菜单,类似于如果鼠标右键点击图标则出现显示菜单。如果触摸手指类型是左手手指112,则可执行与被触摸图标相应的指令,类似于当鼠标的左键被点击时。
实施例4
将参照图14至图18提供当用户手指触摸显示单元11并在显示单元11输入移动时的关于用户界面设备的操作的描述。在本发明的实施例中,用户手指的移动相应于手指针对手指触摸区域绘出圆圈的二维运动。
图14示出了根据本发明示例性实施例的图1的设备的输出屏幕的第一示例。
图14中的(a)示出在显示单元11上全屏幕显示图片的屏幕,其中,用户的手指触摸显示单元11,并针对手指触摸区域在显示单元11上执行圆圈绘制运动。
传感器12检测用户的手指的运动,产生传感器信号,并将传感器信号输出到控制器13。控制器13识别改变的手指触摸区域31和改变的相邻区域32,并基于识别的手指触摸区域31和识别的相邻区域32检测改变的手指的方向矢量34。然后,控制器13将用户的手指的运动输入到屏幕之前的手指的方向矢量与用户的手指的运动被输入之后的手指的方向矢量进行比较,估计手指的方向矢量的角度的改变,并执行与估计的方向矢量的改变的角度相应的功能。控制器13可确定手指的方向矢量的改变的角度是否等于或大于预设的角度。仅当手指的方向矢量的改变的角度等于或大于预设角度时,控制器可确定事件已经发生,然后执行相应的功能。在本发明的实施例中,控制器13还可估计手指的方向矢量的角度的改变速率。如果用户的手指快速执行圆圈绘制运动,则控制器13可估计手指的方向矢量的角度的改变速率,然后执行相应的功能。
如图14中所示,屏幕(b)放大屏幕(a)上显示的图片。在本发明的实施例中,当用户的手指顺时针绘制圆圈时,显示设备可放大并显示屏幕上的图像,当用户的手指逆时针绘制圆圈时,缩小并显示图像。如果用户的手指在屏幕上快速地绘制圆圈,则显示设备还可快速地放大或缩小图像。另一方面,如果用户的手指在屏幕上绘制圆圈,然后停留在该位置,则显示设备可与预设的周期逐步放大或缩小图像。
图15示出了根据本发明的示例性实施例的设备1的输出屏幕的第二示例。
如图15中所示,屏幕(a)示出了用户的手指触摸可选项然后针对手指触摸点绘制圆圈的状态。
屏幕(a)显示了整个项的一部分,而剩余部分由于屏幕大小而被剪切掉。在这种情况下,控制器13可执行复制该项的剪切部分的功能。当用户激活MMS消息写入窗口,在多重任务操作中加载网页,触摸网页中的可选项,然后执行圆圈绘制运动时,该项被自动复制,然后被注册为MMS消息的附件,或被粘贴到MMS消息中。如图15中所示,屏幕(b)示出了被选项被自动粘贴到MMS消息写入窗口中的状态。
图16示出了根据本发明示例性实施例的图1的设备的输出屏幕的第三示例。
如图16中所示,屏幕(a)示出了手指触摸包含子菜单的菜单中的图标的状态。当用户手指触摸特定图标时,根据基于手指类型的信息,被触摸的图标显示其子菜单,例如,“twit”、“blog”和“facebook”。如屏幕(a)中所示,手指的类型被以这样的方式显示,即,指尖从右下指向左上。如图16中所示,屏幕(b)示出了随着手指在屏幕(a)上顺时针绘制圆圈指尖从左下指向右上的状态。在这种情况下,也从左下向右上排列子菜单图标。用户还可在手指在屏幕上绘制圆圈的同事移动或排列GUI。
图17示出了根据本发明示例性实施例的图1的输出屏幕的第四示例。
如图17中所示,屏幕(a)示出了用户的手指在显示多媒体内容的屏幕上触摸左下处的再现图标并执行圆圈绘制运动的状态。在这种情况下,控制器13执行快进或后退功能,并控制显示单元11以显示再现信息滚动条。例如,如果用户的手指顺时针绘制圆圈,则控制器13执行快进功能,如果用户的手指逆时针绘制圆圈,则控制器13执行后退功能。
如图17中所示,屏幕(b)示出了用户的手指在显示多媒体内容的屏幕上触摸右下处的音量图标并执行圆圈绘制运动的状态。在这种情况下,控制器13执行音量增加或降低功能,并控制显示单元11以显示音量信息滚动条。例如,如果用户手指顺时针绘制圆圈,则控制器13执行音量增加功能,如果用户手指逆时针绘制圆圈,则控制器13执行音量降低功能。
图18示出了根据本发明示例性实施例的图1的设备的输出屏幕的第五示例。
如图18中所示,屏幕(a)示出了用户的手指触摸特定图标的状态。在这种情况下,控制器13控制单元11执行被触摸的图标并输出相应的功能。如果仅输入触摸动作,则控制器13将该动作识别为选择或执行事件,这与鼠标左键的点击动作类似。
如图18中所示,屏幕(b)示出了用户的手指触摸特定图标然后执行圆圈绘制运动的状态。在这种情况下,控制器13控制显示单元11以显示复制/粘贴子菜单的菜单。如果输入了触摸动作和圆圈绘制运动,则控制器13识别所述动作为菜单输出事件,与鼠标右键的点击动作类似。
应该理解的是,本发明不限于这些实施例。例如,屏幕可以显示多个图标。如果用户的手指触摸多个图标中的一个,则控制器执行与其相应的功能。可选地,如果用户的手指触摸多个图标中的一个,然后针对该图标绘制圆圈,则控制器可将当前模式切换到允许对多个图标作出选择的模式。
实施例5
下面参照图19提供当用户的手指触摸显示单元11并在显示单元11上输入移动时关于用户界面的操作的描述。在本发明的实施例中,用户的手指的移动对应手指慢慢弯曲以改变手指触摸区域的三维动作。
图19示出了根据本发明又一示例性实施例的图1的设备的输出屏幕的示例。
如图19中所示,屏幕(a)与图10的屏幕类似。屏幕(a)示出了用户手指的从顶端到第一关节之间的指尖部分全部触摸屏幕的状态。控制器13检测手指触摸区域81的尺寸,然后控制显示单元11输出与其相应的GUI。如屏幕(a)中所示,控制器13控制显示单元11显示子菜单图标。假定仅由弯曲的手指的指尖执行触摸动作。
如图19中所示,屏幕(b)与图11的屏幕类似,示出了用户的手指的指尖部分的一部分触摸屏幕的状态。控制器13检测手指触摸区域82的尺寸,然后控制显示单元11输出相应的GUI。如屏幕(b)中所示,控制器13控制显示单元11显示上一级菜单图标。假定仅由弯曲手指的指尖执行所述触摸动作。即,控制器13可识别手指触摸区域的尺寸的改变,然后控制显示单元改变并显示GUI。
根据基于由光学触摸传感器检测的手指的信息执行指令的方法被记录作为计算机可读记录介质中的程序。用于检测手指并执行指令的程序包括:用于在显示单元11上显示至少一个图形用户界面(GUI)的指令、用于在屏幕上输入用户的手指触摸的情况下基于由传感器12产生的传感器信号识别屏幕上的手指触摸区域和相邻区域、用于根据识别的触摸区域31和识别的相邻区域32产生基于触摸手指形状的信息的指令、用于根据基于触摸手指形状的信息改变并显示GUI的指令。
如果传感器12被实现为光学传感器,则所述程序可包括命令传感器12以检测显示单元11中的手指20的触摸动作并获得手指20的图像的指令、命令控制器13基于由传感器12获得手指的图像确定手指触摸区域31和相邻区域32的指令、以及命令控制器13基于手指触摸区域31确定被触摸图标的指令。所述程序还包括命令控制器13根据与被检测图标相应的指令产生基于根据手指触摸区域31和相邻区域32确定的手指类型信息的指令,以及命令控制器13根据基于手指类型的信息执行与被检测图标相应的指令的指令。基于手指类型的信息可包括用户的位置、手指的触摸形式、手指类型。在这些示例性实施例中,可根据如上所述的信息执行这些指令。
如上所述,根据本发明,用户界面可允许在显示设备上执行各种用户友好输入。
此外,用户可以在安装了小尺寸的显示器的设备的用户界面中快速而准确地提供输入。
本领域的技术人员应该理解的是,在不脱离本发明的精神和范围的情况下,可以对本发明作出各种变型和改变。因此,本发明的覆盖那些落入由权利要求及其等同物的范围内的本发明的变型和改变。

Claims (17)

1.一种用于提供用户界面的设备,包括:
显示单元,用于显示至少一个图形用户界面;
传感器,用于根据用户的手指触摸输入产生传感器信号;
控制器,用于从传感器接收传感器信号,基于接收到的传感器信号识别触摸区域和相邻区域,以根据识别的触摸区域和识别的相邻区域产生基于触摸手指形状的信息,以及根据产生的基于触摸手指形状的信息控制显示单元显示用户图形界面。
2.如权利要求1所述的设备,其中,基于触摸手指形状的信息包括用户的具有触摸手指的手的位置、触摸手指的触摸形式和触摸手指的类型中的至少一种。
3.如权利要求1所述的设备,其中,所述控制器基于触摸区域和相邻区域确定触摸手指的方向矢量,
其中,控制器获得方向矢量的角度,通过根据方向矢量的角度估计用户的位置产生用户位置信息。
4.如权利要求3所述的设备,其中,控制器根据用户位置信息执行用户图形界面的旋转、移动和放大中的至少一种。
5.如权利要求1所述的设备,其中,控制器确定触摸区域的水平长度和垂直长度,通过根据水平长度和垂直长度确定触摸区域的尺寸产生触摸手指的触摸信息。
6.如权利要求1所述的设备,其中,控制器基于触摸区域和相邻区域确定触摸手指的方向矢量,并通过根据方向矢量的角度确定触摸手指是右手手指还是左手手指来产生触摸手指类型信息。
7.如权利要求1所述的设备,其中,传感器包括光学传感器和触摸传感器中的至少一种,光学传感器产生包含关于由用户的手指反射的光量的信息的传感器信号,触摸传感器产生包含关于由用户的手指改变的电荷量的信息的传感器信号。
8.如权利要求1所述的设备,其中,控制器从传感器接收根据用户的手指的移动产生的传感器信号,基于手指触摸区域和相邻区域检测触摸手指的方向矢量,估计触摸手指的方向矢量的角度的改变,并执行与估计的触摸手指的方向矢量的角度的改变相应的功能。
9.如权利要求1所述的设备,其中,控制器从传感器接收根据用户的手指的移动产生的传感器信号,估计手指触摸区域中的改变,并执行与估计的手指触摸区域中的改变相应的功能。
10.一种提供显示设备的用户界面的方法,所述方法包括:
在屏幕上显示至少一个图形用户界面;
如果屏幕上输入了用户的手指触摸,则基于由显示设备中包含的至少一个传感器产生的传感器信号识别屏幕上的手指触摸区域和相邻区域;
根据识别的触摸区域和识别的相邻区域产生基于触摸手指形状的信息;
根据基于触摸手指形状的信息改变并显示图形用户界面。
11.如权利要求10所述的方法,其中,产生基于触摸手指形状的信息的步骤包括:
基于触摸区域和相邻区域产生触摸手指的方向矢量;
确定方向矢量的角度;
通过根据方向矢量的角度估计用户的位置产生用户位置信息。
12.如权利要求10所述的方法,其中,改变并显示图形用户界面的步骤包括:根据用户位置信息执行图形用户界面的旋转、移动和放大中的至少一种。
13.如权利要求10所述的方法,其中,产生基于触摸手指形状的信息的步骤包括:
确定触摸区域的水平长度和垂直长度;
根据水平长度和垂直长度确定触摸区域的尺寸;
根据确定的手指触摸区域的尺寸产生触摸手指的触摸信息。
14.如权利要求10所述的方法,其中,产生基于触摸手指形状的信息的步骤包括:
基于触摸区域和相邻区域确定触摸手指的方向矢量;
确定方向矢量的角度;
通过根据方向矢量的角度确定触摸手指是右手手指或左手手指产生触摸手指类型信息。
15.如权利要求10所述的方法,其中,产生基于手指形状的信息的步骤包括:
如果控制器未识别所述相邻区域,则确定触摸区域的位置是位于屏幕的左侧还是右侧;
根据触摸区域的位置产生触摸手指类型信息。
16.如权利要求10所述的方法,还包括:
如果输入了用户的手指的移动,则识别手指触摸区域和相邻区域;
基于识别的手指触摸区域和识别的相邻区域估计触摸手指的方向矢量的角度的改变;
执行与估计的方向矢量的角度的改变相应的功能。
17.如权利要求10所述的方法,还包括:
如果输入了用户的手指的移动,则估计手指触摸区域中的改变;
执行与估计的手指触摸区域中的改变相应的功能。
CN200910225143A 2008-11-25 2009-11-25 提供用户界面的设备和方法 Pending CN101739208A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611178513.7A CN107066137B (zh) 2008-11-25 2009-11-25 提供用户界面的设备和方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2008-0117358 2008-11-25
KR20080117358 2008-11-25
KR1020090113076A KR20100059698A (ko) 2008-11-25 2009-11-23 유저인터페이스 제공 장치, 제공방법, 및 이를 기록한 컴퓨터 판독 가능한 기록매체
KR10-2009-0113076 2009-11-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201611178513.7A Division CN107066137B (zh) 2008-11-25 2009-11-25 提供用户界面的设备和方法

Publications (1)

Publication Number Publication Date
CN101739208A true CN101739208A (zh) 2010-06-16

Family

ID=42360946

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201611178513.7A Expired - Fee Related CN107066137B (zh) 2008-11-25 2009-11-25 提供用户界面的设备和方法
CN200910225143A Pending CN101739208A (zh) 2008-11-25 2009-11-25 提供用户界面的设备和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201611178513.7A Expired - Fee Related CN107066137B (zh) 2008-11-25 2009-11-25 提供用户界面的设备和方法

Country Status (2)

Country Link
KR (3) KR20100059698A (zh)
CN (2) CN107066137B (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102478995A (zh) * 2010-11-26 2012-05-30 宏碁股份有限公司 手指辨识方法及系统
CN102479035A (zh) * 2010-11-23 2012-05-30 汉王科技股份有限公司 具有触摸屏的电子设备及显示左右手控制界面的方法
WO2012075916A1 (zh) * 2010-12-09 2012-06-14 联想(北京)有限公司 触摸控制方法和电子设备
CN102520838A (zh) * 2010-10-19 2012-06-27 微软公司 擦拭触摸信息提示
CN102810039A (zh) * 2011-05-31 2012-12-05 中兴通讯股份有限公司 左右手自适应的虚拟键盘显示方法及终端
CN103135924A (zh) * 2011-12-05 2013-06-05 索尼公司 电子设备以及操作电子设备的方法
CN103176664A (zh) * 2011-12-21 2013-06-26 纬创资通股份有限公司 触控方法及触控系统
WO2013149476A1 (zh) * 2012-04-06 2013-10-10 深圳创维数字技术股份有限公司 一种用户界面的操作控制方法及装置
CN103576844A (zh) * 2012-08-01 2014-02-12 联想(北京)有限公司 显示数据的方法以及电子设备
WO2014032239A1 (zh) * 2012-08-29 2014-03-06 华为终端有限公司 一种终端设备获取指令的方法及终端设备
CN103679017A (zh) * 2012-09-05 2014-03-26 腾讯科技(深圳)有限公司 防止用户界面被劫持的装置及方法
CN103838500A (zh) * 2012-11-20 2014-06-04 联想(北京)有限公司 一种操作对象集合显示方法及电子设备
CN103902206A (zh) * 2012-12-25 2014-07-02 广州三星通信技术研究有限公司 操作具有触摸屏的移动终端的方法和设备及移动终端
CN103927105A (zh) * 2013-01-11 2014-07-16 联想(北京)有限公司 一种用户界面显示方法及电子设备
CN104220978A (zh) * 2012-04-19 2014-12-17 索尼公司 信息处理装置、信息处理方法、程序及信息处理系统
CN105446630A (zh) * 2014-06-16 2016-03-30 联想(北京)有限公司 一种信息处理方法及装置
CN106066758A (zh) * 2015-04-21 2016-11-02 三星电子株式会社 用于显示屏幕的电子设备及其控制方法
CN107589881A (zh) * 2016-07-06 2018-01-16 中兴通讯股份有限公司 一种智能调用桌面布局的方法和装置
CN109154879A (zh) * 2016-05-18 2019-01-04 三星电子株式会社 电子设备及其输入处理方法
CN111665983A (zh) * 2014-09-02 2020-09-15 三星电子株式会社 电子设备及其显示方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI617936B (zh) 2007-09-24 2018-03-11 蘋果公司 於電子設備中嵌入鑑認系統
KR101694787B1 (ko) * 2010-06-30 2017-01-10 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
EP2850510A2 (en) 2012-05-18 2015-03-25 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
KR102073601B1 (ko) * 2012-07-25 2020-02-06 삼성전자주식회사 사용자 단말 장치 및 그의 제어 방법
KR102461584B1 (ko) 2015-11-20 2022-11-02 삼성전자주식회사 입력 처리 방법 및 장치
CN108109581B (zh) * 2018-01-16 2018-12-25 深圳鑫亿光科技有限公司 交互式led显示装置及其显示方法
KR102123145B1 (ko) * 2018-02-21 2020-06-15 박종환 손가락의 점유 감지를 이용한 입력 방법 및 입력 장치
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
KR100848976B1 (ko) * 2002-09-30 2008-07-30 산요덴키가부시키가이샤 모바일 디지털 장치
US7158123B2 (en) * 2003-01-31 2007-01-02 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
KR100606803B1 (ko) * 2005-05-16 2006-08-01 엘지전자 주식회사 스크롤 휠 장치를 이용한 기능 수행 기능을 갖는 이동통신단말기 및 이를 이용한 기능 수행 방법
CN101506760A (zh) * 2005-05-27 2009-08-12 夏普株式会社 显示装置
EP1980935A1 (en) * 2006-02-03 2008-10-15 Matsushita Electric Industrial Co., Ltd. Information processing device
US20070097096A1 (en) * 2006-03-25 2007-05-03 Outland Research, Llc Bimodal user interface paradigm for touch screen devices
US20070262961A1 (en) * 2006-05-10 2007-11-15 E-Lead Electronic Co., Ltd. Method for selecting functional tables through a touch-sensitive button key
US7552402B2 (en) * 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
JP2008009668A (ja) * 2006-06-29 2008-01-17 Syn Sophia Inc タッチパネルの駆動方法及び入力方法
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
KR100894146B1 (ko) * 2007-02-03 2009-04-22 엘지전자 주식회사 이동통신 단말기 및 그 동작 제어방법
EP1988445B1 (en) * 2007-05-04 2016-04-20 Whirlpool Corporation User interface and cooking oven provided with such user interface

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102520838A (zh) * 2010-10-19 2012-06-27 微软公司 擦拭触摸信息提示
CN102479035A (zh) * 2010-11-23 2012-05-30 汉王科技股份有限公司 具有触摸屏的电子设备及显示左右手控制界面的方法
CN102478995A (zh) * 2010-11-26 2012-05-30 宏碁股份有限公司 手指辨识方法及系统
CN102566858B (zh) * 2010-12-09 2014-12-03 联想(北京)有限公司 触摸控制方法和电子设备
WO2012075916A1 (zh) * 2010-12-09 2012-06-14 联想(北京)有限公司 触摸控制方法和电子设备
CN102566858A (zh) * 2010-12-09 2012-07-11 联想(北京)有限公司 触摸控制方法和电子设备
US9857896B2 (en) 2010-12-09 2018-01-02 Lenovo (Beijing) Co., Ltd. Touch control method and electronic device
CN102810039A (zh) * 2011-05-31 2012-12-05 中兴通讯股份有限公司 左右手自适应的虚拟键盘显示方法及终端
CN103135924A (zh) * 2011-12-05 2013-06-05 索尼公司 电子设备以及操作电子设备的方法
CN103176664A (zh) * 2011-12-21 2013-06-26 纬创资通股份有限公司 触控方法及触控系统
CN103176664B (zh) * 2011-12-21 2016-01-06 纬创资通股份有限公司 触控方法及触控系统
WO2013149476A1 (zh) * 2012-04-06 2013-10-10 深圳创维数字技术股份有限公司 一种用户界面的操作控制方法及装置
US10162480B2 (en) 2012-04-19 2018-12-25 Sony Corporation Information processing apparatus, information processing method, program, and information processing system
CN108829333A (zh) * 2012-04-19 2018-11-16 索尼公司 信息处理装置
CN104220978B (zh) * 2012-04-19 2018-06-19 索尼公司 信息处理装置、信息处理方法、程序及信息处理系统
US10942620B2 (en) 2012-04-19 2021-03-09 Sony Corporation Information processing apparatus, information processing method, program, and information processing system
CN104220978A (zh) * 2012-04-19 2014-12-17 索尼公司 信息处理装置、信息处理方法、程序及信息处理系统
CN108829333B (zh) * 2012-04-19 2021-12-17 索尼公司 信息处理装置
US9772744B2 (en) 2012-04-19 2017-09-26 Sony Corporation Information processing apparatus, information processing method, program, and information processing system
CN103576844A (zh) * 2012-08-01 2014-02-12 联想(北京)有限公司 显示数据的方法以及电子设备
CN103576844B (zh) * 2012-08-01 2017-11-03 联想(北京)有限公司 显示数据的方法以及电子设备
WO2014032239A1 (zh) * 2012-08-29 2014-03-06 华为终端有限公司 一种终端设备获取指令的方法及终端设备
CN103679017B (zh) * 2012-09-05 2017-06-16 腾讯科技(深圳)有限公司 防止用户界面被劫持的装置及方法
CN103679017A (zh) * 2012-09-05 2014-03-26 腾讯科技(深圳)有限公司 防止用户界面被劫持的装置及方法
CN103838500A (zh) * 2012-11-20 2014-06-04 联想(北京)有限公司 一种操作对象集合显示方法及电子设备
CN103902206A (zh) * 2012-12-25 2014-07-02 广州三星通信技术研究有限公司 操作具有触摸屏的移动终端的方法和设备及移动终端
CN103902206B (zh) * 2012-12-25 2017-11-28 广州三星通信技术研究有限公司 操作具有触摸屏的移动终端的方法和设备及移动终端
CN103927105A (zh) * 2013-01-11 2014-07-16 联想(北京)有限公司 一种用户界面显示方法及电子设备
CN105446630A (zh) * 2014-06-16 2016-03-30 联想(北京)有限公司 一种信息处理方法及装置
CN105446630B (zh) * 2014-06-16 2019-07-26 联想(北京)有限公司 一种信息处理方法及装置
CN111665983A (zh) * 2014-09-02 2020-09-15 三星电子株式会社 电子设备及其显示方法
CN111665983B (zh) * 2014-09-02 2024-02-09 三星电子株式会社 电子设备及其显示方法
CN106066758A (zh) * 2015-04-21 2016-11-02 三星电子株式会社 用于显示屏幕的电子设备及其控制方法
CN109154879A (zh) * 2016-05-18 2019-01-04 三星电子株式会社 电子设备及其输入处理方法
CN109154879B (zh) * 2016-05-18 2022-09-27 三星电子株式会社 电子设备及其输入处理方法
CN107589881A (zh) * 2016-07-06 2018-01-16 中兴通讯股份有限公司 一种智能调用桌面布局的方法和装置

Also Published As

Publication number Publication date
KR20170046624A (ko) 2017-05-02
CN107066137A (zh) 2017-08-18
KR20160073359A (ko) 2016-06-24
KR20100059698A (ko) 2010-06-04
CN107066137B (zh) 2021-04-27

Similar Documents

Publication Publication Date Title
CN101739208A (zh) 提供用户界面的设备和方法
US11699031B2 (en) Natural quick function gestures
CN201156246Y (zh) 多事件输入系统
US9552154B2 (en) Device and method for providing a user interface
US9477396B2 (en) Device and method for providing a user interface
US9207806B2 (en) Creating a virtual mouse input device
US10871893B2 (en) Using gestures to deliver content to predefined destinations
US9395905B2 (en) Graphical scroll wheel
JP5721662B2 (ja) 入力受付方法、入力受付プログラム、及び入力装置
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
US20110227947A1 (en) Multi-Touch User Interface Interaction
EP2916207A1 (en) Methods, systems and computer program products for arranging a plurality of icons on a touch sensitive display
US20090102809A1 (en) Coordinate Detecting Device and Operation Method Using a Touch Panel
CN1402116A (zh) 用所连外部显示设备显示信息的带触摸屏装置及其方法
KR20100056639A (ko) 터치 스크린을 구비한 휴대 단말기 및 그 휴대 단말기에서 태그 정보 표시 방법
CN103207757A (zh) 可携式装置与其操作方法
JP5634617B1 (ja) 電子機器および処理方法
CN108958511B (zh) 交互显示设备、书写控制方法、移动终端及存储介质
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
KR20140138101A (ko) 3차원 기능 키를 갖는 휴대 단말 및 휴대 단말의 3차원 기능 키 표시 전환 방법
CN101308453A (zh) 具有使用者界面的操作系统
CN201117000Y (zh) 无阻碍触控操作的电子装置
CN103310391A (zh) 遥控数字化菜谱及其人机交互方法
CN101308454A (zh) 具有使用者界面的应用程序

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20100616