CN106909305B - 显示图形用户界面的方法和设备 - Google Patents

显示图形用户界面的方法和设备 Download PDF

Info

Publication number
CN106909305B
CN106909305B CN201710119962.2A CN201710119962A CN106909305B CN 106909305 B CN106909305 B CN 106909305B CN 201710119962 A CN201710119962 A CN 201710119962A CN 106909305 B CN106909305 B CN 106909305B
Authority
CN
China
Prior art keywords
sensor
contact
hand
contact pattern
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710119962.2A
Other languages
English (en)
Other versions
CN106909305A (zh
Inventor
朴用国
朴珉圭
秋嬉贞
金铉基
金贤真
郭知妍
任垠映
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN106909305A publication Critical patent/CN106909305A/zh
Application granted granted Critical
Publication of CN106909305B publication Critical patent/CN106909305B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04142Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种显示图形用户界面的方法和设备。一种在包括触觉传感器单元的设备的显示单元上显示图形用户界面的方法包括:检测触觉传感器单元的接触;根据检测的接触确定接触模式;基于接触模式显示图形用户界面。

Description

显示图形用户界面的方法和设备
本申请是申请日为2009年9月14日、申请号为200910169036.1、发明名称为“根据用户的接触模式显示图形用户界面的方法和设备”的发明专利申请的分案申请。
技术领域
本发明的示例性实施例涉及一种用于电子装置的图形用户界面(GUI),具体地,涉及一种根据用户的接触模式显示GUI的方法的设备。
背景技术
触摸屏可被用作显示单元和输入单元。因此,具有触摸屏的电子装置可不需要附加的显示单元和输入单元。由于这个优点,触摸屏可广泛地用于诸如,例如移动装置(还可被称为便携式装置或手持装置)的有限大小的电子装置。
通常,用户可用一只手或两只手来操作触摸屏,以命令执行期望的功能或应用。当用户使用两只手时,一只手握住装置,另一只手可触摸装置的触摸屏。但是,当用户仅使用一只手时,握住的手的手指(例如,拇指)通常会遮挡部分触摸屏。
图10A是示出用户的左拇指选择显示在触摸屏上的菜单图标中的一个的示意性示例。在该示例中,如果用户触摸位于触摸屏右上部分的特定图标(例如,音乐图标),则手指可全部或部分地遮挡显示在触摸屏上的其它图标(例如,游戏图标、显示图标和日程图标)中的一些。另外,这些遮挡的图标可与拇指接触,从而可不期望地执行与遮挡的图标相关联的功能。
图10B是示出用户的左拇指触摸呈现在触摸屏上的滚动条的另一示意性示例。如果用户触摸位于触摸屏的右侧的滚动条,则显示的内容(例如,情景)可被拇指遮挡。另外,有些显示的内容可不期望地被拇指触摸并被访问。
在不使用触摸屏或键盘的情况下,只有用户与具有触觉传感器的电子装置的特定部分保持接触,所述电子装置才可提供电子装置应用的控制。这些电子装置可提供具有GUI的显示屏,以引导基于接触的输入。如果GUI以固定的形式显示而不考虑用户的接触模式,在GUI中的有些位置可能不能记录/输入用户的接触。由于各个手的大小、手指的大小、握住形式的不同可引起这种现象。难于实现适于多个用户的GUI。如果在GUI中的位置与用户接触的接触点之间不存在匹配,则当用户操作在电子装置上的应用时,可产生困扰。
发明内容
本发明的示例性实施例提供了一种适于用户的进行操作的手显示图形用户界面(GUI)的方法和设备。
本发明的示例性实施例还提供了一种具有触摸屏和触觉传感器的设备。
在下面的描述中将阐明本发明另外的特点,通过描述,其会变得部分地清楚,或者通过实施本发明可以了解。
本发明示例性实施例公开了一种在包括触觉传感器单元的设备中的显示单元上显示GUI的方法。所述方法包括:触觉传感器单元检测用户的接触;根据检测的接触确定接触模式;与接触模式相应地显示GUI。
本发明的示例性实施例提供了一种显示GUI的设备。所述设备包括:触觉传感器单元,设置为当检测到用户的接触时,创建接触检测信号,其中,所述触觉传感器单元包括左传感器部分和右传感器部分,每个传感器部分具有多个传感器组件;显示单元,设置为显示GUI;控制单元,设置为从触觉传感器单元接收接触检测信号,基于接触检测信号确定接触模式,并控制显示单元以与接触模式相应地显示GUI。
应该理解,上述的概括描述以及下面的详细描述均是示例性的以及解释性的,并试图提供要求保护的本发明的进一步解释。
附图说明
附图示出本发明的示例性实施例,并与说明书一起用于解释本发明的原理,其中,包括附图以提供对本发明的进一步理解,附图被包含在说明书中并构成说明书的一部分。
图1A是示出根据本发明示例性实施例的设备的内部结构的框图。
图1B示出根据本发明示例性实施例的位于图1A所示的设备的侧面的触觉传感器单元的示例。
图2是示出根据本发明示例性实施例的根据进行操作的手显示GUI的方法的流程图。
图3是示出根据本发明示例性实施例的在图2中示出的GUI显示方法中确定进行操作的手的步骤的详细处理的示例的流程图。
图4是示出根据本发明示例性实施例的在图2中示出的GUI显示方法中确定进行操作的手的步骤的详细处理的另一示例的流程图。
图5是示出根据本发明示例性实施例的在图2中示出的GUI显示方法中确定进行操作的手的步骤的详细处理的另一示例的流程图。
图6A示出根据本发明示例性实施例的左手握住设备并且触觉传感器单元位于设备的侧面的示例。
图6B示出根据本发明示例性实施例的右手握住设备并且触觉传感器单元位于设备的侧面的示例。
图7A示出根据本发明示例性实施例的左手握住设备并且触觉传感器单元位于设备的侧面的另一示例。
图7B示出根据本发明示例性实施例的右手握住设备并且触觉传感器单元位于设备的侧面的另一示例。
图8示出根据本发明示例性实施例的GUI的示例。
图9示出根据本发明示例性实施例的GUI的另一示例。
图10A是示出用户的左拇指选择显示在触摸屏上的菜单图标中的一个的示意性示例。
图10B是示出根据传统GUI的用户的左拇指触摸位于触摸屏上的滚动条的另一示意性示例。
图11是示出根据本发明示例性实施例的基于进行操作的手显示GUI的方法的流程图。
图12A示出根据本发明示例性实施例的在空闲屏应用中通过用户的接触显示有菜单图标的屏幕的示例。
图12B示出根据本发明示例性实施例的在空闲屏应用中通过用户新的接触显示的菜单图标变化的屏幕的示例。
图13A示出根据本发明示例性实施例的在相机应用中通过用户的接触显示有功能图标的屏幕的示例。
图13B示出根据本发明示例性实施例的在相机应用中通过用户新的接触显示的功能图标变化的屏幕的另一示例
图14A示出根据本发明示例性实施例的在MP3应用中通过用户的接触显示有功能图标的屏幕的示例。
图14B示出根据本发明示例性实施例的在MP3应用中通过用户新的接触显示的功能图标改变的屏幕的示例。
具体实施方式
在下文中参照附图更充分地描述了本发明,在附图中示出了本发明的实施例。然而,本发明可以以许多不同的形式来实施,且不应该解释为局限于在这里所阐述的示例性实施例。相反,提供这些示例性实施例使得本公开将是彻底的,并将本发明的范围充分地传达给本领域技术人员。在附图中,为了清晰起见,会夸大层和区域的大小和相对大小。附图中的相同的标号表示相同的元件。
应该理解的是,尽管在这里可使用术语第一、第二、第三等来描述不同的元件、组件、区域、层和/或部分,但是这些元件、组件、区域、层和/或部分不应该受这些术语的限制。这些术语仅是用来将一个元件、组件、区域、层或部分与另一个元件、组件、区域、层或部分区分开来。因此,在不脱离本发明的教导的情况下,下面讨论的第一元件、组件、区域、层或部分可被称作第二元件、组件、区域、层或部分。
为了便于描述,在这里可使用空间相对术语,如“在…之下”、“在…下方”、“下面的”、“在…上方”、“上面的”等,用来描述在图中所示的一个元件或特征与其它元件或特征的关系。应该理解的是,空间相对术语意在包含除了在附图中描述的方位之外装置在使用或操作中的不同方位。例如,如果附图中的装置被翻转,则描述为“在”其它元件或特征“下方”或“之下”的元件随后将被定位为“在”其它元件或特征“上方”。因而,示例性术语“在…下方”可包括“在…上方”和“在…下方”两种方位。所述装置可被另外定位(旋转90度或者在其它方位),并对在这里使用的空间相对描述符做出相应的解释。
这里使用的术语仅为了描述特定实施例的目的,而不意图限制本发明。如这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式。还应理解的是,当在本说明书中使用术语“包含”和/或“包括”时,说明存在所述特征、整体、步骤、操作、元件和/或组件,但不排除存在或附加一个或多个其它特征、整体、步骤、操作、元件、组件和/或它们的组。
除非另有定义,否则这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域的普通技术人员所通常理解的意思相同的意思。还将理解的是,除非这里明确定义,否则术语(诸如在通用字典中定义的术语)应该被解释为具有与相关领域的环境中它们的意思一致的意思,而将不以理想的或者过于正式的含义来解释它们。
另外,将不详细地描述或示出公知的或广泛地使用的技术、元件、机构和处理,以避免混淆本发明的实质。
在解释本发明示例性实施例之前,将在下面的描述定义相关的技术。
图形用户界面(GUI)可指设置在电子装置的显示器(例如,屏幕)上的图形显示。GUI可包括至少一个窗口、至少一个图标、至少一个滚动条和用户用来将命令输入给装置的任何其它图形项。应该理解,本发明示例性实施例可包括各种形状、设计和结构的各种的GUI。
进行操作的手可指操作电子装置的触摸屏的电子装置用户的手。进行操作的手可包括在触摸屏上进行触摸动作的一只或多只手。另外,进行操作的手可包括与具有触觉传感器的电子装置接触的一只或多只手。进行操作的手可以是用户的左手、右手或两只手。
触觉传感器单元或触觉传感器可指对用户的触摸敏感的至少一个传感器。触觉传感器单元可以与包括在触摸屏中的触摸传感器不同,并且触觉传感器单元可通常位于电子装置的至少一侧。如果用户握住装置,则触觉传感器单元可检测用户的手与装置之间的接触,创建接触检测信号,并将接触检测信号发送给控制单元。触觉传感器单元可包括至少一个触觉传感器,所述触觉传感器可检测接触压力的大小和接触/压力的位置。可选地,压力传感器和触摸传感器的结合可被用于触觉传感器单元。触觉传感器单元可包括左传感器部分和右传感器部分,左传感器部分和右传感器部分中的每一个可包括多个传感器组件。触觉传感器单元可被形成在装置的上面和/或下面,或可被形成在装置的任何面和/或所有侧面上。
传感器组件可指构成触觉传感器单元的元件。每个传感器组件可独立地检测用户的接触。基于传感器组件的种类或大小,可确定包括在触觉传感器单元中的传感器组件的数量。
组件组可指在接触检测传感器组件中顺序布置的一套传感器组件。组件组可用于创建接触模式信息。组件组的位置和包括在单个组件组中的传感器组件的数量可根据用户的握住形式而变化。
以下,参照附图对本发明示例性实施例进行详细的描述。
图1A是示出根据本发明示例性实施例的设备的内部结构的框图。
参照图1A,设备100可以是移动通信终端、诸如个人数字助理(PDA)的便携式终端、计算机、TV或任何其它具有触摸屏的电子装置。设备100可包括触觉传感器110、存储器单元120、触摸屏130和控制单元140。
当用户握住设备100时,触觉传感器单元110可检测用户手的接触。触觉传感器单元110可检测接触压力的大小和接触/压力的位置。触觉传感器单元110可包括触觉传感器、触摸屏和/或压力传感器和触摸屏的结合。触觉传感器单元110可位于设备100的侧面,但不限于此。在有些示例性实施例中,触觉传感器单元110可位于设备100的每个面上。
图1B示出位于设备100的侧面的触觉传感器单元110的示例。在检测到用户手的接触之后,触觉传感器单元110可将接触检测信号发送到控制单元140。触觉传感器单元110可包括左传感器部分和右传感器部分,左传感器部分和右传感器部分中的每一个可包括多个传感器组件。
存储器单元120可存储执行设备100的功能所需的多个程序和执行所述功能时创建的数据。存储器单元120可存储与假设进行操作的手的处理相关的数据和接触模式信息。
触摸屏130可显示信息,并可接收用户输入。触摸屏130可包括显示单元132和触摸传感器单元134。
显示单元132可由液晶显示器(LCD)或任何其它合适类型的显示器形成。显示单元132可提供与设备100的状态和操作相关的多个图形信息。显示单元132可根据进行操作的手显示GUI。在一些情况下,显示单元132可根据握住设备100的用户手指的位置显示GUI。
触摸传感器单元134可确定用户的手是否触摸触摸屏。触摸传感器单元134可由电容触摸传感器、压力传感器和/或任何其它适合的触摸敏感的传感器形成。当检测到用户的手的触摸时,触摸传感器单元134可将触摸信号发送到控制单元140。触摸信号可包括表示用户的触摸位置的坐标数据。在一些情况下,触摸传感器单元134可不包括在设备100中。
控制单元140可控制设备100的一个或多个元件的状态和操作。例如,控制单元140可从触觉传感器单元110接收接触检测信号,并且可通过使用接触检测信号来确定用户的接触模式。因此,控制单元140可根据用户的接触模式命令显示单元132显示GUI。
图2是示出根据本发明示例性实施例的根据进行操作的手显示GUI的方法的流程图。
参照图2,触觉传感器单元110可检测用户的接触(S210)。用户的接触可以是用户握住设备100的结果。当检测到用户的接触时,触觉传感器单元110可将接触检测信号发送给控制单元140。
控制单元140可从触觉传感器单元110接收接触检测信号(S220)。然后,控制单元140可确定用户的接触模式,从而可确定进行操作的手(S230)。在图3、图4和图5中详细地示出步骤S230。
在步骤S230之后,控制单元140可根据进行操作的手命令触摸屏130显示GUI(S240)。然后,控制单元140可确定是否从触觉传感器单元110接收附加接触检测信号(S250)。如果控制单元140确定接收附加接触检测信号,则显示GUI的方法可返回到步骤S230以重新确定用户的接触模式并且还重新确定进行操作的手。当用户改变握住形式时,可由触觉传感器单元110提供附加接触检测信号。
如果控制单元140没有从触觉传感器单元110接收到附加接触检测信号,则显示单元132可保持当前GUI。随后,用户可操作显示在触摸屏130上的GUI以将命令输入到设备100。
图3是示出根据本发明示例性实施例的详细处理图2所示的步骤S230的示例的流程图。
参照图3,控制单元140可基于从触觉传感器单元110接收的接触检测信号产生至少一个组件组(S310)。如上所述,组件组可指在接触检测传感器组件中按一个或多个顺序布置的一套传感器组件。
在图6A、图6B、图7A和图7B中示出了传感器组件和组件组的示例性实施例。
图6A示出用户用左手握住设备100的示例。触觉传感器单元110可位于设备100的侧面。左传感器部分可位于设备100的左侧,右传感器部分可位于设备100的右侧。每个传感器部分可包括多个传感器组件。传感器组件的数量根据传感器组件的大小变化。例如,传感器组件的大小越小,越多的传感器组件可布置在设备100的侧面上。图6A中,例如,属于每个传感器部分的传感器组件的数量可以是23个。在左传感器部分的传感器组件中的标记的组件可表示检测到与左手接触的组件。在右传感器部分的传感器组件中,标记的组件可表示检测到与左手的手指(例如,除拇指外的四个手指)接触的组件。接触检测组件可按其布置的顺序被分组。例如,在左传感器部分中的顺序排列的9个组件可被分成一组。另外,在右传感器部分中的两个组件为一对的四对组件可被分成四组。
返回到图3,在产生组件组的步骤S310之后,控制单元140可基于组件组创建接触模式信息(S320)。因此,接触模式信息可基于用户如何握住设备100而有所不同。接触模式信息可包括,例如,在每个传感器部分中的组件组的数量、组件组的位置、组件组之间的间距、在每个组件组中的传感器组件的数量和/或每个传感器组件的压力检测数据。
参照图6A,左传感器部分的接触模式信息可包括如下数据:包括九个传感器组件的一个组件组,所述九个传感器组件位于,例如,从第12传感器组件到第20传感器组件。右传感器部分的接触模式信息可包括如下数据:四个组件组,每个组件组包括两个传感器组件,这8个传感器组件位于,例如,第4、第5、第9、第10、第14、第15、第19和第20组件位置。可将三个传感器组件可置于在两个相邻组件组之间。
返回到图3,控制单元140可从存储器单元120检索存储的接触模式信息(S330)。存储器单元120可存储接触模式信息,并且通常可存储与不同的的握住类型相应的不同的接触模式信息。存储在存储器单元120中的接触模式信息可包括,例如,在每个传感器部分中的组件组的数量、组件组的位置、组件组之间的间距、在每个组件组中的传感器组件的数量和/或每个传感器组件的压力检测数据。
控制单元140可顺序地将创建的接触模式信息与检索的接触模式信息进行比较(S340)。例如,控制单元140可执行对在每个传感器部分中的组件组的数量、组件组的位置、组件组之间的间距、在每个组件组中的传感器组件的数量和/或每个传感器组件的压力检测数据的分别比较。
控制单元140还可确定创建的接触模式信息是否在与检索的接触模式信息相关的范围内(S350)。当创建的信息完全对应于所述检索的信息时,控制单元140可确定创建的信息在与所述检索的信息相关联的范围内。如果先前将允许的裕量分配给存储在存储器单元120中的接触模式信息,则所述创建的信息可在允许的裕量内,从而所述创建的信息可确定为在所述范围内。所述允许的裕量可分别分配给,例如,在每个传感器部分中的组件组的数量、组件组的位置、组件组之间的间距、在每个组件组中的传感器组件的数量和/或每个传感器组件的压力检测数据。
如果创建的接触模式信息在检索的接触模式信息的范围内,则控制单元140可确定与创建的接触模式信息相应的进行操作的手(S360)。存储器单元120可已存储了与根据不同的接触模式信息的不同的进行操作的手有关的信息。如果创建的接触模式信息属于检索的接触模式信息的范围,则控制单元140可确定与创建的接触模式信息相应的进行操作的手。确定的进行操作的手可以是左手,或者是右手。
如果创建的接触模式信息不属于检索的接触模式信息的范围,则控制单元140可确定进行操作的手为两只手(S370)。在确定了进行操作的手之后,控制单元140可返回到根据进行操作的手显示GUI的先前步骤S240。
图4是示出根据本发明示例性实施例的示出在图2中的步骤S230的详细处理的另一示例的流程图。
参照图4,控制单元140可产生至少一个组件组(S410),所述至少一个组件组可以是在接触检测传感器组件中顺序布置的一套传感器组件。然后,控制单元140可计算包括在每个组件组中的传感器组件的数量(S420)。例如,如在图6A中示例性示出,左传感器部分中的一个组件组可具有9个传感器组件,在右传感器部分中的四个组件组中的每一个可具有两个传感器组件。
在计算了每个组件组中的传感器组件的数量之后,控制单元140可确定哪个组件组和哪个传感器部分可具有最多的接触检测传感器组件(S430)。例如,最大的组件组可在左传感器部分或右传感器部分中,因此,在步骤S430,控制单元140可确定最大的传感器部分是左传感器部分还是右传感器部分。例如,参照图6A,控制单元140可确定最大的组件组具有9个传感器组件并位于左传感器部分中。参照示出在图6B中的另一示例,最大的组件组可具有9个传感器组件并位于右传感器部分中。因此,控制单元140可确定最大的传感器部分是右传感器部分。类似地,最大的传感器部分可以是在图7A中的左传感器部分和在图7B中的右传感器部分。
如果最大的传感器部分是左传感器部分,则控制单元140还可确定左传感器部分是否具有附加组件组(S440)。附加组件组可指位于最大的传感器部分中但不是最大的传感器组件组的一个或多个组件组。在图6A,例如,作为最大的传感器部分的左传感器部分可具有最大组件组,但没有附加组件组。但是,在图7A,具有最大的组件组的左传感器部分可具有包括从第3传感器组件至第5传感器组件的三个传感器组件的一个附加组件组。
如果如图6A所示没有附加组件组,则控制单元140可确定进行操作的手是左手(S450)。然后,可认为最大的组件组与左手的手掌接触。另外,没有附加组件组可表示左手的拇指不会与触觉传感器单元110接触。在这些情况下,控制单元140可确定用户用左手的拇指操作触摸屏130。即,用户可使用他或她的左手握住设备100并触摸触摸屏130。控制单元140可确定进行操作的手是左手。
如果进行操作的手被确定为是右手,则可进行相似的步骤。例如,如果最大的传感器部分是右传感器部分,则控制单元140可确定右传感器部分是否具有附加组件组(S460)。如果如图6B所示右传感器部分不具有附加组件组,则控制单元140可确定进行操作的手是右手(S470)。
如果右传感器部分具有附加组件组,则控制单元140可确定进行操作的手可能是两只手(S480)。附加组件组的存在可表示用户握住的手的拇指与触觉传感器单元110接触。控制单元140可确定用户可用没有握住的手的拇指操作触摸屏130。所以,控制单元140确定进行操作的手是两只手。
图5是示出根据本发明示例性实施例的图2中示出的步骤S230的详细处理的另一示例的流程图。
参照图5,控制单元140可产生至少一个组件组(S510),所述至少一个组件组可以是在接触检测传感器组件中顺序布置的一套传感器组件。控制单元140可计算在每个传感器部分中的组件组的数量(S520)。在图6A、图6B、图7A和图7B中,传感器部分可以是左传感器部分和右传感器部分。在有些情况下,控制单元140可同时计算在左传感器部分和右传感器部分中的组件组的数量。
例如,在图6A中,左传感器部分的组件组的数量可以是1,右传感器部分的组件组的数量可以是4。在图6B中,左传感器部分的组件组的数量可以是4,在右传感器部分的组件组的数量可以是1。在图7A中,左传感器部分的组件组的数量是2,右传感器部分的组件组的数量是4。在图7B中,左传感器部分的组件组的数量可以是4,右传感器部分的组件组的数量可以是2。
控制单元140可确定左传感器部分中的组件组的数量是否是三个或三个以上以及右传感器部分中的组件组的数量是否是一个或一个以下(S530)。如果左传感器部分中的组件组的数量是3个或3个以上并且右传感器部分中的组件组的数量是1个或1个以下,则控制单元可确定进行操作的手是用户的右手(S540)。在左传感器部分中的3个或3个以上组件组的可表示除拇指外的至少3个手指与左传感器部分接触。右传感器部分中的1个或1个以下组件组可表示用户右手的手掌与右传感器部分接触,但是拇指可能没有与右传感器部分接触。在这种情况下,控制单元140可确定用户可用用户的右手拇指操作触摸屏。即,用户的右手可被用于握住设备100并触摸触摸屏130。因此,控制单元140可确定进行操作的手是右手。
类似地,在确定进行操作的手是左手的过程中,控制单元140可确定右传感器部分中的组件组的数量是否是三个或三个以上以及左传感器部分中的组件组的数量是否是一个或一个以下(S550)。
如果在步骤530和步骤550的答案均是否,则控制单元140可确定进行操作的手是两只手(S570)。
图8示出根据本发明示例性实施例的GUI的示例。
图8示出具有菜单图标并且左手被确定为是进行操作的手的显示屏810示例性实施例。控制单元140可将菜单图标从显示屏810的左上角至右下角布置以与左拇指的移动路径相应。因此,用户可通过使用他或她左拇指触摸显示屏810来选择图标以执行与选择的图标相应的期望的功能。由于菜单图标沿左拇指的移动路径布置,所以图标可不会被拇指遮挡并且可防止图标的不期望的触摸。
图8还示出了右手被确定的进行操作的手的显示屏820的示例性实施例。在这种情况下,控制单元140可将菜单图标沿右拇指移动路径排列。在有些其它情况下,如图8中的显示屏830所示,当两只手被确定为进行操作的手时,控制单元140可保持正常GUI,该正常GUI根据用户的意图而变化。
图9示出根据本发明示例性实施例的GUI的另一示例。
图9示出具有滚动条并且左手被确定为进行操作的手的显示屏910的示例性实施例。控制单元140可将滚动条沿显示屏910的左侧布置以与左拇指的移动路径相应。因此,用户可通过用用户的左拇指拖拽滚动条而向上或向下移动滚动条。由于滚动条可以沿左排列,显示的内容可不会被拇指遮挡,并且可防止不期望地触摸显示的内容。
图9还示出了具有滚动条并且右手被确定为进行操作的手的显示屏920的示例性实施例。在这种情况下,控制单元140可将滚动条沿显示屏910的右面布置以与右拇指的移动路径相应。因此,用户可用用户的右拇指移动/拖拽滚动条而不会遮挡或触摸显示的内容。因此,当用户拖拽滚动条时,可防止不期望地触摸到显示的内容。在有些其它情况下,如图9的显示屏930所示,当两只手被确定为进行操作的手时,控制单元140可保持正常GUI,该正常GUI可改变。
图11是示出根据本发明示例性实施例的基于进行操作的手显示GUI的方法的流程图。例如,当用户使用触觉传感器单元110将命令输入到设备100时,可应用参照图11描述的方法。
参照图11,触觉传感器单元110可检测用户的接触(S1110)。用户的接触可与用户对设备100的握住相应。例如,用户可用一只手(如图12A和图12B所示)或用两只手(如图13A和图13B所示)握住设备100。当检测到用户的接触时,触觉传感器单元110可将包括关于接触的位置和压力的信息的接触检测信号发送到控制单元140。
控制单元140可从触觉传感器单元110接收接触检测信号(S1120)。接下来,控制单元140可根据接触检测信号确定用户的接触模式(S1130)。可基于关于接触的位置和压力的信息来确定用户的接触模式。在有些情况下,存储单元120可存储与用户的接触位置和压力有关的用户的握住形式的列表。控制单元140从存储单元120检索与接收到的关于接触的位置和压力的信息相应的具体握住形式。例如,如果如图12A所示从左传感器部分接收到两个接触检测信号并从右传感器部分接收到四个接触检测信号,则控制单元140可确定用户的左手握住了设备100。
然后,控制单元140可根据用户的接触位置命令显示单元132在显示单元132上的具体位置显示GUI(S1140)。具体地,控制单元140可(在显示GUI之前)首先识别当前执行的应用,然后可选择与当前执行的应用相应的GUI元件。例如,当运行空闲屏应用时,控制单元140可将菜单图标选择为用于空闲屏的GUI元件。在其它情况下,如果运行相机应用,则控制单元140可选择用于拍照的图标和用于放大/缩小的滚动条,进行显示。在选择定制的GUI元件之后,控制单元140可基于当前执行的应用和用户的握住形式确定GUI排列模式。例如,参照图12A和图12B,控制单元140可将空闲屏幕应用识别为当前执行的应用,并且可还可确定用户的左手握住了设备100。然后,控制单元140可确定GUI排列模式,从而菜单图标可设置在用户左手的四个手指(除拇指外)中的至少一个的接触位置附近。
确定GUI排列模式之后,控制单元140可基于GUI排列模式命令显示单元132显示GUI元件。即,可根据GUI排列模式在显示单元132上显示先前选择的GUI元件。
图12A和图12B示出根据本发明示例性实施例的在空闲屏应用中显示有菜单图标的屏幕的两个示例。如图12A和图12B所示,三个菜单图标可位于从三个手指接触位置沿横方向的位置。存储单元120可存储菜单和菜单图标的使用频率的排名。控制单元140可按使用频率的顺序排列菜单图标。例如,当用户在执行空闲屏幕应用期间握住设备100时,控制单元140可从存储单元120检索菜单的使用频率排名,并可根据检索的排名命令显示单元132显示菜单图标。可根据用户的优选项改变显示在显示单元132中的图标。
控制单元140还可根据用户接触的压力来改变GUI元件的位置。参照图12A和图12B,当用户在握住设备100期间增加接触压力(例如,压力增加到超过预定的压力阈值)时,显示在显示单元132上的菜单图标可向屏幕的右侧,即,向按压的手指移动。另外,当相应的图标到达显示单元132的右侧时,控制单元140可执行具体应用。在一些情况下,基于用户手指的接触压力和/或当图标到达显示单元132的右侧时,控制单元140可决定是否执行应用。
控制单元140还可根据用户接触的压力来改变GUI元件的显示大小。例如,当用户增加接触压力时,可增加或减小显示在显示单元132上的菜单图标的大小。接触压力的增加可将显示在显示单元132上的菜单图标加亮。
图13A和图13B示出根据本发明示例性实施例的在相机应用中显示有功能图标的屏幕的两个示例。参照图13A和图13B,用户可用两只手的拇指和食指握住设备100。用于拍照的图标可位于离右手的食指近的位置,用于放大和缩小的滚动条可位于从右手的拇指沿纵方向的位置。如果用户通过右食指增加接触压力,则用于拍照的图标向右食指方向移动。当该图标到达显示单元132的上侧时,可执行拍照的功能。另外,用户可通过右拇指增加接触压力以控制放大/缩小。
图14A和图14B示出在MP3应用中显示有功能图标的屏幕的两个示例。参照图14A和图14B,用户可用左手握住设备100。可根据左手的除拇指外的手指的接触位置显示功能图标,然而可根据拇指的接触位置显示音量控制条。显示的功能图标可依据预定的GUI排列模式。当握住设备100时,用户可通过增加接触压力或进行诸如轻拍的动作来控制MP3应用的执行。例如,图标的位置、大小、和/或表示效果可根据用户的接触而变化。
返回到图11,在显示GUI之后,控制单元140可确定用户的接触位置是否已变化(S1150)。具体地,当用户在握住设备100期间改变握住形式时,触觉传感器单元110可检测用户的接触的变化,并且可产生新的接触检测信号。然后,控制单元140可从触觉传感器单元110接收新的接触检测信号,可再次确定用户的接触模式,并可根据新的接触模式修改GUI的显示。
参照图12A和图12B,图12B中的用户的接触与图12A中的用户的接触不同。例如,在图12B中,手指的位置可向下移动。控制单元140可从触觉传感器单元110接收新的接触检测信号,并且可基于关于接触的位置和压力的新的信息确定新的接触模式。然后,控制单元140可根据新的接触模式命令改变GUI的显示。
比较图13A和图13B,与图13A比较,图13B中用户的右食指可(例如,向左)移动。如图13B所示,控制单元140可接收新的接触检测信号,确定新的接触模式,并将拍照图标向当前食指接触方向移动。
参照图14A和图14B,接触的数量与接触的位置可以改变。例如,在图14A中的在右侧的四个接触可向下移动,并且可减小为图14B中的3个接触。另外,左侧的接触可向下移动。音量控制条还可沿左侧向下移动。另外,后进图标、播放/暂停图标和停止图标可沿右侧向下移动,但是可从显示单元132去除与左手的手指(例如,小指)相应的前进图标。
如上所述,本发明示例性实施例公开了一种根据用户接触的位置和压力显示并修改GUI的方法和设备。因此,当用户操作设备时,本发明示例性实施例可避免困扰。
本领域技术人员清楚的是,在不脱离本发明的精神或范围情况下,可以对本发明进行各种修改和改变。因此,本发明意在覆盖落入权利要求及其等同物的范围内的对本发明的修改和变化。

Claims (14)

1.一种在包括触觉传感器单元的设备的显示单元上显示图形用户界面的方法,所述方法包括:
检测布置在所述设备的至少一侧部上的触觉传感器单元的接触;
根据检测的接触确定接触模式;
基于接触模式在显示单元上显示图形用户界面,
其中,显示图形用户界面的步骤包括:
根据与检测的接触的压力相关的信息,改变图形用户界面的位置或显示大小。
2.根据权利要求1所述的方法,还包括:基于接触模式确定进行操作的手。
3.根据权利要求2所述的方法,其中,确定接触模式的步骤包括:
产生一个或多个组件组,所述一个或多个组件组包括用于检测接触并以一个或多个顺序排列的一套传感器组件,所述一套传感器组件位于触觉传感器单元的至少一个传感器部分中;
基于所述一个或多个组件组创建接触模式信息;
将创建的接触模式信息与存储的接触模式信息相比较;
如果创建的接触模式信息在与存储的接触模式信息相关联的范围内,则确定与创建的接触模式信息相应的进行操作的手。
4.根据权利要求3所述的方法,其中,接触模式信息包括:在每个传感器部分中的一个或多个组件组的数量、一个或多个组件组的位置、一个或多个组件组之间的间距、在每个组件组中的传感器组件的数量和/或每个传感器组件的压力检测数据。
5.根据权利要求2所述的方法,其中,确定接触模式的步骤包括:
产生一个或多个组件组,所述一个或多个组件组包括用于检测接触并以一个或多个顺序排列的一套传感器组件,所述一套传感器组件位于触觉传感器单元的至少一个传感器部分中;
确定具有最大组件组的传感器部分,所述最大组件组包括最多的传感器组件;
确定具有最大组件组的传感器部分是否具有附加组件组;
如果不存在附加组件组,则当最大组件组属于触觉传感器单元的左传感器部分时确定进行操作的手是用户的左手,或当最大组件组属于触觉传感器单元的右传感器部分时确定进行操作的手是用户的右手。
6.根据权利要求2所述的方法,其中,确定接触模式的步骤包括:
产生一个或多个组件组,所述一个或多个组件组包括用于检测接触并以一个或多个顺序排列的一套传感器组件,所述一套传感器组件位于触觉传感器单元的至少一个传感器部分中;
计算包括在每个传感器部分中的组件组的数量;
当触觉传感器单元的左传感器部分中的组件组的数量是三个或三个以上并且触觉传感器单元的右传感器部分中的传感器组件的数量是一个或少于一个时,确定用户的右手为进行操作的手;
当右传感器部分中的组件组的数量是三个或三个以上并且左传感器部分中的传感器组件的数量是一个或少于一个时,确定用户的左手为进行操作的手。
7.根据权利要求2所述的方法,其中,显示图形用户界面的步骤还包括:
当进行操作的手是用户的左手时,在显示单元上与用户的左拇指的移动路径相应地排列菜单图标;
当进行操作的手是用户的右手时,在显示单元上与用户的右拇指的移动路径相应地排列菜单图标。
8.根据权利要求2所述的方法,其中,显示图形用户界面的还步骤包括:
当进行操作的手是用户的左手时,沿显示单元的左部分排列滚动条;
当进行操作的手是用户的右手时,沿显示单元的右部分排列滚动条。
9.根据权利要求1所述的方法,其中,确定接触模式的步骤包括:基于检测的接触的位置确定用户的握住形式。
10.根据权利要求9所述的方法,其中,确定接触模式的步骤还包括:确定接触压力是否大于阈值。
11.根据权利要求9所述的方法,还包括:
根据当前执行的应用和用户的握住形式来确定图形用户界面排列模式。
12.根据权利要求1所述的方法,其中,显示图形用户界面的步骤还包括:在显示单元的基于检测的接触的位置的位置处显示图形用户界面。
13.一种显示图形用户界面的设备,所述显示图形用户界面的设备包括:
触觉传感器单元,布置于所述设备的至少一侧部,设置为响应于接触的检测产生接触检测信号,所述触觉传感器单元包括多个传感器部分,所述多个传感器部分包括左传感器部分和右传感器部分,每个传感器部分具有多个传感器组件;
显示单元,显示图形用户界面;
控制单元,从触觉传感器单元接收接触检测信号,基于所述接触检测信号确定接触模式,并命令显示单元基于所述接触模式显示图形用户界面,
其中,控制单元根据与检测的接触的压力相关的信息控制显示单元改变图形用户界面的位置或显示大小。
14.根据权利要求13所述的设备,其中,控制单元还被配置为产生一个或多个组件组,以基于一个或多个组件组创建与接触模式相应的接触模式信息,将产生的接触模式信息与存储的接触模式信息相比较,并且如果产生的接触模式信息在与存储的接触模式信息相关联的范围内,则基于创建的接触模式信息确定进行操作的手,所述一个或多个组件组包括用于检测接触并以一个或多个顺序排列的一套传感器组件。
CN201710119962.2A 2008-10-06 2009-09-14 显示图形用户界面的方法和设备 Active CN106909305B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2008-0097591 2008-10-06
KR20080097591 2008-10-06
KR10-2009-0012687 2009-02-17
KR1020090012687A KR20100039194A (ko) 2008-10-06 2009-02-17 사용자 접촉 패턴에 따른 GUI(Graphic User Interface) 표시 방법 및 이를 구비하는 장치
CN200910169036A CN101714055A (zh) 2008-10-06 2009-09-14 根据用户的接触模式显示图形用户界面的方法和设备

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN200910169036A Division CN101714055A (zh) 2008-10-06 2009-09-14 根据用户的接触模式显示图形用户界面的方法和设备

Publications (2)

Publication Number Publication Date
CN106909305A CN106909305A (zh) 2017-06-30
CN106909305B true CN106909305B (zh) 2020-10-27

Family

ID=42215793

Family Applications (3)

Application Number Title Priority Date Filing Date
CN200910169036A Pending CN101714055A (zh) 2008-10-06 2009-09-14 根据用户的接触模式显示图形用户界面的方法和设备
CN201710119962.2A Active CN106909305B (zh) 2008-10-06 2009-09-14 显示图形用户界面的方法和设备
CN201710119581.4A Active CN106909304B (zh) 2008-10-06 2009-09-14 显示图形用户界面的方法和设备

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN200910169036A Pending CN101714055A (zh) 2008-10-06 2009-09-14 根据用户的接触模式显示图形用户界面的方法和设备

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201710119581.4A Active CN106909304B (zh) 2008-10-06 2009-09-14 显示图形用户界面的方法和设备

Country Status (3)

Country Link
KR (1) KR20100039194A (zh)
CN (3) CN101714055A (zh)
ES (1) ES2776103T3 (zh)

Families Citing this family (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2603844B1 (en) * 2010-08-12 2020-05-20 Google LLC Finger identification on a touchscreen
CN102375652A (zh) * 2010-08-16 2012-03-14 中国移动通信集团公司 移动终端用户界面调整系统及其调整方法
CN102402275B (zh) * 2010-09-13 2017-05-24 联想(北京)有限公司 便携式电子设备和握姿检测方法
CN103140822A (zh) * 2010-10-13 2013-06-05 Nec卡西欧移动通信株式会社 移动终端设备和用于移动终端设备中的触摸板的显示方法
CN102479035A (zh) * 2010-11-23 2012-05-30 汉王科技股份有限公司 具有触摸屏的电子设备及显示左右手控制界面的方法
JP2012168932A (ja) 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
CN102131003A (zh) * 2011-04-06 2011-07-20 罗蒙明 用于触屏手机判断虚拟键盘手指按键的方法
CN102790816A (zh) * 2011-05-16 2012-11-21 中兴通讯股份有限公司 按键功能的处理方法及装置
CN102810039A (zh) * 2011-05-31 2012-12-05 中兴通讯股份有限公司 左右手自适应的虚拟键盘显示方法及终端
CN102841723B (zh) * 2011-06-20 2016-08-10 联想(北京)有限公司 便携式终端及其显示切换方法
JP5453351B2 (ja) * 2011-06-24 2014-03-26 株式会社Nttドコモ 移動情報端末、操作状態判定方法、プログラム
JP5588931B2 (ja) * 2011-06-29 2014-09-10 株式会社Nttドコモ 移動情報端末、配置領域取得方法、プログラム
CN102299996A (zh) * 2011-08-19 2011-12-28 华为终端有限公司 一种手持设备操作方式识别方法及手持设备
JP5911961B2 (ja) * 2011-09-30 2016-04-27 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス
KR101908947B1 (ko) 2011-11-23 2018-10-17 삼성전자주식회사 외장 기기 연결을 위한 방법 및 장치
KR101866272B1 (ko) * 2011-12-15 2018-06-12 삼성전자주식회사 그립 센서를 이용한 사용자 기반의 휴대용 단말기의 장치 및 방법
CN102722247A (zh) * 2012-03-09 2012-10-10 张伟明 一种操控部件,使用该操控部件的信息处理系统及其信息处理方法
CN103324423B (zh) * 2012-03-21 2018-11-13 北京三星通信技术研究有限公司 一种终端及其用户界面显示方法
KR101979666B1 (ko) * 2012-05-15 2019-05-17 삼성전자 주식회사 표시부에 출력되는 입력 영역 운용 방법 및 이를 지원하는 단말기
CN102662603A (zh) * 2012-05-18 2012-09-12 广州市渡明信息技术有限公司 用于具有触摸屏幕的手机的输入法显示方法及系统
KR101995486B1 (ko) * 2012-06-26 2019-07-02 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
CN102890558B (zh) * 2012-10-26 2015-08-19 北京金和软件股份有限公司 基于传感器检测移动手持设备手持运动状态的方法
CN103809866B (zh) * 2012-11-13 2018-07-06 联想(北京)有限公司 一种操作模式切换方法和电子设备
CN103118166B (zh) * 2012-11-27 2014-11-12 广东欧珀移动通信有限公司 一种基于压力感应实现单手操作手机的方法
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US9774917B1 (en) 2012-12-10 2017-09-26 Apple Inc. Channel bar user interface
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
CN103870140B (zh) * 2012-12-13 2018-01-23 联想(北京)有限公司 一种对象处理方法及装置
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
CN103576850A (zh) * 2012-12-26 2014-02-12 深圳市创荣发电子有限公司 一种手持设备的手持方式判断方法及系统
CN103902141A (zh) * 2012-12-27 2014-07-02 北京富纳特创新科技有限公司 实现桌面功能化图标动态排列的装置及方法
US20140184519A1 (en) * 2012-12-28 2014-07-03 Hayat Benchenaa Adapting user interface based on handedness of use of mobile computing device
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
JP5995171B2 (ja) * 2013-03-13 2016-09-21 シャープ株式会社 電子機器、情報処理方法、及び情報処理プログラム
US9904394B2 (en) 2013-03-13 2018-02-27 Immerson Corporation Method and devices for displaying graphical user interfaces based on user contact
CN104360813B (zh) * 2013-04-12 2016-03-30 努比亚技术有限公司 一种显示设备及其信息处理方法
CN104216602B (zh) * 2013-05-31 2017-10-20 国际商业机器公司 一种用于控制滑块的方法和系统
KR102139110B1 (ko) * 2013-06-20 2020-07-30 삼성전자주식회사 전자 디바이스 및 전자 디바이스에서 그립 센싱을 이용한 제어 방법
KR102138505B1 (ko) * 2013-07-10 2020-07-28 엘지전자 주식회사 이동단말기 및 그 제어방법
US9134818B2 (en) * 2013-07-12 2015-09-15 Facebook, Inc. Isolating mobile device electrode
US10162416B2 (en) * 2013-09-06 2018-12-25 Immersion Corporation Dynamic haptic conversion system
CN104714731B (zh) * 2013-12-12 2019-10-11 南京中兴软件有限责任公司 终端界面的显示方法及装置
US20150192989A1 (en) * 2014-01-07 2015-07-09 Samsung Electronics Co., Ltd. Electronic device and method of controlling electronic device
CN103795949A (zh) * 2014-01-14 2014-05-14 四川长虹电器股份有限公司 一种调节设备端音量的控制端、设备端及系统
KR102155091B1 (ko) * 2014-01-22 2020-09-11 엘지전자 주식회사 이동단말기 및 그 제어방법
CN104850339B (zh) * 2014-02-19 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
CN104915073B (zh) * 2014-03-14 2018-06-01 敦泰科技有限公司 一种手持式触控装置
US9239648B2 (en) * 2014-03-17 2016-01-19 Google Inc. Determining user handedness and orientation using a touchscreen device
US9727161B2 (en) * 2014-06-12 2017-08-08 Microsoft Technology Licensing, Llc Sensor correlation for pen and touch-sensitive computing device interaction
CN111078110B (zh) 2014-06-24 2023-10-24 苹果公司 输入设备和用户界面交互
CN106415475A (zh) 2014-06-24 2017-02-15 苹果公司 用于在用户界面中导航的列界面
CN105468269A (zh) * 2014-08-15 2016-04-06 深圳市中兴微电子技术有限公司 一种自动识别左右手握持的移动终端和实现方法
CN105468245B (zh) * 2014-08-22 2020-05-01 中兴通讯股份有限公司 一种终端及终端操作界面的显示方法
US10401390B2 (en) * 2014-11-20 2019-09-03 Keithley Instruments, Llc Formatting and navigating graphed information
KR102291565B1 (ko) 2014-12-03 2021-08-19 삼성디스플레이 주식회사 표시장치 및 이를 이용한 표시장치의 구동 방법
CN104461322A (zh) * 2014-12-30 2015-03-25 中科创达软件股份有限公司 一种手持设备的用户界面显示方法及系统
CN104615368A (zh) * 2015-01-21 2015-05-13 上海华豚科技有限公司 键盘界面的跟随切换方法
CN104571919A (zh) * 2015-01-26 2015-04-29 深圳市中兴移动通信有限公司 终端屏幕显示方法及装置
CN104679427B (zh) * 2015-01-29 2017-03-15 努比亚技术有限公司 终端分屏显示方法和系统
KR101686629B1 (ko) * 2015-01-30 2016-12-14 한국과학기술연구원 사용자의 압력 정보의 입력에 의해 지시되는 가상 공간 상의 위치를 결정하는 방법, 장치 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
CN105988692A (zh) * 2015-02-02 2016-10-05 中兴通讯股份有限公司 手持电子设备和控制手持电子设备的方法及装置
KR102358110B1 (ko) 2015-03-05 2022-02-07 삼성디스플레이 주식회사 표시 장치
CN104731501B (zh) * 2015-03-25 2016-03-23 努比亚技术有限公司 控制图标的方法和移动终端
CN104735256B (zh) * 2015-03-27 2016-05-18 努比亚技术有限公司 移动终端的握持方式判断方法及装置
CN104834463A (zh) * 2015-03-31 2015-08-12 努比亚技术有限公司 移动终端的握持识别方法及装置
KR102384284B1 (ko) * 2015-04-01 2022-04-08 삼성전자주식회사 터치스크린을 이용한 볼륨 제어 방법 및 장치
CN104765541A (zh) * 2015-04-10 2015-07-08 南京理工大学 一种识别左手或右手操作手机的方法及系统
CN104898959B (zh) * 2015-04-30 2018-06-05 努比亚技术有限公司 一种调整虚拟按钮位置的方法和装置
CN104866136B (zh) * 2015-05-11 2019-02-15 努比亚技术有限公司 一种确定终端操作模式的方法及装置
KR102422181B1 (ko) * 2015-06-02 2022-07-18 삼성전자주식회사 전자 장치의 디스플레이 제어 방법 및 그 전자 장치
CN104915143B (zh) * 2015-06-19 2019-01-22 努比亚技术有限公司 无边框移动终端的控制方法及终端
US10157410B2 (en) * 2015-07-14 2018-12-18 Ebay Inc. Enhanced shopping actions on a mobile device
CN105227768A (zh) * 2015-09-18 2016-01-06 努比亚技术有限公司 一种应用app显示系统和方法
CN105183235B (zh) * 2015-10-19 2018-02-06 上海斐讯数据通信技术有限公司 一种触控屏边缘防误触的方法
CN105224181B (zh) * 2015-10-20 2018-05-25 魅族科技(中国)有限公司 一种侧边栏显示方法及装置
CN106610746A (zh) * 2015-10-26 2017-05-03 青岛海信移动通信技术股份有限公司 一种移动终端及其控制方法
CN105573622A (zh) * 2015-12-15 2016-05-11 广东欧珀移动通信有限公司 用户界面单手操控方法、装置及终端设备
KR101876020B1 (ko) * 2016-05-10 2018-07-06 홍익대학교세종캠퍼스산학협력단 모바일기기의 3d 터치를 이용한 커서 스크롤 제어방법
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
CN106406656B (zh) * 2016-08-30 2019-07-26 维沃移动通信有限公司 一种应用程序工具栏的控制方法及移动终端
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
KR102659062B1 (ko) * 2016-11-29 2024-04-19 삼성전자주식회사 그립 센서의 감지 신호에 기초하여 ui를 표시하는 전자 장치
CN106648329A (zh) * 2016-12-30 2017-05-10 维沃移动通信有限公司 一种应用图标的显示方法及移动终端
US10635255B2 (en) 2017-04-18 2020-04-28 Google Llc Electronic device response to force-sensitive interface
CN109710099A (zh) * 2017-10-26 2019-05-03 南昌欧菲生物识别技术有限公司 电子装置
WO2019113895A1 (zh) * 2017-12-14 2019-06-20 深圳市柔宇科技有限公司 控制方法和电子装置
DK201870354A1 (en) 2018-06-03 2019-12-20 Apple Inc. SETUP PROCEDURES FOR AN ELECTRONIC DEVICE
US10838541B2 (en) * 2018-09-03 2020-11-17 Htc Corporation Method for operating handheld device, handheld device and computer-readable recording medium thereof
KR102539579B1 (ko) 2018-12-18 2023-06-05 삼성전자주식회사 정보의 표시 영역을 적응적으로 변경하기 위한 전자 장치 및 그의 동작 방법
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
EP3928526A1 (en) 2019-03-24 2021-12-29 Apple Inc. User interfaces for viewing and accessing content on an electronic device
CN113711169A (zh) 2019-03-24 2021-11-26 苹果公司 包括内容项的可选表示的用户界面
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
CN113906380A (zh) 2019-05-31 2022-01-07 苹果公司 用于播客浏览和回放应用程序的用户界面
CN112486346B (zh) 2019-09-12 2023-05-30 北京小米移动软件有限公司 按键模式设置方法、装置及存储介质
JP7279622B2 (ja) * 2019-11-22 2023-05-23 トヨタ自動車株式会社 表示装置および表示プログラム
WO2021161725A1 (ja) * 2020-02-10 2021-08-19 日本電気株式会社 プログラム、携帯端末の処理方法及び携帯端末
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
CN112543362A (zh) * 2020-11-02 2021-03-23 当趣网络科技(杭州)有限公司 显示界面切换方法、遥控器、电视系统及电子设备
KR20220064162A (ko) * 2020-11-11 2022-05-18 삼성전자주식회사 신축성 디스플레이를 포함하는 전자 장치
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
CN113867594A (zh) * 2021-10-21 2021-12-31 元心信息科技集团有限公司 信息输入面板切换方法、装置、电子设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US20050134578A1 (en) * 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
CN1241109C (zh) * 2001-07-17 2006-02-08 仁宝电脑工业股份有限公司 根据压力来控制放大倍率的触碰式显示方法
US7009599B2 (en) * 2001-11-20 2006-03-07 Nokia Corporation Form factor for portable device
US20030117376A1 (en) * 2001-12-21 2003-06-26 Elen Ghulam Hand gesturing input device
GB0201074D0 (en) * 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
US7116314B2 (en) * 2003-05-06 2006-10-03 International Business Machines Corporation Method for distribution wear for a touch entry display
WO2005008444A2 (en) * 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
EP1557744B1 (en) * 2004-01-20 2008-04-16 Sony Deutschland GmbH Haptic key controlled data input
KR100608576B1 (ko) * 2004-11-19 2006-08-03 삼성전자주식회사 휴대 단말기 제어 장치 및 방법
CN101133385B (zh) * 2005-03-04 2014-05-07 苹果公司 手持电子设备、手持设备及其操作方法
CN1901785B (zh) * 2005-07-22 2012-08-29 鸿富锦精密工业(深圳)有限公司 显示装置及其显示控制方法
CN100592247C (zh) * 2005-09-21 2010-02-24 鸿富锦精密工业(深圳)有限公司 多层次菜单显示装置及其显示控制方法
CN1940834B (zh) * 2005-09-30 2014-10-29 鸿富锦精密工业(深圳)有限公司 环式菜单显示装置及其显示控制方法
JP4699955B2 (ja) * 2006-07-21 2011-06-15 シャープ株式会社 情報処理装置
KR101144423B1 (ko) * 2006-11-16 2012-05-10 엘지전자 주식회사 휴대 단말기 및 휴대 단말기의 화면 표시 방법
JP2008204402A (ja) * 2007-02-22 2008-09-04 Eastman Kodak Co ユーザインターフェース装置

Also Published As

Publication number Publication date
CN106909304A (zh) 2017-06-30
KR20100039194A (ko) 2010-04-15
CN106909305A (zh) 2017-06-30
ES2776103T3 (es) 2020-07-29
CN106909304B (zh) 2020-08-14
CN101714055A (zh) 2010-05-26

Similar Documents

Publication Publication Date Title
CN106909305B (zh) 显示图形用户界面的方法和设备
EP2175344B1 (en) Method and apparatus for displaying graphical user interface depending on a user's contact pattern
US10444989B2 (en) Information processing apparatus, and input control method and program of information processing apparatus
US9395888B2 (en) Card metaphor for a grid mode display of activities in a computing device
US9035883B2 (en) Systems and methods for modifying virtual keyboards on a user interface
KR101224588B1 (ko) 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기
US20090109187A1 (en) Information processing apparatus, launcher, activation control method and computer program product
US10019154B2 (en) Method, apparatus and computer program product for operating items with multiple fingers
US20140123049A1 (en) Keyboard with gesture-redundant keys removed
CN103477306A (zh) 电子器件、控制设置方法和程序
KR20110085189A (ko) 터치패널을 갖는 개인휴대단말기의 작동방법
US12086395B2 (en) Device control method, storage medium, and non-transitory computer-readable electronic device
KR20110066025A (ko) 터치패널 작동방법 및 터치패널 구동칩
KR20090056469A (ko) 터치 스크린에서 터치 구동 장치 및 방법
KR101678213B1 (ko) 터치 영역 증감 검출에 의한 사용자 인터페이스 장치 및 그 제어 방법
KR101366170B1 (ko) 항목의 상태 변경을 위한 사용자 인터페이스
KR20120095155A (ko) 터치패널을 갖는 개인휴대단말기의 작동방법
KR20110057027A (ko) 터치패널의 작동방법
KR20110047421A (ko) 터치패널의 작동방법
KR20110084042A (ko) 터치패널 작동방법 및 터치패널 구동칩
JP2013162202A (ja) 情報処理装置、情報処理方法及びプログラム
KR20110057711A (ko) 터치패널의 작동방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant