CN105718186A - 具有手检测电路的电子设备 - Google Patents

具有手检测电路的电子设备 Download PDF

Info

Publication number
CN105718186A
CN105718186A CN201510718090.2A CN201510718090A CN105718186A CN 105718186 A CN105718186 A CN 105718186A CN 201510718090 A CN201510718090 A CN 201510718090A CN 105718186 A CN105718186 A CN 105718186A
Authority
CN
China
Prior art keywords
sensor
electronic equipment
touch
user
sensitive display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510718090.2A
Other languages
English (en)
Inventor
T·M·米勒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Computer Inc filed Critical Apple Computer Inc
Publication of CN105718186A publication Critical patent/CN105718186A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Abstract

公开了一种具有手检测电路的电子设备。电子设备可包括触摸敏感显示器和检测正在使用用户的右手还是左手操作该触摸敏感显示器的传感器电路。控制电路可基于正在使用哪只手以提供对触摸敏感显示器的触摸输入而在触摸敏感显示器上布置图标和虚拟按钮。例如,当传感器电路检测到用户正在用其左手操作电子设备时,控制电路可将图标和虚拟按钮定位为更接近触摸敏感显示器的左边缘,使得用用户的左手更容易够到该图标和虚拟按钮。传感器电路可包含一个或多个触摸传感器、接近性传感器、指纹传感器、运动传感器或能够收集关于正在使用哪只手操作电子设备的信息的其它适当的传感器。

Description

具有手检测电路的电子设备
本申请要求在2014年12月18日提交的美国专利申请No.14/575051作为优先权,在这里通过引用加入其全部内容。
技术领域
本发明一般涉及电子设备,更特别地,涉及具有手检测电路的电子设备。
背景技术
电子设备常常包括触摸屏显示器。在典型的构成中,触摸屏显示器用作电子设备的主要用户输入机构。例如,便携式电子设备可包括用于执行特定的一组输入功能的少量的物理按钮和用于执行更多和更动态的一组输入功能的触摸屏显示器。触摸屏显示器一般显示诸如图标和虚拟按钮的用户界面元素,这些用户界面元素在被用户触摸时执行希望的动作。
诸如手持计算设备的便携式电子设备常常被持有在一只手中,并被一只手操作。例如,用户常常在其手的手掌中持有电子设备,同时使用该手掌的拇指与触摸屏显示器交互。即使当电子设备被持有在两只手中时,用户也会趋于使用一只手来提供对触摸屏显示器的触摸输入。
对于一些用户,可能难以用一只手够到整个触摸屏显示器。例如,左手用户可能能够很容易地够到沿显示器的左边缘的图标,但可能发现难以够到沿显示器的右边缘的图标。
一些电子设备通过允许单手模式来使得单手使用更容易,在该单手模式中,接近显示器的上边缘的图标被降低,以更接近显示器的下边缘。这种类型的调整使得用户更容易用其拇指够到图标。但是,由于常规的电子设备不考虑哪只手正在被使用,因此即便在将一些图标降低到显示器的底部时,这些图标可能仍然难以用一只手够到。
因此,希望能够提供用于单手使用的改进的电子设备。
发明内容
一种电子设备可包括触摸敏感显示器和检测是用户的右手还是左手正在被用于操作该触摸敏感显示器的传感器电路。电子设备中的控制电路可基于正在使用哪只手来提供对触摸敏感显示器的触摸输入而在触摸敏感显示器上布置图标和虚拟按钮。
例如,当传感器电路检测到用户用其左手操作电子设备时,控制电路可将图标和虚拟按钮定位为更接近触摸敏感显示器的左边缘,使得用用户的左手更容易够到该图标和虚拟按钮。类似地,当传感器电路检测到用户用其右手操作电子设备时,控制电路可将图标和虚拟按钮定位为更接近显示器的右边。
传感器电路可包括一个或多个触摸传感器、接近性传感器、指纹传感器、运动传感器或能够收集关于正在使用哪只手来操作该电子设备的信息的其它适当的传感器。
运动传感器可在用户将电子设备从一个位置(例如,用户的口袋)移动到另一位置(例如,用户耳朵附近)时检测电子设备的旋转。该旋转可指示正在使用哪只手来持有和操作该电子设备。
可以使用沿电子设备的相对边的传感器来收集关于设备自身正如何被持有的信息,该信息又可被用于确定电子设备是在用户的左手还是右手中。传感器可包括在电子设备的第一边上的第一触摸或接近性传感器和在电子设备的第二边上的第二触摸或接近性传感器。
触摸传感器可被用于检测触摸输入的图案,该图案又可指示在单手操作中用户的拇指所跟随的弧形路径。该弧形路径信息又可被用于确定正在使用哪只手来提供对电子设备的触摸输入。
可以使用指纹传感器来检测用户手指的取向,该取向又可被用于确定该指纹是与用户的左手还是与右手相关联。例如,指纹(例如,拇指指纹)所取向的角度和/或拇指中的脊的取向可被用于确定正在使用哪只手来操作电子设备。
从附图和优选实施例的以下详细描述,本发明的其它特征、其性质和各种优点将更加清楚。
附图说明
图1是根据本发明的实施例的可设置有手检测电路的类型的解释性电子设备的透视图。
图2是根据本发明的实施例的具有手检测电路的解释性电子设备的示意图。
图3是根据本发明的实施例的电子设备的截面侧视图,其显示了可用于检测正在使用哪只手来操作电子设备的解释性传感器。
图4A是根据本发明的实施例的示出在电子设备不处于使用中时的电子设备的取向可如何指示一般使用哪只手来操作电子设备的示图。
图4B是根据本发明的实施例的示出图4A的电子设备在从用户的口袋被移动到用户耳朵附近的位置时可如何以可预测的方式旋转的示图。
图5A是根据本发明的实施例的示出沿电子设备的边的传感器可如何检测什么时候用户正使用其左手持有电子设备的示图。
图5B是根据本发明的实施例的示出沿电子设备的边的传感器可如何检测什么时候用户正使用其右手操作电子设备的示图。
图6A是根据本发明的实施例的示出电子设备中的触摸传感器可如何被用于检测什么时候用户正使用其左手操作电子设备的示图。
图6B是根据本发明的实施例的示出电子设备中的触摸传感器可如何被用于检测什么时候用户正使用其右手操作电子设备的示图。
图7A是根据本发明的实施例的示出电子设备中的指纹传感器可如何检测什么时候用户正使用其左手操作电子设备的示图。
图7B是根据本发明的实施例的示出电子设备中的指纹传感器可如何检测什么时候用户正使用其右手操作电子设备的示图。
图8A是根据本发明的实施例的可如何对用其左手操作电子设备的用户呈现用户界面元素的示图。
图8B是根据本发明的实施例的可如何对用其右手操作电子设备的用户呈现用户界面元素的示图。
图9A是根据本发明的实施例的在用户用其左手操作电子设备时可如何将虚拟按钮定位为更接近显示器的左边缘的示图。
图9B是根据本发明的实施例的在用户用其右手操作电子设备时可如何将虚拟按钮定位为更接近显示器的右边缘的示图。
图10是根据本发明的实施例的包含于操作具有手检测电路的电子设备中的解释性步骤的流程图。
具体实施方式
在图1中示出可设置有手检测电路的解释性电子设备。图1的电子设备10可以是手持电子设备或其它电子设备。例如,电子设备10可以是蜂窝电话、媒体播放器或其它手持便携式设备、诸如腕表设备、吊坠设备的稍微更小的便携式设备或其它可穿戴或小型化设备、游戏装备、平板计算机、笔记本计算机、台式计算机、电视机、计算机监视器、集成于计算机显示器中的计算机或其它的电子装备。
在图1的例子中,设备10包括诸如显示器14的显示器。显示器14可安装于诸如外壳12的外壳中。有时可被称为外封壳或壳体的外壳12可由塑料、玻璃、陶瓷、纤维复合材料、金属(例如,不锈钢、铝等)、其它适当的材料或这些材料中的任意两种或更多种的组合形成。可通过使用外壳12中的一些或全部被加工或模制成单个结构的单体构成或通过使用多个结构(例如,内部框架结构、形成外部外壳表面的一个或多个结构等)形成外壳12。
显示器14可以是加入导电电容触摸传感器电极或其它触摸传感器部件(例如,电阻触摸传感器部件、声学触摸传感器部件、基于力的触摸传感器部件、基于光的触摸传感器部件等)的层的触摸屏显示器,或者可以是非触摸敏感的显示器。电容触摸屏电极可由氧化铟锡衬垫或其它透明导电结构的阵列形成。
显示器14可包含由液晶显示器(LCD)部件形成的显示像素的阵列、电泳显示像素的阵列、等离子显示像素的阵列、有机发光二极管显示像素的阵列、电湿显示像素的阵列或基于其它显示器技术的显示像素。显示器14的亮度可以是可调的。例如,显示器14可包括由可用于增加或减小显示器背光水平并由此调整显示器亮度的诸如灯或发光二极管的光源形成的背光单元。显示器14也可包含具有可调强度的有机发光二极管像素或其它像素。在这种类型的显示器中,可通过调整用于控制个体显示像素的驱动信号的强度来调整显示器亮度。
可通过使用诸如透明玻璃或透明塑料的层的显示器覆盖层保护显示器14。可在显示器覆盖层中形成开口。例如,可在显示器覆盖层中形成开口,以容纳诸如按钮16的按钮。也可在显示器覆盖层中形成开口,以容纳诸如扬声器端口18的端口。
在显示器14的中心,显示器14可包含有效显示像素的阵列。该区域有时被称为显示器的有效区域。围绕有效显示区域周边的矩形环形区域可以不包含任何有效显示像素,并因此有时可被称为显示器的非有效区域。显示器14中的显示器覆盖层或其它显示器层可在非有效区域中设置有不透明掩盖层,以隐藏内部部件不被用户看见。
在图2中示出设备10的示意图。如图2所示,电子设备10可包含诸如存储装置和处理电路40的控制电路。存储装置和处理电路40可包含一个或多个不同类型的存储装置,诸如硬盘驱动存储装置、非易失性存储器(例如,快擦写存储器或其它的电可编程只读存储器)、易失性存储器(例如,静态或动态随机存取存储器)等。存储装置和处理电路40中的处理电路可被用于控制设备10的操作。处理电路可基于一个或多个微处理器、微控制器、数字信号处理器、基带处理器集成电路、专用集成电路等。
通过一个适当的布置,存储装置和处理电路40可被用于运行设备10上的软件,诸如因特网浏览应用、电子邮件应用、媒体回放应用、活动登录应用、健康应用、操作系统功能、用于捕获和处理图像的软件、实现与收集和处理传感器数据相关联的功能的软件、对显示器亮度和触摸传感器功能进行调整的软件等。
为了支持与外部装备的交互,存储装置和处理电路40可被用于实现通信协议。可通过使用存储装置和处理电路40实现的通信协议包括因特网协议、无线局域网协议(例如,IEEE802.11协议-有时称为)、诸如协议的用于其它短程无线通信链路的协议等。
输入输出电路32可被用于允许从用户或外部设备向设备10供给输入以及允许从设备10向该用户或外部设备提供输出。
输入输出电路32可包含有线或无线通信电路34。通信电路34可包含由一个或多个集成电路形成的射频(RF)收发器电路、功率放大器电路、低噪声输入放大器、无源RF部件、一个或多个天线和用于处理RF无线信号的其它电路。也可使用光(例如,使用红外通信)来发送无线信号。如图2所示,电路34可包含一个或多个射频收发器,诸如蜂窝电话收发器电路42(例如,一个或多个蜂窝电话发送器和/或接收器)、IEEE802.11收发器电路44(例如,一个或多个无线局域网发送器和/或接收器)、诸如低能量(蓝牙LE)发送器和/或接收器的收发器电路46和卫星导航系统接收器电路48(例如,全球定位系统接收器或其它卫星导航系统接收器)。
输入输出电路32可包含输入输出设备36,诸如按钮、操纵杆、点击轮、滚动轮、触摸屏、具有诸如跟踪板或基于触摸传感器的按钮的触摸传感器的其它部件、振动器、诸如麦克风和扬声器的音频部件、具有图像传感器或相应的透镜系统的诸如照相机模块的图像捕获设备、键盘、状态指示器灯、音调发生器、键板、键盘和用于从用户或其他外部来源收集输入和/或为用户生成输出的其他装备。
诸如图2的传感器38的传感器电路可包含用于收集关于环境光水平的信息的环境光传感器、接近性传感器部件(例如基于光的接近性传感器和/或基于其它结构的接近性传感器)、加速度计、陀螺仪、磁传感器和其他传感器结构。图2的传感器38可例如包括一个或多个微机电系统(MEMS)传感器(例如,加速度计、陀螺仪、麦克风、力传感器、压力传感器、电容式传感器或通过使用微机电系统技术形成的任何其它适当类型的传感器)。如果希望的话,可通过使用微机电系统技术形成设备10中的其它部件。
传感器38可包含手检测电路50(有时称为支配手传感器电路)。手检测电路50可包含用于检测用户的手并且用于确定正在使用哪只手来操作电子设备10的一个或多个传感器。可在手检测电路50中使用的传感器包含加速度计(例如,沿一个、两个、三个、四个、五个或六个轴测量加速度的加速度计)、陀螺仪、罗盘、空气压力传感器、其它适当类型的运动传感器、力传感器、开关或其它机械传感器、电容传感器、基于电阻的传感器、基于光的传感器和/或诸如基于超声声学的传感器(作为例子)的基于声学的传感器。
手检测电路50可由专用于确定是右手还是左手正在操作电子设备10的指定手检测传感器形成,或者可由执行其它功能(例如,除了检测正在使用哪只手来操作电子设备10之外的功能)的电子部件形成。例如,手检测电路50可从电子设备10中的触摸传感器(例如,形成触摸屏显示器14的一部分的触摸传感器)、电子设备10中的指纹传感器、电子设备10中的运动传感器、电子设备10中的天线或电子设备10中的其它适当的电子部件收集信息,以确定正在使用哪只手来操作电子设备10。
手检测电路50可使用诸如存储装置和处理电路40的控制电路,以存储和处理通过使用手检测电路50收集的传感器数据,并且基于正在使用哪只手来操作电子设备10而采取适当的动作。控制电路40可动态地调整操作系统以容纳单手操作,并且具体而言,定制用户界面,使得用户可更容易地用一只手操作该电子设备。
在图3中示出了电子设备10的截面侧视图。如图3所示,显示器14可被安装于外壳12中。可在显示器14的有效区域AA中的显示器覆盖层52下面形成诸如液晶显示器模块、有机发光二极管显示器层或包含有效显示像素的阵列的其它显示器结构的显示器结构58。显示器结构58可包含偏光器层、滤色器层、薄膜晶体管层、粘接剂层、液晶材料层或用于在显示器14上产生图像的其它结构。显示器覆盖层52可由透明玻璃层、透明塑料层或其它覆盖层材料形成。诸如墨水(例如,黑色墨水或白色墨水或其它颜色的墨水)层的不透明掩盖层可在非有效区域IA中的显示器覆盖层52的下侧形成,并且可被用于隐藏内部部件不被用户看见。
如图3所示,显示器14可包含附接到覆盖层52上的诸如触摸传感器56的触摸敏感部件的一个或多个层。触摸传感器56可通过使用诸如透光粘接剂(OCA)54的粘接剂材料附接到覆盖层52上。粘接剂54可以是液体粘接剂、光硬化粘接剂、压力敏感粘接剂或其它适当的粘接剂。触摸传感器56可包含由诸如氧化铟锡的透明导电材料形成的诸如电容触摸传感器电极的阵列的触摸传感器部件。显示器结构58可通过使用透光粘接剂54的附加层附接到触摸传感器56上。
电子设备10可包含诸如指纹传感器60的生物计量传感器。指纹传感器60可被配置为在用户将其手指放在传感器60上时读取用户的指纹。传感器60可包括由诸如蓝宝石的各向异性电介质材料形成的传感器表面。传感器表面捕获用户指纹的详细图像,并且,处理电路(例如,图2的处理电路40)读取指纹的脊(例如,以使该指纹与以前存储的指纹匹配)。
可在使传感器结构60与设备10中的处理电路互连时使用诸如电介质基板上的金属线的通信路径。作为例子,传感器60可被安装于诸如基板66的基板上。基板66可通过使用诸如连接器68(例如,板对板连接器或其它连接结构)的连接器与设备10中诸如解释性基板62的附加基板耦合。
设备10可以具有诸如部件64的电气部件。部件64可包含集成电路、按钮、连接器、传感器和图2所示的类型的其它电路。部件64可被安装于诸如基板62和/或基板66的一个或多个基板上。基板62和66可以是诸如模制塑料载体的电介质载体,或者可以是印刷电路。例如,基板62和66可以是印刷电路,诸如由诸如纤维玻璃填充环氧树脂的材料形成的刚性印刷电路板或由聚酰亚胺或其它柔性聚合物层的片材形成的柔性印刷电路。
在一些实施例中,手检测电路50可使用来自指纹传感器60的指纹信息,以确定哪只手是用户的支配手和/或确定当前正在使用哪只手操作电子设备10。指纹信息可例如被用于确定用户在指纹传感器60上放置其手指的角度,该角度又可指示正在使用左手还是右手。指纹中的脊的取向也可指示用户的偏手性。如果希望的话,可在正常的指纹检测操作期间(例如,在用户解锁电子设备10时的认证操作期间)由手检测电路收集指纹信息。
在一些实施例中,手检测电路50可使用触摸传感器56来确定哪只手是用户的支配手和/或确定当前正在使用哪只手操作电子设备10。例如,触摸传感器56可被用于收集关于在正常的触摸输入操作期间用户的拇指所跟随的弧形路径的信息。弧形路径信息可指示正在使用哪只手操作电子设备10。
如果希望的话,手检测电路50可通过使用电子设备10中诸如边传感器70的其它传感器收集信息。边传感器70可位于电子设备10的一个或多个侧壁12S上,并且可被用于检测用户的手在电子设备10的边缘上的接近性和/或接触。边传感器70可位于电子设备10的一个、两个、三个或所有四个边上。边传感器70可例如位于电子设备10的左手边和电子设备10的相对的右手边。通过确定电子设备10的边是否被用户的手接触和/或通过确定一个边相对于相对的边有多少被用户的手覆盖,手检测电路50可确定电子设备10是被用户的左手还是右手操作。
边传感器70可由力传感器、开关或其它机械传感器、电容传感器、基于电阻的传感器、基于光的传感器和/或诸如基于超声声学的传感器(作为例子)的基于声学的传感器形成。在一个解释性的布置中,传感器70可由触摸传感器元件形成。形成触摸传感器70的触摸传感器元件可基于任何适当的触摸传感器技术,诸如电容触摸技术、声学触摸技术、基于力传感器的触摸技术或电阻触摸技术(作为例子)。
在电容触摸传感器中,电容电极可由导电材料形成。例如,触摸传感器电极可由诸如氧化铟锡的透明导电材料形成。有时在这里作为例子描述传感器70是电容触摸传感器并且用于触摸传感器70的触摸传感器电极由透明导电材料形成的构成。如果希望的话,可对传感器70使用其它类型的布置(例如,具有非电容传感器的布置、具有由氧化铟锡以外的材料形成的电容电极的布置、由非透明金属形成的触摸传感器电极等)。
在一些实施例中,手检测电路50可从电子设备10中的一个或多个运动传感器收集信息,以确定正在使用哪只手操作电子设备10。拥有电子设备10的用户可在使用和非使用过程中通过一系列的可预测的运动移动电子设备10,并且,这些运动可指示用户的偏手性。
在图4A和图4B中表示示出用户对电子设备10的运动可如何指示正在使用哪只手操作电子设备10的示图。图4A表示电子设备10在设备未被使用时(例如,当设备10处于用户的口袋中时)可如何取向。图4B表示电子设备10在设备被使用时(例如,当用户正操作电子设备10的触摸屏显示器14时和/或当电子设备10在电话呼叫的过程中处于用户耳朵附近的位置中时)可如何取向。电子设备10中的运动传感器电路(例如,图2的传感器38中的运动传感器)可在设备从非使用位置移动到使用位置时跟踪电子设备10的取向的变化。该取向的变化可指示用户的偏手性。
例如在图4A中,用户72在其口袋中具有电子设备10。在典型的场景中,电子设备10的前面(例如,电子设备10的显示器侧)在处于用户的口袋中期间面向用户的身体。电子设备10的顶部从用户指向方向74。
在图4B中,用户72从其口袋取出电子设备10并且在两个位置之一持有该设备。在位置80中,在用户72观看电子设备10的显示器期间,用户在其脸的前面持有电子设备10。在该位置中,电子设备10的前面面向用户并且电子设备10的顶部指向方向76。在位置82中,在用户72接听来自电子设备10中的扬声器的音频和/或用户72对电子设备10中的麦克风讲话(例如,在电话呼叫期间)期间,用户72紧挨着其耳朵持有电子设备10。在该位置中,电子设备10的前面面向用户并且电子设备10的顶部沿方向78指向用户后面。
电子设备10在从图4A的口袋位置移动到图4B的使用中位置80或82时的旋转和取向变化可指示用户偏好使用哪只手操作电子设备10。例如,图4A和图4B的对左手用户的电子设备10的旋转可能是逆时针方向,而对右手用户执行类似的移动时的电子设备的旋转可能是顺时针方向(作为例子)。运动传感器(例如,陀螺仪和/或沿一个、两个、三个、四个、五个或六个轴测量运动的加速度的加速度计)可检测电子设备10在从一个位置移动到另一位置时的取向变化和旋转,该取向变化和旋转又可被手检测电路50使用以确定正在使用左手还是右手操作电子设备10。
如果希望的话,电子设备10可存储关于手势的类型的信息,使得设备可辨别使用一只手的时候与使用另一只手的时候。该信息可基于以前收集的数据(例如,在制造过程中收集和存储的数据),和/或可基于在电子设备10的操作过程中收集的数据。
如果希望的话,可在某些活动期间收集取向信息,以确定用户正在使用哪只手。例如,可以使用加速度计以确定电子设备10在电话呼叫期间的取向,该取向又可被用于确定正在紧靠用户的右耳还是左耳持有电子设备10。如果加速度计检测到用户将电子设备10举起到其右耳,那么手检测电路50可确定用户当前正在使用其右手操作电子设备10。如果加速度计重复检测到用户将电子设备10举起到其右耳,那么手检测电路50可确定用户是右利手。
图5A和图5B示出沿电子设备10的边的传感器可如何被用于确定是正在使用右手还是左手来持有和/或操作电子设备10。电子设备10可例如包括沿左边94L的左边传感器70L和沿右边94R的右边传感器70R。传感器70可以是被配置为检测诸如用户手指的外部对象沿电子设备10的边的接近性或接触的接近性传感器和/或触摸传感器。
在图5A的例子中,正在使用用户的左手92L操作电子设备10。通过这种类型的抓握,用户的左手拇指和手掌可分别在区域86A和86B中与电子设备10的左边94L接触。其它手指可在区域84A、84B、84C和84D中与电子设备10的右边94R接触。边传感器70可检测左边94L和右边94R上的接触区域,这些区域又可被手检测电路50用来确定正在使用右手还是左手操作电子设备10。手检测电路50可使用传感器70确定哪个边被更多地覆盖和/或确定哪个边具有更多数量的接触点。例如,如图5A所示,左边94L与右边94R相比可具有更大的被手92L覆盖的部分,但与右边94R相比,可具有更少数量的接触区域(例如,可具有两个接触区域而不是四个)。基于该信息,手检测电路50可确定正在使用左手以持有和操作电子设备10。
在图5B的例子中,正在使用用户的右手92R操作电子设备10。通过这种类型的抓握,用户的右手拇指和手掌可分别在区域90A和90B中与电子设备10的右边94R接触。其它手指可在区域88A、88B、88C和88D中与电子设备10的左边94L接触。边传感器70可检测左边94L和右边94R上的接触区域,这些区域又可被手检测电路50用来确定正在使用右手还是左手操作电子设备10。手检测电路50可使用传感器70以确定哪个边被更多地覆盖和/或确定哪个边具有更多数量的接触点。例如,如图5B所示,右边94R与左边94L相比可具有更大的被手92R覆盖的部分,但与左边94L相比,可具有更少数量的接触区域(例如,可具有两个接触区域而不是四个)。基于该信息,手检测电路50可确定正在使用右手以持有和操作电子设备10。
如果希望的话,传感器70可由电子设备10中的一个或多个天线形成。电子设备10可例如具有多个天线,使得即使在一个天线不在最佳的性能条件下工作时,也可保持最佳的天线性能。当一个天线的性能受损时(例如,由于存在诸如用户的手的外部对象),电子设备可切换到使用不同的天线以传送和接收射频信号。手检测电路50可使用天线衰减信息和/或关于哪个天线正在被积极使用的信息,以确定电子设备10正如何被用户持有。例如,使用一个天线可指示电子设备10的某个部分被或不被用户的手覆盖,这又可指示正在使用右手还是左手操作电子设备10。但是,这仅是解释性的。如果希望的话,可通过使用诸如电容触摸传感器电极和/或基于光的接近性传感器结构的接近性和/或触摸感测技术来形成传感器70。
图6A和图6B示出电子设备10中的触摸传感器可如何被用于收集关于正在使用哪只手操作电子设备10的信息。当用户通过使用一只手操作电子设备10时,用户的拇指常被用作用户用以提供对触摸屏显示器14的触摸输入的主要手指。通过这种类型的抓握,显示器14的某些区域与其它区域相比可能更容易够到。这又可导致与显示器14的一定的接触图案。
例如,与右上角和右下角(在右边94R上)相比,图6A的左手92L可趋于与显示器14的左上角和左下角(在左边94L上)进行更多的接触,这仅仅是由于用用户的左手拇指可以更容易够到这些区域。在显示器14的中心部分中,与显示器14的左边94L上的中心部分相比,用户的左手拇指可趋于与显示器14的右边94R上的中心部分进行更多的接触。通过重复使用,触摸传感器56(图2)可检测与用户左手拇指跟随的诸如弧形路径96L的弧形路径对应的触摸图案。基于所检测的图案96L,手检测电路50可确定正在使用左手92L操作电子设备10。
与左上角和左下角(在左边94L上)相比,图6B的右手92R可趋于与显示器14的右上角和右下角(在右边94R上)进行更多的接触,这仅仅是由于用用户的右手拇指可以更容易够到这些区域。在显示器14的中心部分中,与显示器14的右边94R上的中心部分相比,用户的右手拇指可趋于与显示器14的左边94L上的中心部分进行更多的接触。通过重复使用,触摸传感器56(图2)可检测与用户右手拇指跟随的诸如弧形路径96R的弧形路径对应的触摸图案。基于所检测的图案96R,手检测电路50可确定正在使用右手92R操作电子设备10。
图7A和图7B示出电子设备10中的指纹传感器可如何被用于收集关于正在使用哪只手操作电子设备10的信息。当用户使用一只手操作电子设备10时,用户有时会将其拇指放在指纹传感器60上(例如,当按压诸如图1的按钮16的按钮时和/或在身份验证操作期间)。由指纹传感器60收集的指纹信息可指示正在使用哪只手操作电子设备10。
如图7A所示,例如,左拇指指纹98L的纵轴100L一般会关于中心轴108以正角度102旋转。相反,图7B中右拇指指纹98R的纵轴100R一般会关于中心轴108以负角度旋转。手检测电路50可使用关于用户拇指指纹的取向的信息(例如,关于中心轴108的拇指指纹的角度),以确定正在使用哪只手操作电子设备10。
拇指指纹中的脊的取向也可指示正在使用哪只手。例如,左拇指指纹98L的脊106L可趋于以一种方式形成弧形,而右拇指指纹98R的脊106R可趋于以另一种方式形成弧形。如果希望的话,手检测电路50可使用来自指纹传感器60的脊信息以确定正在使用哪只手操作电子设备10。
图8A和图8B示出根据正在使用哪只手操作电子设备10可如何调整用户界面元素。在图8A的例子中,显示器14提示用户沿方向110滑动图标114以解锁设备并由此使得实现某些功能和动作。在图8B的例子中,显示器14提示用户沿方向112滑动图标114以解锁设备。根据正在使用哪只手而调整滑动的方向可使得用户更容易用一只手操作电子设备。例如,左手持有电子设备10的用户会发现沿方向110比沿方向112更容易滑动图标114。相反,右手持有电子设备10的用户会发现沿方向112比沿方向110更容易滑动图标114。通过使用手检测电路50来确定正在使用哪只手操作电子设备10,控制电路(例如,图2的控制电路40)可基于正在使用哪只手来调整“滑动以解锁”方向。如果希望的话,滑动方向可基于用户偏好和/或可针对特定的手而被预设(例如,方向110可以是左手用户的滑动方向,而方向112可以是右手用户的滑动方向,反之亦然)。
图9A和图9B表示根据正在使用哪只手操作电子设备10可如何调整用户界面元素的另一解释性方式。在图9A的例子中,手检测电路50可确定用户正在使用其左手92L操作电子设备10。响应于确定正在使用左手92L,控制电路40可将诸如虚拟按钮或图标116的虚拟按钮定位为更接近显示器14的左边94L。在图9B的例子中,手检测电路50可确定用户正在使用其右手92R操作电子设备10。响应于确定正在使用右手92R,控制电路40可将诸如虚拟按钮或图标116的虚拟按钮定位为更接近显示器14的右边94R。
图标116可例如形成解锁操作期间在用户被提示键入密码时所显示的小键盘的一部分,可形成拨打操作期间在用户拨打电话号码时所显示的小键盘的一部分,或者可与任何其它适当的显示器图标或虚拟按钮对应。在一个例子中,诸如在电子设备10上运行的浏览器应用中的“后退”按钮的虚拟按钮可在用户正在使用其左手操作电子设备10时更接近显示器14的左边94L,但可在用户正在使用其右手操作电子设备10时更接近右边94R。
图10是包含于用诸如图2的手检测电路50的手检测电路操作电子设备10中的解释性步骤的流程图。
在步骤200中,手检测电路50可从电子设备10中的一个或多个传感器收集传感器数据。这可包括例如从电子设备10中的一个或多个运动传感器(例如,从电子设备10中的加速度计和/或陀螺仪)收集运动传感器数据、从沿电子设备10的边的传感器70收集触摸或接近性数据、从电子设备10中的一个或多个天线收集天线衰减信息、从电子设备10中的触摸传感器56收集弧形路径或触摸图案信息、从电子设备10中的指纹传感器60收集指纹信息和/或从电子设备10中的其它电子部件收集信息。
在步骤202中,手检测电路50可基于在步骤200中收集的传感器数据确定正在使用哪只手操作电子设备10。例如,可以使用运动传感器数据确定用户如何移动电子设备10并由此确定正在使用哪只手操作电子设备10;可以使用来自边传感器70的触摸和/或接近性数据,以确定电子设备10的哪个边被更多地覆盖和/或确定哪个边具有更多数量的接触点,这又可被用于确定正在使用哪只手操作电子设备10;可以使用天线衰减信息以确定天线信号是否因为用户的手存在于电子设备10上的特定位置中而衰减,这又可被用于确定正在使用哪只手操作电子设备10;可以使用来自触摸传感器56的触摸输入图案,以确定用户拇指的弧形路径,这又可指示正在使用哪只手操作电子设备10;以及可以使用拇指指纹信息以确定拇指指纹的取向角度和/或拇指指纹内的脊的取向,这又可指示正在使用哪只手操作电子设备10。
在步骤204中,控制电路(例如,图2的控制电路40)可基于正在使用哪只手操作电子设备10而采取适当的动作。例如,诸如图8A和图8B的图标114和图9A和图9B的图标116的用户界面元素可被定位为使得单手操作变得更容易。这可包括将图标定位为当正在使用用户的左手操作电子设备10时更接近显示器的左边以及当正在使用用户的右手操作电子设备10时更接近显示器的右边。
使用传感器确定用户的偏手性仅是解释性的。如果希望的话,控制电路可根据用户偏好调整用户界面元素。例如,用户可选择其是否愿意使用户界面元素针对右手使用或针对左手使用进行优化。
根据实施例,提供一种电子设备,该电子设备包括:收集传感器数据的至少一个传感器;基于该传感器数据确定电子设备正在由用户的左手还是由右手操作的控制电路;以及显示虚拟按钮的触摸敏感显示器,该控制电路基于电子设备正在由用户的左手还是由右手操作而将虚拟按钮定位在触摸敏感显示器上。
根据另一实施例,该至少一个传感器包含运动传感器。
根据另一实施例,该至少一个传感器包含触摸传感器。
根据另一实施例,该触摸传感器包含形成触摸敏感显示器的一部分的电容触摸传感器电极的阵列。
根据另一实施例,该至少一个传感器包含收集指纹信息的指纹传感器,并且,控制电路基于该指纹信息确定电子设备正在由左手还是由右手操作。
根据另一实施例,电子设备具有第一和第二相对的边,并且,该至少一个传感器包含第一边上的第一触摸传感器和第二边上的第二触摸传感器。
根据另一实施例,第一触摸传感器和第二触摸传感器包含在触摸敏感显示器的相对边上的第一电容触摸传感器和第二电容触摸传感器。
根据另一实施例,电子设备具有第一和第二相对的边,并且,该至少一个传感器包含在第一边上的第一接近性传感器和在第二边上的第二接近性传感器。
根据另一实施例,第一接近性传感器和第二接近性传感器包含第一基于光的接近性传感器和第二基于光的接近性传感器。
根据实施例,提供一种用于操作电子设备的方法,该方法包括:用电子设备中的至少一个传感器收集传感器数据;用电子设备中的控制电路基于该传感器数据确定电子设备正在由用户的右手还是由左手操作;以及用该控制电路基于电子设备正在由用户的右手还是由左手操作而将虚拟按钮定位在触摸敏感显示器上。
根据另一实施例,该至少一个传感器包含运动传感器,并且收集传感器数据包含检测电子设备的旋转。
根据另一实施例,该至少一个传感器包含收集来自用户的触摸输入的触摸传感器,并且收集传感器数据包含检测触摸输入中的图案。
根据另一实施例,该至少一个传感器包含指纹传感器,并且收集传感器数据包含收集指纹信息。
根据另一实施例,确定电子设备正在由用户的右手还是由左手操作包含确定拇指指纹的取向。
根据另一实施例,电子设备包含第一和第二相对的边,并且,该至少一个传感器包含在第一边上的第一传感器和在第二边上的第二传感器,并且,确定电子设备正在由用户的右手还是由左手操作包含比较来自第一传感器和第二传感器的信息。
根据实施例,提供一种用于操作具有触摸敏感显示器的便携式电子设备的方法,该方法包括:确定触摸敏感显示器正在由左手还是由右手操作;以及基于电子设备正在由左手还是由右手操作而在触摸敏感显示器上布置图标。
根据另一实施例,触摸敏感显示器具有第一和第二相对的边缘,该方法包括:响应于确定触摸敏感显示器正在由左手操作,沿触摸敏感显示器的第一边缘布置图标。
根据另一实施例,该方法包括:响应于确定触摸敏感显示器正在由右手操作,沿触摸敏感显示器的第二边缘布置图标。
根据另一实施例,该方法包括:用至少一个传感器收集传感器数据,确定触摸敏感显示器正在由左手还是由右手操作包含基于传感器数据确定触摸敏感显示器正在由左手还是由右手操作。
根据另一实施例,该至少一个传感器包含选自包含电容触摸传感器、基于光的接近性传感器、运动传感器和指纹传感器的组的至少一个传感器。
以上仅解释本发明的原理,并且,本领域技术人员可在不背离本发明的范围和精神的情况下进行各种修改。可以单独地或者以任意的组合实现以上的实施例。

Claims (20)

1.一种电子设备,其特征在于,包括:
至少一个传感器,其收集传感器数据;
控制电路,其基于所述传感器数据确定电子设备正在由用户的左手还是由右手操作;以及
触摸敏感显示器,其显示虚拟按钮,其中控制电路基于电子设备正在由所述用户的左手还是由右手操作而将所述虚拟按钮定位在所述触摸敏感显示器上。
2.根据权利要求1所述的电子设备,其中,所述至少一个传感器包含运动传感器。
3.根据权利要求1所述的电子设备,其中,所述至少一个传感器包含触摸传感器。
4.根据权利要求3所述的电子设备,其中,所述触摸传感器包含形成所述触摸敏感显示器的一部分的电容触摸传感器电极的阵列。
5.根据权利要求1所述的电子设备,其中,所述至少一个传感器包含收集指纹信息的指纹传感器,并且其中所述控制电路基于所述指纹信息确定电子设备正在由左手还是由右手操作。
6.根据权利要求1所述的电子设备,其中,电子设备具有第一和第二相对的边,并且其中,所述至少一个传感器包含在第一边上的第一触摸传感器和在第二边上的第二触摸传感器。
7.根据权利要求6所述的电子设备,其中,所述第一触摸传感器和所述第二触摸传感器包含在触摸敏感显示器的相对边上的第一电容触摸传感器和第二电容触摸传感器。
8.根据权利要求1所述的电子设备,其中,电子设备具有第一和第二相对的边,并且其中,所述至少一个传感器包含在第一边上的第一接近性传感器和在第二边上的第二接近性传感器。
9.根据权利要求8所述的电子设备,其中,所述第一接近性传感器和所述第二接近性传感器包含第一基于光的接近性传感器和第二基于光的接近性传感器。
10.一种用于操作电子设备的方法,其特征在于,包括:
用电子设备中的至少一个传感器收集传感器数据;
用电子设备中的控制电路,基于所述传感器数据确定电子设备正在由用户的右手还是由左手操作;以及
用所述控制电路基于电子设备正在由所述用户的右手还是由左手操作而将虚拟按钮定位在触摸敏感显示器上。
11.根据权利要求10所述的方法,其中,所述至少一个传感器包含运动传感器,并且其中,收集所述传感器数据包含检测电子设备的旋转。
12.根据权利要求10所述的方法,其中,所述至少一个传感器包含收集来自用户的触摸输入的触摸传感器,并且其中,收集所述传感器数据包含检测所述触摸输入中的图案。
13.根据权利要求10所述的方法,其中,该至少一个传感器包含指纹传感器,并且其中,收集所述传感器数据包含收集指纹信息。
14.根据权利要求13所述的方法,其中,确定电子设备正在由所述用户的右手还是由左手操作包含确定拇指指纹的取向。
15.根据权利要求10所述的方法,其中,电子设备包含第一和第二相对的边,其中,该至少一个传感器包含在第一边上的第一传感器和在第二边上的第二传感器,并且其中,确定电子设备正在由用户的右手还是由左手操作包含比较来自所述第一传感器和所述第二传感器的信息。
16.一种用于操作具有触摸敏感显示器的便携式电子设备的方法,其特征在于,包括:
确定触摸敏感显示器正在由左手还是由右手操作;以及
基于电子设备正在由左手还是由右手操作而在所述触摸敏感显示器上布置图标。
17.根据权利要求16所述的方法,其中,所述触摸敏感显示器具有第一和第二相对的边缘,所述方法还包括:
响应于确定所述触摸敏感显示器正在由左手操作,沿所述触摸敏感显示器的第一边缘布置图标。
18.根据权利要求17所述的方法,还包括:
响应于确定所述触摸敏感显示器正在由右手操作,沿所述触摸敏感显示器的第二边缘布置图标。
19.根据权利要求16所述的方法,还包括:
用至少一个传感器收集传感器数据,其中,确定所述触摸敏感显示器正在由左手还是由右手操作包含:基于所述传感器数据确定所述触摸敏感显示器正在由左手还是由右手操作。
20.根据权利要求19所述的方法,其中,所述至少一个传感器包含选自包含电容触摸传感器、基于光的接近性传感器、运动传感器和指纹传感器的组的至少一个传感器。
CN201510718090.2A 2014-12-18 2015-10-29 具有手检测电路的电子设备 Pending CN105718186A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/575,051 2014-12-18
US14/575,051 US9588643B2 (en) 2014-12-18 2014-12-18 Electronic devices with hand detection circuitry

Publications (1)

Publication Number Publication Date
CN105718186A true CN105718186A (zh) 2016-06-29

Family

ID=55394827

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201520849808.7U Active CN205068296U (zh) 2014-12-18 2015-10-29 电子设备和便携式电子设备
CN201510718090.2A Pending CN105718186A (zh) 2014-12-18 2015-10-29 具有手检测电路的电子设备

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201520849808.7U Active CN205068296U (zh) 2014-12-18 2015-10-29 电子设备和便携式电子设备

Country Status (2)

Country Link
US (1) US9588643B2 (zh)
CN (2) CN205068296U (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106371606A (zh) * 2016-09-19 2017-02-01 京东方科技集团股份有限公司 一种终端操作设备及其操作方法
CN108594995A (zh) * 2018-04-13 2018-09-28 广东小天才科技有限公司 一种基于手势识别的电子设备操作方法及电子设备
CN108885481A (zh) * 2016-08-30 2018-11-23 苹果公司 用于电子设备的传感器组件
CN109933271A (zh) * 2017-12-18 2019-06-25 佳能株式会社 数据处理装置和方法、用户界面调节装置和方法及介质
CN111831108A (zh) * 2019-04-19 2020-10-27 宏达国际电子股份有限公司 移动装置及其控制方法
CN117222974A (zh) * 2021-04-21 2023-12-12 高通股份有限公司 用于单手移动设备控制的用户界面

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105703846A (zh) * 2014-11-28 2016-06-22 展讯通信(上海)有限公司 检测移动终端使用状态自适应调整天线状态的系统及方法
KR102422181B1 (ko) * 2015-06-02 2022-07-18 삼성전자주식회사 전자 장치의 디스플레이 제어 방법 및 그 전자 장치
CN106293443B (zh) * 2015-06-19 2019-09-20 北京智谷睿拓技术服务有限公司 信息处理方法和设备
CN106325723B (zh) * 2015-06-19 2019-09-20 北京智谷睿拓技术服务有限公司 信息处理方法和设备
CN106293191B (zh) * 2015-06-19 2019-09-10 北京智谷睿拓技术服务有限公司 信息处理方法和设备
CN105224126B (zh) * 2015-09-17 2017-02-01 京东方科技集团股份有限公司 触摸屏及其压力触控检测方法
USD823892S1 (en) * 2015-09-30 2018-07-24 Htc Corporation Portion of a display screen with an animated icon
KR20170040706A (ko) * 2015-10-05 2017-04-13 삼성전자주식회사 한 손 조작 ui를 제공하는 전자 장치 및 방법
US9760758B2 (en) * 2015-12-30 2017-09-12 Synaptics Incorporated Determining which hand is being used to operate a device using a fingerprint sensor
US10839189B2 (en) * 2016-06-14 2020-11-17 Arizona Board Of Regents On Behalf Of Arizona State University Methods, apparatuses, and systems for radio-frequency imaging sensors for advanced fingerprint biometrics and medical imaging
US11210912B2 (en) 2016-06-24 2021-12-28 Nanoport Technology Inc. Tactile feedback actuator, electronic device using same, and method of operating same
CN106019737A (zh) * 2016-07-26 2016-10-12 京东方科技集团股份有限公司 显示面板及其制备方法、显示装置
CN106406736A (zh) * 2016-09-20 2017-02-15 深圳市金立通信设备有限公司 一种触控方法及终端
KR20180033380A (ko) * 2016-09-23 2018-04-03 삼성디스플레이 주식회사 표시 장치 및 이의 제조 방법
CN106534433A (zh) * 2016-11-01 2017-03-22 惠州Tcl移动通信有限公司 一种指纹识别按键及移动终端、手机
US10768196B2 (en) 2016-12-19 2020-09-08 Huami Inc. Determine wearing position of a wearable device
US10338812B2 (en) * 2017-01-10 2019-07-02 International Business Machines Corporation Replacement of physical buttons with virtual controls
US9916073B1 (en) 2017-01-17 2018-03-13 Nanoport Technology Inc. Electronic device having force-based modifiable graphical elements and method of operating same
KR20180087527A (ko) 2017-01-24 2018-08-02 삼성디스플레이 주식회사 표시 장치
US10183217B2 (en) 2017-04-13 2019-01-22 Facebook Technologies, Llc Hand-held controller using segmented capacitive touch trigger
US10537795B2 (en) 2017-04-26 2020-01-21 Facebook Technologies, Llc Hand-held controller using LED tracking ring
US10719129B2 (en) 2017-06-21 2020-07-21 Nanoport Technology Inc. Compound haptic effects using multimodal tactile feedback actuator
US10912990B2 (en) * 2017-12-29 2021-02-09 Facebook Technologies, Llc Hand-held controller using sensors for hand disambiguation
KR102591789B1 (ko) * 2018-01-02 2023-10-23 삼성디스플레이 주식회사 표시 장치 및 이를 포함하는 전자 기기
US10838541B2 (en) * 2018-09-03 2020-11-17 Htc Corporation Method for operating handheld device, handheld device and computer-readable recording medium thereof
CN109190583B (zh) * 2018-09-18 2020-11-03 维沃移动通信有限公司 一种终端设备
US11550394B2 (en) * 2018-11-08 2023-01-10 Goto Group, Inc. Force-based control for a mobile device having a non-linear surface
US11520478B2 (en) * 2018-12-15 2022-12-06 Ncr Corporation Single-handed user interface
US11385784B2 (en) * 2019-01-31 2022-07-12 Citrix Systems, Inc. Systems and methods for configuring the user interface of a mobile device
US20210089182A1 (en) * 2019-09-25 2021-03-25 Sentons Inc. User interface provided based on touch input sensors
KR20210041785A (ko) 2019-10-08 2021-04-16 삼성전자주식회사 키 구조, 키 입력 방법 및 이를 이용하는 전자 장치
CN113552994A (zh) * 2020-04-23 2021-10-26 华为技术有限公司 一种触控操作方法及设备
US11494031B2 (en) 2020-08-23 2022-11-08 Sentons Inc. Touch input calibration
US11847293B2 (en) * 2021-08-05 2023-12-19 Rolland & Hamann Innovations, LLC Selectable input alterations

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060060875A (ko) * 2004-12-01 2006-06-07 레이디오펄스 주식회사 모바일 단말기에서 지문인식 스캐닝 기술을 응용한 컨텐츠제어방법
CN101183292A (zh) * 2006-11-16 2008-05-21 Lg电子株式会社 移动终端及其屏幕显示方法
CN101916161A (zh) * 2010-08-04 2010-12-15 宇龙计算机通信科技(深圳)有限公司 基于手指按压区域图形选择界面模式的方法及移动终端
CN102122227A (zh) * 2010-01-08 2011-07-13 索尼公司 信息处理装置和程序
CN103257818A (zh) * 2012-02-20 2013-08-21 联想(北京)有限公司 单手操作触摸屏图标的方法和装置
CN103455742A (zh) * 2012-06-04 2013-12-18 三星电子株式会社 提供基于指纹的快捷键的方法、机器可读存储介质和便携式终端
CN104156073A (zh) * 2014-08-29 2014-11-19 深圳市中兴移动通信有限公司 移动终端及其操作方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6947580B1 (en) * 1996-09-30 2005-09-20 Dalton Patrick Enterprises, Inc. Pointing device with biometric sensor
KR101612283B1 (ko) * 2009-09-10 2016-04-15 삼성전자주식회사 휴대용 단말기에서 사용자의 입력 패턴을 판단하기 위한 장치 및 방법
US20110087963A1 (en) 2009-10-09 2011-04-14 At&T Mobility Ii Llc User Interface Control with Edge Finger and Motion Sensing
JP5103538B2 (ja) * 2011-02-25 2012-12-19 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
US20130019192A1 (en) 2011-07-13 2013-01-17 Lenovo (Singapore) Pte. Ltd. Pickup hand detection and its application for mobile devices
KR101880968B1 (ko) * 2011-10-27 2018-08-20 삼성전자주식회사 터치스크린 휴대 기기에서 사용자 인터페이스 개체를 배치하는 방법 및 장치
US10082950B2 (en) 2011-11-09 2018-09-25 Joseph T. LAPP Finger-mapped character entry systems
KR101879333B1 (ko) * 2011-12-06 2018-07-17 엘지전자 주식회사 이동 단말기 및 그의 아이콘 배열방법
US9250768B2 (en) * 2012-02-13 2016-02-02 Samsung Electronics Co., Ltd. Tablet having user interface
US9141197B2 (en) * 2012-04-16 2015-09-22 Qualcomm Incorporated Interacting with a device using gestures
AU2013262488A1 (en) * 2012-05-18 2014-12-18 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9104313B2 (en) 2012-09-14 2015-08-11 Cellco Partnership Automatic adjustment of selectable function presentation on electronic device display
JP2014106849A (ja) 2012-11-29 2014-06-09 Toshiba Corp 電子機器、表示処理プログラム及び表示処理方法
KR20150003560A (ko) * 2013-07-01 2015-01-09 삼성전자주식회사 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 방법 및 장치
KR102138505B1 (ko) * 2013-07-10 2020-07-28 엘지전자 주식회사 이동단말기 및 그 제어방법
US9204288B2 (en) * 2013-09-25 2015-12-01 At&T Mobility Ii Llc Intelligent adaptation of address books
US20150089386A1 (en) * 2013-09-25 2015-03-26 At&T Mobility Ii Llc Intelligent Adaptation of Home Screens According to Handedness
US20150089360A1 (en) * 2013-09-25 2015-03-26 At&T Mobility Ii Llc Intelligent Adaptation of User Interfaces
US20150089359A1 (en) * 2013-09-25 2015-03-26 At&T Mobility Ii Llc Intelligent Adaptation of Home Screens

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060060875A (ko) * 2004-12-01 2006-06-07 레이디오펄스 주식회사 모바일 단말기에서 지문인식 스캐닝 기술을 응용한 컨텐츠제어방법
CN101183292A (zh) * 2006-11-16 2008-05-21 Lg电子株式会社 移动终端及其屏幕显示方法
CN102122227A (zh) * 2010-01-08 2011-07-13 索尼公司 信息处理装置和程序
CN101916161A (zh) * 2010-08-04 2010-12-15 宇龙计算机通信科技(深圳)有限公司 基于手指按压区域图形选择界面模式的方法及移动终端
CN103257818A (zh) * 2012-02-20 2013-08-21 联想(北京)有限公司 单手操作触摸屏图标的方法和装置
CN103455742A (zh) * 2012-06-04 2013-12-18 三星电子株式会社 提供基于指纹的快捷键的方法、机器可读存储介质和便携式终端
CN104156073A (zh) * 2014-08-29 2014-11-19 深圳市中兴移动通信有限公司 移动终端及其操作方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108885481A (zh) * 2016-08-30 2018-11-23 苹果公司 用于电子设备的传感器组件
US10969834B2 (en) 2016-08-30 2021-04-06 Apple Inc. Sensor assemblies for electronic devices
CN108885481B (zh) * 2016-08-30 2021-11-16 苹果公司 用于电子设备的传感器组件
US11429158B2 (en) 2016-08-30 2022-08-30 Apple Inc. Sensor assemblies for electronic devices
CN106371606A (zh) * 2016-09-19 2017-02-01 京东方科技集团股份有限公司 一种终端操作设备及其操作方法
CN106371606B (zh) * 2016-09-19 2021-02-26 京东方科技集团股份有限公司 一种终端操作设备及其操作方法
CN109933271A (zh) * 2017-12-18 2019-06-25 佳能株式会社 数据处理装置和方法、用户界面调节装置和方法及介质
CN109933271B (zh) * 2017-12-18 2022-06-17 佳能株式会社 数据处理装置和方法、用户界面调节装置和方法及介质
CN108594995A (zh) * 2018-04-13 2018-09-28 广东小天才科技有限公司 一种基于手势识别的电子设备操作方法及电子设备
CN111831108A (zh) * 2019-04-19 2020-10-27 宏达国际电子股份有限公司 移动装置及其控制方法
CN111831108B (zh) * 2019-04-19 2024-03-22 宏达国际电子股份有限公司 移动装置及其控制方法
CN117222974A (zh) * 2021-04-21 2023-12-12 高通股份有限公司 用于单手移动设备控制的用户界面

Also Published As

Publication number Publication date
US20160179338A1 (en) 2016-06-23
US9588643B2 (en) 2017-03-07
CN205068296U (zh) 2016-03-02

Similar Documents

Publication Publication Date Title
CN205068296U (zh) 电子设备和便携式电子设备
US10871830B2 (en) Proximity detection for an input mechanism of an electronic device
EP2720129B1 (en) Strategically located touch sensors in smartphone casing
US9008725B2 (en) Strategically located touch sensors in smartphone casing
KR101257964B1 (ko) 다기능 휴대용 장치
US20110087963A1 (en) User Interface Control with Edge Finger and Motion Sensing
US20120026110A1 (en) Electronic apparatus, processing method, and program
CN103988156A (zh) 输入接口、手持式电子装置以及制造输入接口的方法
CN110543210A (zh) 触摸和力感测装置和系统以及用于感测触摸和力的方法
TWI569184B (zh) Improved loop wearable touch display device
WO2019183772A1 (zh) 一种指纹解锁方法及终端
US7369119B2 (en) Handset device with dual side joystick
US8228313B2 (en) Keypad assembly and portable electronic device using same
CN108052228A (zh) 一种显示模组、显示模组的制作方法及移动终端
CN110472399B (zh) 电子设备及其控制方法
KR101546949B1 (ko) 정전식 터치패널을 갖는 개인휴대단말기용 케이스 및 그 작동방법
KR20210074910A (ko) 누설 전류에 의한 진동 감소용 금속 하우징을 갖는 전자 장치 및 상기 금속 하우징을 제조하는 방법
CN110308770A (zh) 电子设备及其控制方法
CN217187834U (zh) 一种电容触控肩键及移动终端
CN209447070U (zh) 一种指纹模组及终端
EP2487562B1 (en) Optical navigation module with alignment features
CN113589889A (zh) 电子设备及其控制方法
JP5102721B2 (ja) 携帯型電子装置
CN108681666B (zh) 手持装置及调整手持装置声音输入输出的方法
CN108073333A (zh) 触控模组、终端和电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160629