CN108388390B - 控制指纹传感器的设备和方法 - Google Patents
控制指纹传感器的设备和方法 Download PDFInfo
- Publication number
- CN108388390B CN108388390B CN201810104079.0A CN201810104079A CN108388390B CN 108388390 B CN108388390 B CN 108388390B CN 201810104079 A CN201810104079 A CN 201810104079A CN 108388390 B CN108388390 B CN 108388390B
- Authority
- CN
- China
- Prior art keywords
- fingerprint
- fingerprint sensor
- electronic device
- information
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000004913 activation Effects 0.000 claims abstract description 108
- 230000003213 activating effect Effects 0.000 claims abstract description 24
- 230000006870 function Effects 0.000 description 56
- 238000010586 diagram Methods 0.000 description 42
- 238000004891 communication Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000001413 cellular effect Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 239000006059 cover glass Substances 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 239000008103 glucose Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000007933 dermal patch Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005530 etching Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3265—Power saving in display device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
- G06F3/041661—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving using detection at multiple resolutions, e.g. coarse and fine scanning; using detection within a limited area, e.g. object tracking window
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/17—Image acquisition using hand-held instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
- G06V40/1306—Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/08—Access security
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04112—Electrode mesh in capacitive digitiser: electrode for touch sensing is formed of a mesh of very fine, normally metallic, interconnected lines that are almost invisible to see. This provides a quite large but transparent electrode surface, without need for ITO or similar transparent conductive material
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本文公开了一种电子设备和方法。所述电子设备包括触摸屏、设置在触摸屏上的至少一个指纹传感器以及实现所述方法的处理器,所述方法包括:控制触摸屏显示一个或多个图形对象;从一个或多个图形对象中,检测与设置在触摸屏的至少一部分上的指纹传感器相关联的至少一个图形对象的属性信息;基于属性信息激活指纹传感器的区域,指纹传感器的激活区域与至少一个图形对象相对应;以及通过指纹传感器的激活区域获取指纹信息。
Description
技术领域
本公开的各种实施例涉及一种用于控制指纹传感器以在电子设备中获得用户指纹的设备和方法。
背景技术
今天,大多数电子设备具有各种安全功能以保护用户的个人或隐私信息。
例如,电子设备可以使用指纹识别服务作为这样的安全功能之一。指纹识别服务应用于电子设备的安全认证。
通常,在应用于电子设备的指纹识别服务中,用于指纹感测的指纹输入区域位于与由用户识别的用户界面(UI)对象区域不同的位置处。因此,这可能经常导致难以促进直观的输入操作。
发明内容
本公开各种实施例涉及一种用于控制电子设备的指纹传感器的设备和方法。具体地,本公开的实施例提供了一种在电子设备中获取用户指纹信息的同时提高指纹识别速度并减少电池消耗的最佳方案。
根据本公开的各种实施例,一种电子设备可以包括:触摸屏;至少一个指纹传感器,设置在触摸屏的至少一部分上;以及处理器,电耦接到触摸屏和至少一个指纹传感器。处理器配置为:控制触摸屏显示一个或多个图形对象;从一个或多个图形对象中检测与指纹传感器相关联的至少一个图形对象的属性信息;基于属性信息,激活指纹传感器的与该至少一个图形对象相对应的区域;以及通过激活区域获取指纹信息。
根据本公开的各种实施例,公开了一种用于控制电子设备的方法,包括:控制触摸屏显示一个或多个图形对象;从一个或多个图形对象中,检测与设置在触摸屏的至少一部分上的指纹传感器相关联的至少一个图形对象的属性信息;基于属性信息来激活指纹传感器的区域,所述指纹传感器的激活区域与至少一个图形对象相对应;以及通过指纹传感器的激活区域获取指纹信息。
根据本公开的各种实施例,一种非暂时性计算机可读记录介质,记录有可由处理器执行以进行以下操作的编程指令:控制触摸屏显示一个或多个图形对象;从一个或多个图形对象中,检测与设置在触摸屏的至少一部分上的指纹传感器相关联的至少一个图形对象的属性信息;基于属性信息激活指纹传感器的区域,所述指纹传感器的激活区域与至少一个图形对象相对应;以及通过指纹传感器的激活区域获取指纹信息。根据本公开的各种实施例,电子设备可以高效地获取用户的指纹,从而提高指纹识别速度并减少电池消耗。
根据本公开的各种实施例,电子设备的处理器可以确定用于扫描用户的指纹的优化的指纹感测区域。通过在所确定的指纹感测区域中执行扫描,可以降低指纹扫描速度。此外,通过最小化扫描区域,可以减少电池消耗。
附图说明
图1是示出了根据本公开各种实施例的包括电子设备在内的网络环境的图。
图2是示出了根据本公开各种实施例的电子设备的框图。
图3是示出了根据本公开各种实施例的程序模块的框图。
图4是示出了根据本公开各种实施例的电子设备的内部配置的框图。
图5是示出了根据本公开各种实施例的具有指纹传感器的电子设备的图。
图6是示出了根据本公开各种实施例的激活具有一个指纹传感器的电子设备中的指纹感测区域的示例的图。
图7是示出了根据本公开各种实施例的激活具有一个指纹传感器的电子设备中的指纹感测区域的另一示例的图。
图8是示出了根据本公开各种实施例的激活具有一个指纹传感器的电子设备中的指纹感测区域的又一示例的图。
图9是示出了根据本公开各种实施例的激活具有一个指纹传感器的电子设备中的指纹感测区域的又一示例的图。
图10是示出了根据本公开各种实施例的激活具有一个指纹传感器的电子设备中的指纹感测区域的又一示例的图。
图11是示出了根据本公开各种实施例的在具有一个指纹传感器的电子设备中将具有高精度的部分设置为指纹传感器的激活区域的示例的图。
图12是示出了根据本公开各种实施例的具有多个指纹传感器的电子设备的指纹感测区域的图。
图13是示出了根据本公开各种实施例的激活具有两个指纹传感器的电子设备中的指纹感测区域的示例的图。
图14是示出了根据本公开各种实施例的激活具有四个指纹传感器的电子设备中的指纹感测区域的示例的图。
图15是示出了根据本公开各种实施例的激活具有四个指纹传感器的电子设备中的两个指纹感测区域的示例的图。
图16是示出了根据本公开各种实施例的部分地激活具有至少一个指纹传感器的电子设备中的指纹感测区域的示例的图,所述至少一个指纹传感器部分地设置在显示器中。
图17是示出了根据本公开各种实施例的用于在电子设备中通过不同扫描频率执行触摸获取和指纹获取的方法的图。
图18A是示出了根据本公开各种实施例的电子设备的指纹传感器控制方法的示例的流程图。
图18B是示出了根据本公开各种实施例的电子设备的指纹传感器控制方法的另一示例的流程图。
图19是示出了根据本公开各种实施例的用于在电子设备中基于用户界面(UI)对象来获取指纹信息的方法的示例的流程图。
图20是示出了根据本公开各种实施例的用于在电子设备中基于用户界面(UI)对象来获取指纹信息的方法的另一示例的流程图。
图21是示出了根据本公开各种实施例的用于在电子设备中基于用户界面(UI)对象和用户触摸输入信息来获取指纹信息的方法的示例的流程图。
图22是示出了根据本公开各种实施例的用于在电子设备中基于用户界面(UI)对象和用户触摸输入信息来获取指纹信息的方法的另一示例的流程图。
图23是示出了根据本公开各种实施例的以电子设备的应用来显示用户界面(UI)的操作的图。
图24是示出了根据本公开各种实施例的以电子设备的应用来执行指纹识别功能的操作的图。
图25是示出了根据本公开各种实施例的以电子设备的应用来执行指纹识别功能的另一操作的图。
图26是示出了根据本公开各种实施例的以电子设备的应用来执行指纹识别功能的又一操作的图。
具体实施方式
提供了参考附图的以下描述,以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。以下描述包括各种具体细节以帮助理解,但这些具体细节应被视为仅仅是示例。因此,本领域普通技术人员将认识到:在不脱离本公开的情况下,可以对本文中描述的各种实施例进行各种改变和修改。此外,为了清楚和简明起见,可以省略对公知功能和结构的描述。
以下描述和权利要求中所使用的术语和词语不限于书面含义,而是仅由发明人使用于使得能够清楚和一致地理解本公开。因此,对于本领域技术人员来说应当显而易见的是,仅出于说明目的而非出于限制由所附权利要求及其等同物限定的本公开的目的来提供本公开的各种实施例的以下描述。
应当理解的是,除非上下文中另有清楚规定,否则单数形式“一”、“一个”和“所述”包括复数指示物。因此,例如,对“组件表面”的引用包括对这样的表面中的一个或多个的引用。
如本文中使用的术语“具有”、“可以具有”、“包括”和“可以包括”指示存在对应特征(例如,诸如数值、功能、操作或部件之类的元素),并不排除存在其它特征。
如本文中所使用的术语“A或B”、“A或/和B中的至少一项”或“A或/和B中的一个或多个”包括所列出项目的所有可能组合。例如,“A或B”、“A和B中至少一个”或“A或B中的至少一个”意味着(1)包括至少一个A、(2)包括至少一个B或(3)包括至少一个A和至少一个B二者。
如本文中所使用的诸如“第一”和“第二”的术语可以修饰各种元件而不管对应元件的顺序和/或重要性,并且不限制对应元件。这些术语可以用于将元件彼此区分的目的。例如,第一用户设备和第二用户设备可以指示不同的用户设备,而与顺序或重要性无关。例如,在不脱离本公开的情况下,第一元件可以被称作第二元件,且类似地,第二元件可以被称作第一元件。
将理解,当一元件(例如,第一元件)“(可操作地或可通信地)耦接至”或“连接至”另一元件(例如,第二元件)时,该元件可以直接耦接至该另一元件,也可以在该元件与该另一元件之间存在中间元件(例如,第三元件)。相反,应当理解,当元件(例如,第一元件)“直接耦接至”或者“直接连接至”另一元件(例如,第二元件)时,在该元件和该另一元件之间不存在中间元件(例如,第三元件)。
根据上下文,在本文中所使用的表述“(被)配置为(或被设置为)”可以与以下各项互换:“适用于”、“具有...的能力”、“(被)设计用于”、“适于”、“制作用于”或“能够”。术语“配置为(被设置为)”不一定意味着在硬件上“被专门设计为”。相对,表达方式“配置为...的装置”可表示在特定情境中装置“能够”与其他设备或部件一起“...”。例如,“被配置(设置)为执行A、B和C的处理器”可以意味着用于执行对应操作的专用处理器(例如,嵌入式处理器)或能够通过执行存储在存储设备中的一个或多个软件程序来执行对应操作的通用处理器(例如,中央处理单元(CPU)或应用处理器)。
在描述本公开的各种实施例时使用的术语仅是为了描述特定实施例的目的,而不意在限制本公开。除非上下文另外清楚指示,否则本文中使用的单数形式也意在包括复数形式。除非文中明确限定,否则文中使用的所有术语(包括技术术语或科技术语)具有与本领域技术人员通常所理解的含义相同的含义。在通用字典中定义的术语应被解释为具有与相关技术的上下文含义相同或相似的含义,并且不应被解释为具有理想化或夸大的含义,除非它们在本文中被明确地定义。根据一些情况,即使在本公开中定义的术语,仍不应被解释为排除本公开的实施例。
根据本公开各种实施例,电子设备可以包括以下至少一项:例如智能电话、平板个人计算机(PC)、移动电话、视频电话、电子书阅读器、台式PC、膝上型PC、上网本计算机、工作站、服务器、个人数字助理(PDA)、便携式多媒体播放器(PMP)、运动图像专家组(MPEG-1或MPEG-2)音频层3(MP3)播放器、移动医疗设备、相机、或可穿戴设备。根据本公开实施例,可穿戴设备可以包括以下中的至少一项:饰品式没备(例如,手表、戒指、手链、脚链、项链、眼镜、隐形眼镜或头戴式设备(HMD))、衣料或服饰集成可穿戴设备(例如,电子服饰)、体装可穿戴设备(例如,皮肤贴或纹身)、或植入式可穿戴设备(例如,可植入电路)。
电子设备可以是智能家电。智能家电可以包括以下至少一项:例如电视(TV)、数字多功能盘(DVD)播放器、音频播放器、冰箱、空调、吸尘器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、家庭自动控制面板、安保控制面板、TV盒(例如Samsung HomeSyncTM、AppleTVTM、或Google TVTM)、游戏机(例如XboxTM和PlayStationTM)、电子词典、电子钥匙、便携式摄像机、或电子相框。
电子设备可以包括以下至少一项:各种医疗设备(比如,各种便携式医疗测量设备(例如,血糖仪、心率监测器、血压监测器或体温计等)、磁共振血管造影(MRA)设备、磁共振成像(MRI)设备、计算断层扫描(CT)设备、扫描仪或超声设备等)、导航设备、全球定位系统(GPS)接收机、事件数据记录仪(EDR)、飞行数据记录仪(FDR)、车辆信息娱乐设备、船用电子设备(例如,导航系统、陀螺罗盘等)、航空电子设备、安保设备、车辆头端单元、工业或家用机器人、自动柜员机(ATM)、销售点(POS)设备、或物联网(IoT)设备(例如,灯泡、各种传感器、电表或气表、洒水器、火警、恒温器、街灯、烤面包机、运动器材、热水箱、加热器、锅炉等)。
电子设备还可以包括以下至少一个:家具或建筑物/结构的一部分、电子板、电子签名接收设备、投影仪或各种测量仪表(例如,水表、电表、气表或测波计等)。电子设备可以是上述设备中的一种或多种组合。电子设备可以是柔性电子设备。此外,电子设备不限于上述设备,并可以根据新技术发展包括新型电子设备。
下文中,将参考附图来描述根据本公开各种实施例的电子设备。本文中所使用的术语“用户”可以指代使用电子设备的人,或者可以指代使用电子设备的设备(例如,人工智能电子设备)。
图1示出了根据本公开实施例的包括电子设备的网络环境。
参考图1,网络环境100包括电子设备101,所述电子设备101具有总线110、处理器120、存储器130、输入/输出接口150、显示器160和通信接口170。可以在电子设备101中省略上述组件的至少一个,或者电子设备101中还可以包括另一个组件。
总线110可以是将上述组件120、130和150-170连接并且在上述组件之间传输通信(例如控制消息和/或数据)的电路。
处理器120可以包括CPU、应用处理器(AP)以及通信处理器(CP)中的一个或多个。处理器120能够控制电子设备101的其它组件中的至少一个和/或处理与通信相关的数据和操作。
存储器130可以包括易失性存储器和/或非易失性存储器。存储器130能够存储与电子设备101的其它组件中的至少一个相关的数据或命令。存储器130能够存储软件和/或程序模块140。例如,程序模块140可以包括内核141、中间件143、应用编程接口(API)145、应用程序(或应用)147等。内核141、中间件143或API 145的至少一部分可以被称作操作系统(OS)。
内核141能够控制或管理用于执行其它程序(例如,中间件143、API 145和应用程序147)的操作或功能的系统资源(例如,总线110、处理器120、存储器130等)。内核141提供能够允许中间件143、API 145和应用程序147访问并控制/管理电子设备101的各个组件的接口。
中间件143可以是在API 145或应用程序147与内核141之间的接口,使得API 145或应用程序147可以与内核141通信并与其交换数据。中间件143能够根据优先级来处理从应用程序147接收到的一个或多个任务请求。例如,中间件143能够向至少一个应用程序147指派使用电子设备101的系统资源(例如总线110、处理器120、存储器130等)的优先级。例如,中间件143根据向至少一个应用程序指派的优先级来处理一个或多个任务请求,由此执行任务请求的调度或负载平衡。
API 145可以是配置为允许应用程序147控制由内核141或中间件143提供的功能的接口。API 145可以包括用于文件控制、窗口控制、图像处理、文本控制等的至少一个接口或功能(例如,指令)。
输入/输出接口150能够向电子设备101的一个或多个组件传送从用户或外部设备接收的指令或数据。输入/输出接口150能够向用户或外部设备输出从电子设备101的一个或多个组件接收的指令或数据。
显示器160可以包括液晶显示器(LCD)、柔性显示器、透明显示器、发光二极管(LED)显示器、有机LED(OLED)显示器、微机电系统(MEMS)显示器、电子纸显示器等。显示器160能够显示各种类型的内容(例如,文本、图像、视频、图标、符号等)。显示器160还可以使用触摸屏来实现。在这种情况下,显示器160能够接收经由触控笔或用户身体而实现的触摸、手势、接近输入或悬停输入。
通信接口170能够建立电子设备101和外部设备之间的通信。例如,通信接口170能够经由有线或无线通信与连接到网络162的外部设备通信。
无线通信可以采用以下至少一项作为蜂窝通信协议:长期演进(LTE)、LTE-高级(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)和全球移动通信系统(GSM)。无线通信还可以包括短距离无线通信164。短距离无线通信164可以包括无线保真(Wi-Fi)、蓝牙(BT)、近场通信(NFC)、磁安全传输(MST)和全球导航卫星系统(GNSS)中的至少一个。根据GNSS使用区域、带宽等,GNSS可以包括以下至少一项:GPS、全球导航卫星系统(格洛纳斯)、北斗NSS(北斗)、伽利略、欧洲全球卫星导航系统。在本公开中,“GPS”与“GNSS”可以互换使用。有线通信可以包括以下至少一项:通用串行总线(USB)、高清多媒体接口(HDMI)、推荐标准-232(RS-232)以及普通老式电话业务(POTS)。网络162可以包括以下至少一项:电信网络(例如计算机网络(例如,局域网(LAN)或广域网(WAN)))、互联网和电话网络。
就类型而言,第一外部电子设备102和第二外部电子设备104各自与电子设备101相同或不同。根据实施例,服务器106能够包括具有一个或多个服务器的组。根据各种实施例,可以在另一电子设备或多个其它电子设备(例如,电子设备102和104、或服务器106)上执行电子没备101上执行的一部分操作或所有操作。根据实施例,当电子设备需要自动或根据请求执行功能或服务时,并不执行功能或服务,而是能够从另一个电子设备(例如,电子设备102和104、或服务器106)附加地请求与功能或服务相关的功能的至少一部分。另一电子设备(例如,电子设备102或104,或服务器106)能够执行所请求的功能或者附加功能,并且将结果发送至电子设备101。电子设备101处理接收到的结果,或者进一步进行附加地处理,以提供所请求的功能或服务。为此,电子设备101可以使用云计算、分布式计算或客户端-服务器计算技术。
图2是示出了根据本公开实施例的电子设备的配置的框图。
参考图2,电子设备201可以包括如图1所示的电子设备101中的部分或者全部组件。电子设备201可以包括一个或多个处理器210(例如,AP)、通信模块220、订户标识模块(SIM)224、存储器230、传感器模块240、输入设备250、显示器260、接口270、音频模块280、相机模块291、电源管理模块295、电池296、指示器297和电机298。
处理器210能够驱动例如操作系统或应用程序以便控制与处理器210连接的多个硬件或软件组件,处理各种数据并执行操作。例如,处理器210可以被实现为片上系统(SoC)。处理器210还可以包括图形处理单元(GPU)和/或图像信号处理器。处理器210还可以包括图2所示的组件中的至少一部分(例如,蜂窝模块221)。处理器210能够将从其它组件中的至少一个(例如,非易失性存储器)接收到的命令或数据加载到易失性存储器上,处理所加载的命令或数据。处理器210能够将各种数据存储在非易失性存储器中。
通信模块220可以包括与图1中所示的通信接口170相同或相似的配置。例如,通信接口170能够包括蜂窝模块221、Wi-Fi模块223、蓝牙(BT)模块225、GPS模块227(例如,GNSS模块、格洛纳斯模块、北斗模块或伽利略模块)、NFC模块228和射频(RF)模块229。
例如,蜂窝模块221能够通过通信网络提供语音呼叫、视频呼叫、SMS服务、互联网服务等。蜂窝模块221能够通过使用SIM 224来在通信网络中对电子设备201进行识别和认证。蜂窝模块221能够执行由处理器210提供的功能中的至少一部分。蜂窝模块221可以包括CP。
Wi-Fi模块223、BT模块225、GPS模块227和NFC模块228中的每一个可以包括用于处理通过对应模块发送或接收的数据的处理器。蜂窝模块221、Wi-Fi模块223、BT模块225、GPS模块227以及NFC模块228中的至少一部分(例如,两个或更多个模块)可以包括在一个集成芯片(IC)或一个IC封装中。
RF模块229能够发送/接收通信信号(例如,RF信号)。RF模块229能够包括收发机、功率放大模块(PAM)、频率滤波器、低噪声放大器(LNA)、天线等。蜂窝模块221、Wi-Fi模块223、BT模块225、GPS模块227和NFC模块228中的至少一个能够通过单独的RF模块来发送/接收RF信号。
存储器230可以包括内置存储器232或外部存储器234。内置存储器232能够包括至少一项:易失性存储器(例如,动态随机存取存储器(DRAM)、静态RAM(SRAM)、同步动态RAM(SDRAM)等)以及非易失性存储器(例如,一次性可编程只读存储器(OTPROM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩膜ROM、闪存ROM、闪存(例如,NAND闪存、NOR闪存等)、硬盘驱动器、固态驱动器(SSD)等)。
外部存储器234可以包括闪存驱动器,例如紧凑型闪存(CF)、安全数字(SD)、微型安全数字(微型-SD)、迷你型安全数字(迷你型-SD)、极限数字(xD)、多媒体卡(MMC)、存储棒等。外部存储器234可以通过各种接口与电子设备201功能和/或物理连接。
传感器模块240能够测量/检测物理量或电子设备201的操作状态,并将测量或检测到的信息转换为电信号。传感器模块240可以包括以下至少一项:手势传感器240A、陀螺仪传感器240B、大气压传感器240C、磁传感器240D、加速度传感器240E、握持传感器240F、接近传感器240G、颜色传感器240H(例如,红、绿、蓝(RGB)传感器)、生物传感器240I、温度/湿度传感器240J、照度传感器240K以及紫外线(UV)传感器240M。附加地或备选地,传感器模块240也可以包括电子鼻传感器、肌电图(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器、红外线(IR)传感器、虹膜传感器和/或指纹传感器。传感器模块240还可以包括用于控制包括在其中的一个或多个传感器的控制电路。电子设备201可以包括处理器,配置为处理器210的一部分或单独的组件,用于控制传感器模块240。在这种情况下,当处理器210在睡眠模式下操作时,该处理器能够控制传感器模块240。
输入设备250可以包括触摸面板252、(数字)笔传感器254、按键256以及超声输入单元258。触摸面板252可以使用以下至少一项来实现:电容式触摸系统、电阻式触摸系统、红外触摸系统和超声触摸系统。触摸面板252还可以包括控制电路,并且触摸面板252可以包括触觉层来向用户提供触觉响应。(数字)笔传感器254可以使用触摸面板的一部分来实现或者使用单独的识别片来实现。按键256可以包括物理按钮、光学按键或键区。超声输入单元258能够通过麦克风288检测在输入工具中产生的超声波,并且识别与检测到的超声波相对应的数据。
显示器260可以包括面板262、全息单元264或投影仪266。面板262可以包括与图1中所示的显示器160相同或相似的组件。面板262可以被实施为柔性的、透明的或可穿戴的。面板262还可以与触摸面板252一同被合并为一个模块。全息单元264能够通过使用光的干涉在空气中显示立体图像。投影仪266能够通过在屏幕上投射光来显示图像。该屏幕可以位于在电子设备201的内部或外部。显示器260还可以包括控制电路,所述控制电路用于控制面板262、全息单元264或投影仪266。
接口270可以包括HDMI 272、USB 274、光学接口276或D超小型(D-sub)278。
可以在图1中示出的通信接口170中包括所述接口270。附加地或备选地,接口270可以包括移动高清链路(MHL)接口、SD卡/MMC接口、或红外数据协会(IrDA)标准接口。
音频模块280能够提供声音和电信号之间的双向转换。音频模块280的至少部分组件可以被包括在图1中所示的输入/输出接口150中。音频模块280能够处理通过扬声器282、听筒284、耳机286、麦克风288等输入或输出的声音信息。
相机模块291是能够拍摄静止图像和运动图像二者的设备。相机模块291可以包括一个或多个图像传感器(例如,前置图像传感器或后置图像传感器)、镜头、图像信号处理器(ISP)、闪光灯(例如,LED或氙灯)等。
电源管理模块295能够管理电子设备201的电力。电源管理模块295可以包括电源管理集成电路(PMIC)、充电器IC或电池量表(battery gauge)。PMIC可以采用有线充电和/或无线充电方法。无线充电方法的示例是磁共振充电、磁感应充电以及电磁充电。为此,PMIC还可以包括用于无线充电的附加电路,例如,线圈回路、谐振电路、整流器等。电池量表能够测量电池296的剩余容量、充电电压、电流或温度。
电池296采用可再充电电池或太阳能电池的形式。
指示器297能够显示电子设备201或其一部分(例如,处理器210)的特定状态,例如引导状态、消息状态、充电状态等。电机298能够将电信号转换成机械振动,例如振动效果、触觉效果等。电子设备201也可以包括用于支持移动TV的处理单元(例如,GPU)。用于支持移动TV的处理单元能够例如根据诸如数字多媒体广播(DMB)、数字视频广播(DVB)或mediaFloTM等标准来处理媒体数据。
图3是根据本公开实施例的编程模块的框图。
参考图3,程序模块310(例如,图1中所示的程序模块140)能够包括用于控制与电子设备(例如,电子设备101)相关的资源的0S和/或在0S上运行的各种应用(例如,图1中所示的应用程序147)。OS可以是Android、iOS、Windows、Symbian、Tizen、Bada等。
编程模块310能够包括内核320、中间件330、API 360和/或应用370。程序模块310的至少一部分可以被预加载到电子设备上,或从服务器(例如,电子设备102或104、服务器106等)下载。
内核320(例如,内核141)可以包括系统资源管理器321和/或设备驱动器323。系统资源管理器321可以包括例如进程管理器、存储器管理器和文件系统管理器。系统资源管理器321可以执行系统资源控制、分配和召回。设备驱动器323例如可以包括显示器驱动器、相机驱动器、蓝牙驱动器、共享存储器驱动器、USB驱动器、键区驱动器、Wi-Fi驱动器以及音频驱动器。此外,根据实施例,设备驱动器323可以包括进程间通信(IPC)驱动器。
中间件330可以提供由应用370共同使用的功能。此外,中间件330可以通过API360提供功能,以允许应用370高效地使用电子设备内的有限系统资源。根据实施例,中间件330(例如,中间件143)可以包括以下至少一项:运行时间库335、应用管理器341、窗口管理器342、多媒体管理器343、资源管理器344、电源管理器345、数据库管理器346、数据包管理器347、连接管理器348、通知管理器349、位置管理器350、图形管理器351和安全管理器352。此外,尽管未示出,但是中间件330也可以包括支付管理器。
运行时间库335可以包括例如由编译器使用的库模块,以便在执行应用370的同时通过编程语言来添加新的功能。根据实施例,运行时间库335执行输入和输出、存储器的管理、与算术功能相关联的功能等。
应用管理器341可以管理例如应用370中的至少一个的生命周期。窗口管理器342可以管理在屏幕上使用的GUI资源。多媒体管理器343可以检测用于再现各种媒体文件的格式,并且通过使用适用于对应格式的编解码器来对媒体文件执行编码或解码。资源管理器344管理至少一个应用370的诸如源代码、内存或存储空间等的资源。
电源管理器345可以连同基本输入/输出系统(BIOS)一同操作,以便管理电池或电力,并且提供用于操作的电力信息。数据库管理器346可以管理要由至少一个应用370使用的数据库的产生、搜索和改变。数据包管理器347可以管理对以数据包文件形式分发的应用的安装或更新。
连接管理器348可以管理例如无线连接,例如Wi-Fi或蓝牙。通知管理器349可以按照不打扰用户的方式向用户显示或通知诸如到达消息、预约、接近警报等事件。位置管理器350可以管理电子设备的位置信息。图形管理器351可以管理被提供给用户的图形效果或与图形效果相关的用户界面。安全管理器352提供用于系统安全或用户认证的普通安全功能。根据实施例,当电子设备(例如,电子设备101)具有呼叫功能时,中间件330还包括电话管理器,用于管理电子设备的语音或视频呼叫功能。
中间件330能够包括配置上述组件的功能的各种组合的模块。中间件330能够提供根据操作系统的类型而专门化的模块,以提供差异化的功能。中间件330可以按照去除现有组件的一部分或包括新的组件的方式来自适应地配置。
API 360(例如,API 145)可以是API编程功能的集合,并且可以根据操作系统而设置有不同配置。例如,在Android或iOS中,可以针对每个平台提供单个API集合。在Tizen中,可以提供两个或更多个API集合。
应用370(例如,应用程序147)可以包括用于执行各种功能的一个或多个应用,例如主页371、拨号器372、短消息服务(SMS)/多媒体消息服务(MMS)373、即时消息(IM)374、浏览器375、相机376、闹钟377、联系人378、语音拨号379、电子邮件380、日历381、媒体播放器382、相册383和时钟384。此外,尽管未示出,但是应用370也可以包括医疗保健(例如,用于测量运动量、血糖水平等的应用)和环境信息(例如,用于提供大气压力、湿度、温度等的应用)。
根据实施例,应用370能够包括用于支持电子设备(例如电子设备101)与外部设备(例如电子设备102和104)之间的信息交换的应用,这在下文中被称作“信息交换应用”。信息交换应用能够包括用于向外部设备中继特定信息的通知中继应用或者用于管理外部设备的设备管理应用。
根据实施例,应用370能够包括具有外部设备(例如电子设备102和104)的指定属性的应用(例如,移动医疗设备的医疗保健应用等)。根据实施例,应用370能够包括从外部设备(例如,服务器106、或电子设备102和104)接收到的应用。根据实施例,应用370能够包括预加载的应用或可以从服务器下载的第三方应用。应当理解的是:程序模块310的组件可以根据操作系统的类型来被称作不同的名称。
根据本公开实施例的术语“模块”意味着但不限于软件、硬件和固件之一或其任意组合的单元。术语“模块”可以与术语“单元”、“逻辑”、“逻辑块”、“组件”或“电路”互换使用。术语“模块”可以表示组件或其一部分的最小单元。术语“模块”可以是用于执行至少一个功能或其一部分的最小单元。可以从机械上或从电学上实现模块。例如,模块可以包括专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)、和已知的或为特定操作而开发的可编程逻辑器件中的至少一个。
根据本公开的各种实施例,设备(例如,模块或其功能)或方法可以通过计算机可读存储介质中所存储的计算机程序指令来实现。在由至少一个处理器(例如,处理器120)执行指令的情况下,该至少一个处理器可以执行与指令相对应的功能。计算机可读存储介质可以是存储器130。可以由处理器120实现(例如,执行)编程模块的至少一部分。编程模块的至少一部分可以包括用于执行至少一个功能的模块、程序、例程、指令集和进程。
根据本公开的各种实施例,一种用于控制电子设备的方法可以包括如下操作:在处理器(例如,图4中的440)处,在触摸屏(例如,图4中的420)上显示一个或多个图形对象;在处理器处,识别一个或多个图形对象之中的与指纹传感器(例如,图4中的410)相关联的至少一个图形对象的属性信息;在处理器处,基于属性信息来确定指纹传感器中的针对该至少一个图形对象的激活区域;以及在处理器处,通过激活区域获取指纹信息。
根据各种实施例,确定激活区域的操作可以包括:在处理器处,进一步基于与通过触摸屏获取的用户输入相关联的其它属性信息来确定激活区域。
根据各种实施例,确定激活区域的操作可以包括:在处理器处,识别与用户输入有关的坐标或大小信息来作为其它属性信息的至少一部分,并且基于坐标或大小信息来扩展激活区域。
根据各种实施例,确定激活区域的操作可以包括:在处理器处,识别与用户输入有关的压力信息来作为其它属性信息的至少一部分,并且将激活区域缩小到由压力信息限定的区域。
根据各种实施例,确定激活区域的操作可以包括:在处理器处,进一步基于与所登记的指纹信息相关联的其它属性信息来确定激活区域。
根据各种实施例,所述方法还可以包括如下操作:在处理器处,在第一感测模式下控制激活区域;以及在处理器处,在第二感测模式下控制除了激活区域之外的其余区域。
根据各种实施例,处理器可以使用第一感测模式通过激活区域获取指纹信息,并且使用第二感测模式通过其余区域获取用户输入信息。
根据各种实施例,至少一个指纹传感器可以包括第一指纹传感器(例如,图5中的411)和第二指纹传感器(例如,图5中的412),并且确定激活区域的操作可以包括:在处理器处,选择第一指纹传感器和第二指纹传感器中的与激活区域相对应的指纹传感器。
根据各种实施例,所述方法还可以包括这样的操作:在处理器处,忽略从除了激活区域之外的其余区域获取的信息。
根据各种实施例,所述方法还可以包括这样的操作:在处理器处,从一个或多个图形对象中选择用于接收与安全认证相关联的用户输入的图形对象来作为至少一个图形对象。
计算机可读存储介质包括诸如软盘和磁带等磁性介质、包括压缩盘(CD)ROM和DVDROM的光学介质、诸如光磁软盘等磁光介质以及设计用于存储和执行程序命令的硬件设备(例如,ROM、RAM和闪存)。程序命令包括由计算机使用编译器可执行的语言代码以及由编译程序产生的机器语言代码。可以利用用于执行本公开各种实施例的操作的一个或多个软件模块来实现前述硬件设备。
本公开的模块或编程模块可以在省略一些组件或添加其它组件的情况下包括上述组件中的至少一个组件。可以串行地、并行地、递归地或启发式地执行模块、编程模块或其它组件的操作。此外,一些操作可以按照不同的顺序执行或者省略,或者可以扩展为具有其它操作。
根据本公开的各种实施例,非暂时性计算机可读记录介质上记录有程序,所述程序执行包括触摸屏(例如,图4中的420)以及在触摸屏的至少一部分上形成的至少一个指纹传感器(例如,图4中的410)在内的电子设备的操作。所述操作可以包括在触摸屏上显示一个或多个图形对象;识别一个或多个图形对象中的与指纹传感器相关联的至少一个图形对象的属性信息;基于属性信息来确定指纹传感器中的针对该至少一个图形对象的激活区域;以及通过激活区域获取指纹信息。
图4是示出了根据本公开各种实施例的电子设备的内部配置的框图。
参考图4,电子设备400可以包括例如图1所示的电子设备101的全部或一部分或者图2所示的电子设备201的全部或一部分。
根据本公开的各种实施例,电子设备400(例如,上述电子设备101、102或201)可以包括指纹传感器410(例如,生物传感器240I)、触摸屏420、存储器430(例如,上述存储器130或230)、传感器管理器435和处理器440(例如,上述处理器120或210)。
指纹传感器410可以获取电子设备400的用户的指纹信息。指纹传感器410可以被设置为覆盖触摸屏420的整个区域或部分区域。指纹传感器410可以是一个或多个(例如,1、2、...、n)。指纹传感器410可以在第一感测模式(即,指纹感测模式)下检测指纹信息,并且还可以在第二感测模式(即,触摸感测模式)下检测触摸信息。通过指纹传感器410获得的指纹信息可以是图像或特征的形式,并且可以通过与先前存储在存储器430中的指纹信息进行比较而用于电子设备400的认证。
根据一个实施例,指纹传感器410可以提供至少一个指纹感测方案。例如,指纹传感器410可以基于在用户的手指触摸预定指纹感测区域的至少一部分时变化的电流量,产生与用户指纹相对应的指纹信息。指纹传感器410的指纹感测区域可以被限定在电子设备400的主页按钮中或者在触摸屏420的整个或部分区域中。指纹传感器410可以由具有多个感测区域的指纹感测阵列形成。
根据各种实施例,指纹传感器410可以具有各种类型,比如光学类型、电容类型和超声类型。光学类型的指纹传感器可以通过经由光敏二极管捕获指纹图像来获取指纹信息。电容类型的指纹传感器可以通过使用检测到指纹中的触摸到电极的脊并且没有检测到脊之间的非触摸槽的原理来获取指纹信息。超声类型的指纹传感器可以通过经由压电器件产生超声波并且使用分别在指纹的脊和槽上反射的超声波的路径差来获取指纹信息。
触摸屏420可以显示至少一个用户界面(UI)对象。触摸屏420可以包括在触摸面板422(例如,图2中的触摸面板252)或显示器424(例如,图2中的显示器260)的整个或部分区域中的指纹传感器410的指纹感测区域。例如,可以通过对设置在显示器424上方的用于保护显示器424的覆盖玻璃(cover glass)的表面进行印刷或蚀刻来形成指纹传感器410的指纹感测区域。在另一示例中,指纹传感器410的指纹感测区域可以形成在触摸面板422的上表面或下表面上。在又一示例中,指纹传感器410的指纹感测区域可以以触摸面板422的像素或像素之间的黑色遮蔽区域来形成。
根据各种实施例,触摸屏420可以执行输入功能和显示功能。为此,触摸屏420可以包括触摸面板422和显示面板424。触摸面板422可以由电容覆盖类型、电阻覆盖类型或者红外光束类型的触摸传感器构成,或者由压力传感器构成。除了上述类型的传感器之外,能够感测对象的接触或压力的任何其它类型的传感器可以用于触摸面板422。触摸面板422可以感测用户的触摸输入,产生感测信号,并且将感测信号发送到处理器440。感测信号可以包括触摸输入的坐标数据。当触摸输入具有触摸和拖动形式时,触摸面板422可以产生包括拖曳路径的坐标数据的感测信号,并且将该信号发送到处理器440。显示器424可以由液晶显示器(LCD)、有机发光二极管(OLED)、有源矩阵OLED(AMOLED)等构成。显示器424可以可视地向用户提供电子设备400的菜单、输入数据、功能设置信息以及任何其它信息。
存储器430可以存储电子设备400的用户的指纹信息。存储器430还可以存储和与指纹传感器410相关联的各种对象有关的资源。可以将与对象有关的资源加载到框架中并且在显示器424上显示。存储器430可以基于电子设备400的指纹传感器410或触摸面板422,存储与指纹识别功能或指纹触摸功能相关的各种程序和数据。例如,存储器430可以存储用于处理指纹传感器410的功能以通过至少一个扫描方案获取指纹信息的某一程序以及根据该程序处理的数据。此外,存储器430可以预先存储要用于与通过指纹传感器410识别的指纹信息进行比较的用户指纹信息。
根据各种实施例,存储器430可以存储用于处理处理器440的指令的程序、操作系统(OS)、各种应用和输入/输出数据,并且还存储用于控制电子设备400的整个操作的程序。存储器430可以存储电子设备400中所提供的用户界面(UI)和用于在电子设备400中执行功能的各种设置信息。
作为一种程序的传感器管理器435可以存储在存储器430中。例如,在图3所示的程序模块的中间件330中可以包括传感器管理器435。
根据各种实施例,传感器管理器435可以提供指令,以激活作为指纹感测激活区域(也称为指纹获取区域)的特定区域,所述特定区域是由来自指纹传感器410的整个区域中的特定参考点(例如,特定UI对象的左上点)的坐标的特定高度值和宽度值来限定的。此外,传感器管理器435可以提供指令来:确定作为指纹感测激活区域的特定区域,所述特定区域是由来自指纹传感器410的整个区域中的特定参考点的坐标的特定高度值和宽度值来限定的;以及忽略从除了指纹感测激活区域以外的触摸区域获得的触摸扫描图像。此外,传感器管理器435可以提供指令以激活作为指纹感测激活区域的矩形区域,所述矩形区域是由指纹传感器410的整个区域中的第一点(例如,特定UI对象的左上点)的坐标和第二点(例如,UI对象的右下点)的坐标来限定的。此外,传感器管理器435可以提供指令,以基于特定UI对象的坐标信息激活作为指纹感测激活区域的多个指纹传感器(例如,图12中的指纹传感器411至414)的至少一个的指纹感测区域。
根据一个实施例,传感器管理器435可以提供指令以激活指纹感测区域,并且处理器440可以执行与由传感器管理器435提供的指令相对应的特定功能。
处理器440可以控制电子设备400中的指纹传感器410、触摸屏420、存储器430和传感器管理器435的功能和操作。处理器440还可以执行存储器430中所存储的应用。例如,这样的应用可以包括支付应用、安全应用、登录时使用的应用以及提供与指纹识别功能相关的UI的任何其它应用。
根据一个实施例,处理器440可以在触摸屏420上显示一个或多个图形对象,并且识别所述一个或多个图像对象中的与指纹传感器410相关联的至少一个图形对象的属性信息(例如,坐标信息、大小信息)。此外,处理器440可以基于属性信息确定指纹传感器410中的针对至少一个图形对象的激活区域,并且通过激活区域获取指纹信息。根据一个实施例,处理器440还可以基于与通过触摸屏420获取的用户输入相关联的其它属性信息(例如,触摸信息)来确定激活区域。
根据一个实施例,处理器440可以将与用户输入有关的坐标信息或大小信息识别为其它属性信息的至少一部分,并且基于坐标信息或大小信息来扩展激活区域。
根据一个实施例,处理器440可以将与用户输入有关的压力信息识别为其它属性信息的至少一部分,并且将激活区域减小成由压力信息限定的区域。
根据一个实施例,处理器440还可以基于与存储器430中存储的所登记的指纹信息相关联的其它属性信息来确定激活区域。
根据一个实施例,处理器440可以在第一感测模式(例如,指纹感测模式)下控制激活区域,并且在第二感测模式(例如,触摸感测模式)下控制除了激活区域之外的其余区域。
根据一个实施例,处理器440可以使用第一感测模式通过激活区域获取指纹信息,并且使用第二感测模式通过其余区域获取用户输入信息。
根据一个实施例,当指纹传感器410包括第一指纹传感器和第二指纹传感器时,处理器440可以选择第一指纹传感器和第二指纹传感器中的一个,使得所选择的指纹传感器与激活区域相对应。
根据一个实施例,处理器440可以从一个或多个图形对象中选择用于接收与安全认证相关联的用户输入的图形对象来作为所述至少一个图形对象。
根据各种实施例,处理器440可以控制电子设备400的全部操作,控制电子设备400的内部元件之间的信号流以及处理数据。处理器440可以由例如中央处理单元(CPU)、应用处理器和通信处理器来实现。此外,处理器440可以由单核处理器或多核处理器构成,并且可以实现为多个处理器。
图5是示出了根据本公开各种实施例的具有指纹传感器的电子设备的图。具体地,图5的部分(a)示出了电子设备中包括一个指纹传感器的示例,并且图5的部分(b)示出了电子设备中包括两个指纹传感器的示例。
如图5所示,根据本公开的各种实施例的电子设备400可以包括覆盖窗(coverwindow)405、至少一个指纹传感器410、以及使用触摸面板422和显示器424实现的触摸屏420。
在图5中,图中的竖直向上的方向与朝向电子设备400的前面的取向相对应,并且图中的竖直向下的方向与朝向电子设备400的背面的取向相对应。覆盖窗405、至少一个指纹传感器410以及包括触摸面板422和显示器424在内的触摸屏420可以顺序地设置在电子设备400的壳体(未示出)中。可以理解的是,指纹传感器410和触摸屏420的设置顺序可以从所示的内容更改或改变。
覆盖窗405可以设置在电子设备400的前面上,以保护指纹传感器410和触摸屏420免受外部冲击。覆盖窗405可以由透明材料形成。因此,覆盖窗405可以将电子设备400内部产生的光发送到外部,并且还可以将从外部入射的光发送到电子设备400的内部。
在图5的部分(a)所示的电子设备400中,一个指纹传感器410可以设置为覆盖触摸屏420的整个区域。备选地,尽管一个指纹传感器410覆盖触摸屏420的一部分,但是可以实现根据本公开实施例的功能。
在图5的部分(b)所示的电子设备400中,一个指纹传感器410和触摸屏420可以设置在覆盖窗405下方。覆盖窗405和指纹传感器410可以通过光学透明粘合剂(OCA)彼此粘合。类似地,指纹传感器410和触摸屏420可以通过OCA彼此粘合。
在图5的部分(b)所示的电子设备400中,第一指纹传感器411和第二指纹传感器412两者均可以设置为覆盖触摸屏420的整个区域。第一指纹传感器411和第二指纹传感器412可以沿着同一平面(例如,水平面)并排设置在同一平面上。备选地,在第一指纹传感器411和第二指纹传感器412两者覆盖触摸屏420的一部分而不是整体的实施例中,可以实现根据本公开的实施例的功能。
在图5的部分(b)所示的电子设备400中,第一指纹传感器411和第二指纹传感器412以及触摸屏420可以设置在覆盖窗405下方。第一指纹传感器411和第二指纹传感器412可以通过OCA粘合到覆盖窗405和触摸屏420。
图6是示出了根据本公开各种实施例的激活具有一个指纹传感器的电子设备中的指纹感测区域的示例的图。
如图6的部分(a)和部分(b)所示,根据本公开的各种实施例的电子设备400可以包括覆盖显示器424的整个区域或部分区域的一个指纹传感器410。在显示器424的指纹感测区域410a中,可以显示与指纹识别功能相关的特定用户界面(UI)对象601。关于指纹感测区域410a(在本示例中,其覆盖显示器424的整个或部分区域)的信息可以以一对一的方式映射到显示器424的区域信息。具体地,可以基于UI对象601的坐标信息来确定指纹传感器410的指纹感测激活区域605。在本公开中,指纹传感器410的指纹感测激活区域605也可以称为对用于获取指纹信息的特定区域加以表示的指纹获取区域。
根据一个实施例,电子设备400的指纹识别应用可以向处理器440发送UI对象601中的特定参考点(例如,左上点607)的坐标以及指纹的高度值和宽度值(H和W)。然后,处理器440可以激活作为指纹感测激活区域605的特定区域,该特定区域是由来自指纹感测区域410a内的参考点607的坐标的高度值和宽度值(H和W)限定的。
图7是示出了根据本公开各种实施例的激活具有一个指纹传感器的电子设备中的指纹感测区域的另一示例的图。
如图7的部分(a)至部分(c)所示,根据本公开各种实施例的电子设备400可以包括覆盖显示器424的整个区域或部分区域的一个指纹传感器410。在显示器424的指纹感测区域410a中,可以显示与指纹识别功能相关的UI对象601。与覆盖显示器424的整个或部分区域的指纹感测区域410a有关的信息可以以一对一的方式映射到显示器424的区域信息。具体地,可以基于UI对象601的坐标信息来确定指纹传感器410的指纹感测激活区域605。如上所述,指纹传感器410的指纹感测激活区域605也可以称作指纹获取区域。都可以忽略从除了指纹感测激活区域605以外的触摸区域获取的任何触摸接触609。
根据一个实施例,电子设备400的指纹识别应用可以向处理器440发送如下信息:与包括在UI对象601中的特定参考点(例如,左上点607)的坐标以及指纹信息的高度值和宽度值(H和W)在内的指纹感测激活区域605有关的信息;以及从除了指纹感测激活区域605以外的触摸区域获得的任何触摸信息。然后,处理器440可以基于所接收的信息来确定指纹感测激活区域605。此外,处理器440可以通过指纹激活区域605获取用户的指纹信息,并且忽略其它触摸接触,比如由在与指纹感测激活区域605不同的触摸区域中获得的触摸信息产生的接触609。然后,处理器440可以执行所获取的指纹信息与存储器430中所存储的指纹信息之间的匹配操作,以用于认证。
图8是示出了根据本公开各种实施例的激活具有一个指纹传感器的电子设备中的指纹感测区域的又一示例的图。
如图8的部分(a)和部分(b)所示,根据本公开的各种实施例的电子设备400可以包括覆盖显示器424的整个区域或部分区域的一个指纹传感器410。在显示器424的指纹感测区域410a中,可以显示与指纹识别功能相关的UI对象601。与覆盖显示器424的整个或部分区域的指纹感测区域410a有关的信息可以以一对一的方式映射到显示器424的区域信息。具体地,可以基于UI对象601中的第一点(例如,左上点607a)和第二点(例如,右下点607b)的坐标来确定指纹传感器410的指纹感测激活区域605。指纹传感器410的指纹感测激活区域605也可以称作指纹获取区域。
根据一个实施例,电子设备400的指纹识别应用可以向处理器440发送UI对象601中的第一点607a和第二点607b的坐标。然后,处理器440可以激活作为指纹感测激活区域605的矩形区域,该矩形区域是由指纹感测区域410a内的第一点607a和第二点607b的坐标限定的。
图9是示出了根据本公开各种实施例的激活具有一个指纹传感器的电子设备中的指纹感测区域的又一示例的图。
如图9的部分(a)和部分(b)所示,根据本公开的各种实施例的电子设备400可以包括覆盖显示器424的整个区域或部分区域的一个指纹传感器410。在显示器424的指纹感测区域410a中,可以显示与指纹识别功能相关的UI对象601。与覆盖显示器424的整个或部分区域的指纹感测区域410a有关的信息可以以一对一的方式映射到显示器424的区域信息。具体地,可以基于UI对象601的触摸输入的坐标信息603来确定指纹传感器410的指纹感测激活区域605。指纹传感器410的指纹感测激活区域605也可以称作指纹获取区域。
根据一个实施例,电子设备400的指纹识别应用可以向处理器440发送UI对象601中的触摸输入的坐标(例如,触摸输入的中心点603)以及相关的高度值和宽度值(H和W)。然后,处理器440可以激活作为指纹感测激活区域605的矩形区域,该矩形区域是由来自指纹感测区域410a内的触摸输入坐标603的高度值和宽度值(H和W)限定的。
图10是示出了根据本公开各种实施例的激活具有一个指纹传感器的电子设备中的指纹感测区域的又一示例的图。
如图10的部分(a)至部分(c)所示,根据本公开各种实施例的电子设备400可以包括覆盖显示器424的整个区域或部分区域的一个指纹传感器410。在显示器424的指纹感测区域410a中,可以显示与指纹识别功能相关的UI对象601。与覆盖显示器424的整个或部分区域的指纹感测区域410a有关的信息可以以一对一的方式映射到显示器424的区域信息。具体地,指纹传感器410的指纹感测激活区域605可以基于UI对象601中的坐标信息(例如,如图7所示的参考点607的坐标、如图8所示的第一点607a和第二点607b的坐标或者如图9所示的触摸输入603的坐标)来确定,并且进一步扩展了边缘区域608。
根据一个实施例,处理器440可以基于用户触摸信息来确定边缘区域608。例如,处理器440可以基于用户触摸区域的坐标信息来确定大于UI对象601的用户触摸区域的边缘区域608。此外,处理器440可以根据用户触摸信息来识别长径的长度(例如,高度H)和短径的长度(例如,宽度W),并且确定比由长径的长度和短径的长度限定的区域更大的边缘区域608。
图11是示出了根据本公开各种实施例的在具有一个指纹传感器的电子设备中将具有高精度的部分设置为指纹传感器的激活区域的示例的图。
如图11所示,根据本公开各种实施例的电子设备400可以包括覆盖显示器424的整个或部分区域的一个指纹传感器410。此外,与覆盖显示器424的整个或部分区域的指纹感测区域410a有关的信息可以以一对一的方式映射到显示器424的区域信息。
具体地,如图11的部分(a)至部分(c)所示,当用户认证用于支付、安全应用访问、解锁或任何其它基于安全数据的交易等时,根据本公开各种实施例的电子设备400可以基于用户输入的特定属性信息(例如,触摸位置、触摸大小、触摸加速度或触摸压力),将允许精确识别用户指纹信息(或生物信息)的部分确定为指纹感测区域410a内的激活区域。
例如,在图11的部分(a)的示例中,当用户身体部位(例如,食指的尖端)触摸显示器424的指纹感测区域410a的一部分时,电子设备400的处理器440可以基于用户输入的属性信息(例如,触摸信息)确定一定量的压力(例如,压力的阈值水平)散布到接触显示器的用户身体部位的纵向中心区域602a。因此,处理器440可以选择纵向中心区域602a作为用于识别指纹信息的“激活”区域,并且获取指纹信息。
在图11的部分(b)的另一示例中,当用户身体部位(例如,食指的尖端)触摸显示器424的指纹感测区域410a的一部分时,电子设备400的处理器440可以基于用户输入的属性信息确定一定量的压力散布到用户身体的触摸部位的左侧区域604a。因此,处理器440可以左侧区域604a作为用于识别指纹信息的激活区域,并且获取指纹信息。
在图11的部分(c)的又一示例中,当用户身体部位(例如,食指的尖端)触摸显示器424的指纹感测区域410a的一部分时,电子设备400的处理器440可以基于用户输入的属性信息确定一定量的压力散布到用户身体的触摸部位的横向中央区域606a。然后,处理器440可以选择横向中心区域606a作为用于识别指纹信息的激活区域,并且获取指纹信息。
根据一个实施例,电子设备400的处理器440可以通过将通过所选择的激活区域(例如,图11的部分(a)至部分(c)中所示的602a、604a和606a)获得的指纹信息与存储器430中所存储的用户信息进行比较,来执行用户认证。例如,电子设备400的处理器440可以将所选择的激活区域(例如,602a、604a和606a)相对于触摸对象(例如,用户的食指)的相对位置预先存储在存储器430中,并且可选地将从激活区域(例如,602a、604a和606a)获取的指纹信息与所存储的指纹信息进行比较,从而缩短用于用户认证的时间。
根据各种实施例,电子设备400的处理器440可以基于用户输入的属性信息(例如,触摸位置、触摸大小、触摸加速度或触摸压力),确定用于获取指纹信息(或生物信息)的激活区域。此外,电子设备400的处理器440可以选择与指纹感测区域的属性(例如,形状或大小)相对应的指纹识别算法,并且使用所选择的算法进行用户认证。例如,如果指纹感测区域具有第一形状,则电子设备400的处理器440可以选择并使用第一算法来进行用户认证,并且类似地如果指纹感测区域具有第二形状,则选择和使用第二算法来进行用户认证。
图12是示出了根据本公开各种实施例的具有多个指纹传感器的电子设备的指纹感测区域的图。
如图12的部分(a)所示,根据本公开各种实施例的电子设备400可以包括第一指纹传感器411和第二指纹传感器412,这两个指纹传感器全部覆盖具有第一区域(例如,上部区域)和第二区(例如,下部区域)的显示器424的整个区域。第一指纹传感器411和第二指纹传感器412可以沿第一方向(例如,水平方向)并排设置在同一平面上。第一指纹传感器411可以形成第一指纹感测区域411a,并且第二指纹传感器412可以形成第二指纹感测区域412a。
如图12的部分(b)所示,根据本公开各种实施例的电子设备400可以包括第一指纹传感器411、第二指纹传感器412、第三指纹传感器413和第四指纹传感器414,这四个指纹传感器全部覆盖具有第一区域(例如,左上区域)、第二区域(例如,右上区域)、第三区域(例如,左下区域)和第四区域(例如,右下区域)的显示器424的整个区域。第一指纹传感器411至第四指纹传感器414可以沿第一方向(例如,水平方向)并排设置在同一平面上。第一指纹传感器411可以形成第一指纹感测区域411a,并且第二指纹传感器412可以形成第二指纹感测区域412a。类似地,第三指纹传感器413可以形成第三指纹感测区域413a,并且第四指纹传感器414可以形成第四指纹感测区域414a。
图13是示出了根据本公开各种实施例的激活具有两个指纹传感器的电子设备中的指纹感测区域的示例的图。
如图13所示,根据本公开各种实施例的电子设备400可以包括第一指纹感测区域411a和第二指纹感测区域412a。
如图13的部分(a)所示,当电子设备400的指纹识别应用执行指纹识别功能时,处理器440可以在显示器424上显示与指纹识别功能相关的UI对象601(例如,登录图标)。当用户触摸UI对象601时,可以将与用户触摸相对应的坐标信息发送到处理器440。然后,基于坐标信息,处理器440可以控制激活第一指纹感测区域411a作为指纹感测激活区域(如图13的部分(b)所示),并且所述通过激活区域411a获取用户指纹信息。
图14是示出了根据本公开各种实施例的激活具有四个指纹传感器的电子设备中的指纹感测区域的示例的图。
如图14所示,根据本公开各种实施例的电子设备400可以包括第一指纹感测区域411a、第二指纹感测区域412a、第三指纹感测区域413a和第四指纹感测区域414a。
如图14的部分(a)所示,当电子设备400的指纹识别应用执行指纹识别功能时,处理器440可以在显示器424上显示与指纹识别功能相关的UI对象601(例如,登录图标)。当用户触摸UI对象601时,可以将与用户触摸相对应的坐标信息发送到处理器440。然后,基于坐标信息,处理器440可以控制激活第二指纹感测区域412a(如图14的部分(b)所示),并且通过激活区域412a获取用户指纹信息。
图15是示出了根据本公开各种实施例的激活具有四个指纹传感器的电子设备中的两个指纹感测区域的示例的图。
如图15所示,根据本公开各种实施例的电子设备400可以包括第一指纹感测区域411a、第二指纹感测区域412a、第三指纹感测区域413a和第四指纹感测区域414a。
如图15的部分(a)所示,当电子设备400的指纹识别应用执行指纹识别功能时,处理器440可以在显示器424的下部中心位置处显示与指纹识别功能相关的UI对象601(例如,指纹样图标)。下部中心位置可以由第三指纹感测区域413a的一部分和第四指纹感测区域414a的一部分构成。当用户触摸UI对象601时,可以将与用户触摸相对应的坐标信息发送到处理器440。然后,基于坐标信息,处理器440可以确定要激活的指纹感测区域。
根据一个实施例,如图15的部分(a)所示,用于指纹识别的UI对象601可以显示在显示器424的下部中心位置处。当用户触摸UI对象601时,基于用户触摸的坐标信息,处理器440可以控制激活第三指纹感测区域413a和第四指纹感测区域414a(如图15的部分(b)所示)。此外,处理器440可以通过第三指纹感测区413a和第四指纹感测区414a接收指纹图像,然后组合所接收的指纹图像以获取用户指纹信息。
图16是示出了根据本公开各种实施例的部分地激活具有至少一个指纹传感器的电子设备中的指纹感测区域的示例的图,所述至少一个指纹传感器部分地没置在显示器中。
如图16所示,根据本公开各种实施例的电子设备400可以在显示器424的一些部分(例如,上部和下部)处限定第一指纹感测区域411a和第二指纹感测区域412a。备选地,根据本公开各种实施例的电子设备400可以在显示器424的中心处限定一个指纹感测区域410a。
如图14的部分(a)所示,当电子设备400的指纹识别应用执行指纹识别功能时,处理器440可以在显示器424的上部处显示与指纹识别功能相关的UI对象601(例如,登录图标)。当用户触摸UI对象601时,可以将与用户触摸相对应的坐标信息发送到处理器440。然后,基于坐标信息,处理器440可以确定要激活的指纹感测区域。
根据一个实施例,如图16的部分(a)所示,可以在显示器424的上部处显示用于指纹识别的UI对象601。当用户触摸UI对象601时,基于用户触摸的坐标信息,处理器440可以控制激活第一指纹感测区域411a作为指纹感测激活区域(如图16的部分(b)所示)。然后,处理器440可以通过激活区域411a获取用户指纹信息。
备选地,当用户触摸的UI对象601设置在显示器424的中心处时,基于用户触摸的坐标信息,处理器440可以控制激活一个指纹感测区域410a(如图16的部分(c)所示)。然后,处理器440可以通过激活区域410a获取用户指纹信息。
图17是示出了根据本公开各种实施例的用于在电子设备中通过不同扫描频率执行触摸获取和指纹获取的方法的图。
根据一个实施例,当根据本公开各种实施例的电子设备400能够获取触摸信息和指纹信息两者时,处理器440可以改变指纹感测激活区域的扫描频率以获取用户指纹信息。
例如,当通过使用触摸面板422获取触摸信息时(如图17的部分(a)所示),电子设备400可以通过第一扫描频率来扫描用户触摸信息。
在另一示例中,当通过使用指纹传感器410获取指纹信息时(如图17的部分(b)所示),电子设备400可以通过与第一扫描频率不同的第二扫描频率来扫描用户指纹信息。根据一些实施例,第二扫描频率可以高于第一扫描频率。
在又一示例中,如图17的部分(c)所示,电子设备400可以使用第二扫描频率从指纹传感器410的一部分获取用户指纹信息。
根据各种实施例,当用户握持电子设备400时,电子设备400的处理器440可以检测用户的握持状态,并且基于检测到的握持状态确定指纹感测区域。例如,如果用户用一只手握持电子设备400,则电子设备400可以在单手模式下操作,并且适当地调整指纹感测区域的位置以适应单手握持。
图18A是示出了根据本公开各种实施例的电子设备的指纹传感器控制方法的示例的流程图。
在操作1801处,处理器440可以在触摸屏420上显示一个或多个图形对象(例如,图6中的UI对象601)。
在操作1803处,处理器440可以从显示在触摸屏420上的一个或多个图形对象中识别与指纹传感器410相关联的至少一个图像对象的属性信息。
根据各种实施例,属性信息可以包括图形对象的坐标信息和图形对象的大小信息(例如,图形对象的水平长度和/或竖直长度)中的至少一个。
在操作1805处,处理器440可以基于所识别的属性信息来确定指纹传感器410的针对上述至少一个图形对象的要激活的区域。
在操作1807处,一旦激活所述区域,则处理器440可以通过所确定的激活区域(例如,图6中的605)来获取用户指纹信息。
图18B是示出了根据本公开各种实施例的电子设备的指纹传感器控制方法的另一示例的流程图。
在操作1810处,电子设备400可以通过指纹传感器410或触摸屏420检测用户的输入(例如,触摸)。
在操作1820处,电子设备400的处理器440可以确定是否请求获取指纹信息(或生物信息)。
例如,基于场景信息(例如,电子设备400的位置,比如POS终端附近)、与电子设备400中当前执行的应用(例如,支付应用被检测为目前是激活的)有关的信息或与电子没备400当前访问的网站或页面(例如,互联网购物中心)有关的信息,处理器440可以确定用户是否触摸了指纹传感器410或触摸屏420,或者是否希望输入指纹(或生物数据)以进行与执行安全发送(比如,金融交易等)相关的安全认证。也就是说,确定是否需要进行基于指纹的认证。
如果确定了需要获取指纹信息(或生物信息),则在操作1830处,处理器440可以识别用户输入的属性信息。
例如,用户输入的属性信息可以包括以下至少一项:指纹传感器410或触摸屏420上的触摸位置、触摸范围、触摸速度、触摸强度以及触摸压力。
在操作1840处,基于所识别的用户输入的属性信息,处理器440可以将用户输入的区域的至少一部分确定为指纹感测激活区域(也被称为“指纹获取区域”或“识别区域”)。如上所述,可以使用各种形状和大小来实现指纹感测激活区域。
在操作1850处,处理器440可以通过指纹感测激活区域从用户输入获取指纹信息,然后基于所获取的指纹信息来执行用户认证。
在操作1860处,处理器440可以确定是否用户认证是否成功。
如果用户认证失败,则在操作1865处,处理器440可以以各种方式(例如,视觉、听觉、触觉或嗅觉方式)向用户通知认证失败。
图19是示出了根据本公开各种实施例的用于在电子设备中基于用户界面(UI)对象来获取指纹信息的方法的示例的流程图。
在操作1910处,处理器440可以在触摸屏420上显示用于指纹认证的UI对象(例如,图6中的601)。此时,处理器440可以驱动指纹传感器410处于能够接收用户的指纹输入的待机状态。
在操作1920处,处理器440可以确定指纹传感器410的能够感测用户指纹的指纹感测区域(或范围)。
根据一个实施例,可以以如上参考图6至图8所述的各种方式来实现用于确定指纹传感器410的指纹感测区域的坐标信息。例如,当在电子设备400的应用层处调用与指纹感测相关的命令时,处理器440可以向传感器管理器传送UI对象的坐标信息和大小信息,以确定指纹感测区域。此外,在电子没备400的应用框架层处,处理器440可以向传感器管理器445传送当前显示的用于接收指纹感测输入的UI对象的坐标信息和大小信息,以确定指纹感测区域。
在操作1930处,处理器440可以通过指纹感测区域中的与UI对象的坐标信息和大小信息相对应的指纹感测激活区域(例如,图6中的605)来获取用户指纹信息。
根据一个实施例,处理器440可以通过作为从应用层或应用框架层接收的指纹感测区域的一部分的指纹感测激活区域来获取用户指纹信息。
在操作1940处,处理器440可以通过将通过指纹感测激活区域获取的用户指纹信息与存储器430中所存储的指纹信息进行比较来执行用户认证。
根据一个实施例,用于电子设备400基于UI对象确定指纹感测区域的应用编程接口(API)可以被设计为如表1所示。
[表1]
图20是示出了根据本公开各种实施例的用于在电子设备中基于用户界面(UI)对象来获取指纹信息的方法的另一示例的流程图。
在操作2010处,处理器440可以在触摸屏420上显示用于指纹认证的UI对象(例如,图6中的601)。此时,处理器440可以驱动指纹传感器410处于能够接收用户的指纹输入的待机状态。
在操作2020中,处理器440可以将指纹传感器410的整个区域确定为指纹感测区域,然后通过指纹传感器410的指纹感测区域来获取用户指纹信息。
在操作2030处,处理器440可以从所获取的用户指纹信息中选择与由UI对象的坐标信息和大小信息限定的指纹感测激活区域(例如,图6中的605)相对应的最终用户指纹信息。
在操作2040处,处理器440可以通过将通过指纹感测激活区域获取的最终用户指纹信息与存储器430中所存储的指纹信息进行比较来执行用户认证。
图21是示出了根据本公开各种实施例的用于在电子设备中基于用户界面(UI)对象和用户触摸输入信息来获取指纹信息的方法的示例的流程图。
在操作2110处,处理器440可以在触摸屏420上显示用于指纹认证的UI对象(例如,图6中的601)。此时,处理器440可以驱动指纹传感器410处于能够接收用户的指纹输入的待机状态。
在操作2120处,处理器440可以在用户触摸触摸面板422时获取用户触摸输入信息。
根据一个实施例,如上面在图9和10中所述的,用户触摸输入信息可以是触摸面板422上的触摸输入的坐标信息以及触摸输入的高度信息和宽度信息。
在操作2130处,处理器440可以确定指纹感测区域中的与触摸输入的坐标信息以及触摸输入的高度信息和宽度信息相对应的指纹感测激活区域(例如,图6中的605)。
在操作2140处,处理器440可以通过与用户触摸输入信息相对应的指纹感测激活区域来获取用户指纹信息。
在操作2150处,处理器440可以通过将通过指纹感测激活区域获取的用户指纹信息与存储器430中所存储的指纹信息进行比较来执行用户认证。
根据一个实施例,用于电子设备400基于UI对象和用户触摸输入确定指纹感测区域的应用编程接口(API)可以被设计为如表2所示。
[表2]
图22是示出了根据本公开各种实施例的用于在电子设备中基于用户界面(UI)对象和用户触摸输入信息来获取指纹信息的方法的另一示例的流程图。
在操作2210处,处理器440可以在触摸屏420上显示用于指纹认证的UI对象(例如,图6中的601)。此时,处理器440可以驱动指纹传感器410处于能够接收用户的指纹输入的待机状态。
在操作2220处,处理器440可以在用户触摸触摸面板422时获取用户触摸输入信息。
在操作2230处,处理器440可以将指纹传感器410的整个区域确定为指纹感测区域,然后通过指纹传感器410的指纹感测区域获取用户触摸信息。
在操作2240处,处理器440可以通过与所获取的用户触摸输入信息中的触摸输入的坐标信息和高度/宽度信息相对应的指纹感测激活区域(例如,图6中的605)来获取用户指纹信息。
在操作2250处,处理器440可以通过将通过指纹感测激活区域获取的用户指纹信息与存储器430中所存储的指纹信息进行比较来执行用户认证。
图23至图26是示出了根据本公开各种实施例的系统架构的图。基于本公开各种实施例的电子设备中所存储的软件层结构,图23至图26所示的系统架构可以包括与用于控制指纹传感器的方法相关的系统架构。以下关于图23至26的描述将关注于与以电子设备的系统架构上的软件来执行根据本公开各种实施例的指纹传感器的控制方法相关的配置。
如图23至图26所示,根据本公开各种实施例的电子设备400可以将软件的各种层存储在存储器430中,这在操作上可能会有所不同。
根据各种实施例,应用层2310可以包括至少一个应用2312。应用框架层2320可以包括视图系统2322、窗口管理器2324、资源管理器2326和传感器管理器2328。库(或系统服务)层2330可以包括表面管理器2332、输入管理器2334和传感器库2336。硬件抽象层(HAL)2340可以包括图形2342、触摸2344和传感器2346。内核层2350可以操作显示器驱动器2352、触摸驱动器2354、指纹传感器驱动器2356和传感器集线器驱动器2358。
图23是示出了根据本公开各种实施例的以电子设备的应用来显示用户界面(UI)的操作的图。
参考图23,应用框架层2320的视图系统2322可以在应用2312的请求下获取用于配置UI的信息。此外,视图系统2322可以通过窗口管理器2324确定被设置为包括UI的窗口,并且还通过资源管理器2326确定要在窗口上显示的资源。
根据一个实施例,视图系统2322可以对通过所提供的资源而确定的窗口上的UI进行配置。然后,可以使用例如表面管理器2332、图形2342和显示器驱动器2352在显示器424上显示UI。
图24是示出了根据本公开各种实施例的以电子设备的应用来执行指纹识别功能的操作的图。
参考图24,当电子设备400的应用2312执行利用指纹识别的功能时,应用2312可以调用在应用框架层2320上的用传感器管理器2328(例如,图4中的传感器管理器445)的API来执行指纹感测功能。例如,连同或者除了上述传感器2328的用于指纹感测的API调用之外,应用2312还可以向传感器管理器2328传送显示器424上的用于指纹感测的UI的坐标信息(例如,参考点的坐标、高度值和宽度值、第一参考点和第二参考点的坐标等)。
根据一个实施例,指纹传感器管理器2328可以通过传感器库2336和传感器2346向传感器驱动器2356传送用于控制指纹传感器410激活与所接收的坐标信息相对应的指纹感测区域的命令。然后,指纹传感器驱动器2356可以根据所接收到的命令来控制指纹传感器410。此外,传感器管理器2328可以向指纹传感器驱动器2356传送所接收到的指纹感测激活区域信息。然后,指纹传感器驱动器2356可以在整个扫描图像中获取与指纹感测激活区域相对应的部分,然后将该部分传送到安全区域。
图25是示出了根据本公开各种实施例的以电子设备的应用来执行指纹识别功能的另一操作的图。
参考图25,当电子设备400的应用2312执行利用指纹识别的功能时,应用2312可以通过应用框架层2320上的视图系统2322显示UI对象。
根据一个实施例,从应用2312接收用于显示用以指纹识别的UI对象的命令的应用框架层2320可以执行通过显示器424显示UI对象的操作。此外,应用框架层2320向传感器管理器2328提供与当前用户界面(UI)对象的坐标信息(例如,参考坐标、高度H和宽度W)以及第二参考坐标等有关的信息。接收UI对象的坐标信息的传感器管理器2328可以向指纹传感器驱动器2356传送用于控制指纹传感器410激活与所接收的坐标信息相对应的指纹感测区域的命令。然后,指纹传感器驱动器2356可以根据所接收到的命令来控制指纹传感器410。
图26是示出了根据本公开各种实施例的以电子设备的应用来执行指纹识别功能的又一操作的图。
参考图26,当电子设备400的应用2312执行利用指纹识别的功能时,应用2312可以在显示器424上显示需要指纹输入的UI对象,并且在待机状态下等待用户指纹输入。当从显示器检测到用户指纹输入(例如,触摸)时,触摸驱动器2354可以经由输入管理器2334向应用2312传送触摸输入坐标。
根据一个实施例,接收触摸输入信息的应用2312可以调用传感器管理器2328的指纹感测API来执行指纹感测。此时,应用2312还可以向传感器管理器2328传送所接收到的触摸输入坐标信息。然后,传感器管理器2328可以向指纹传感器驱动器2356传送用于控制指纹传感器410激活与所接收到的触摸坐标信息相对应的指纹感测区域的命令。然后,指纹传感器驱动器2356可以根据所接收到的命令来控制指纹传感器410。
尽管已经参考本公开的示例实施例具体示出和描述了本公开,但是应该清楚地理解,这些描述仅仅作为示例且是说明性的,并且不仅仅只能结合本公开来进行。本领域普通技术人员应该理解的是,在不脱离本公开的主题的情况下可以进行形式和细节上的各种改变。
Claims (15)
1.一种电子设备,包括:
触摸屏;
至少一个指纹传感器,设置在所述触摸屏的至少一部分上;以及
处理器,与所述触摸屏和所述至少一个指纹传感器电耦接,其中所述处理器配置为:
控制所述触摸屏显示一个或多个图形对象,
从所述一个或多个图形对象中获得与所述至少一个指纹传感器相关联的至少一个图形对象的属性信息,并且获得与所述触摸屏正接触且与所述至少一个图形对象相关联的至少一个触摸输入的尺寸,
基于所述属性信息,激活所述至少一个指纹传感器的与所述至少一个图形对象相关联的区域,
当所述至少一个触摸输入被检测到部分地在所述至少一个图形对象内且部分地在所述至少一个图形对象外部时,扩展所述至少一个指纹传感器的激活区域,以包含所述至少一个触摸输入的整体,所述整体包括设置在所述至少一个图形对象内部的第一部分和设置在所述至少一个图形对象外部的第二部分,以及
通过所述激活区域获取指纹信息。
2.根据权利要求1所述的电子设备,其中所述处理器还配置为:基于与通过所述触摸屏获得的用户输入相关联的其它属性信息,选择用于激活的区域,所述用户输入与所述至少一个触摸输入相对应。
3.根据权利要求2所述的电子设备,其中所述其它属性信息还包括所述用户输入的坐标信息或大小信息。
4.根据权利要求2所述的电子设备,其中所述其它属性信息还包括所述用户输入的压力信息,并且所述处理器还配置为将所述激活区域缩小到与所述压力信息相对应的区域。
5.根据权利要求1所述的电子设备,还包括:
存储器,配置为存储所登记的指纹信息;
其中基于与存储登记的指纹信息相关联的其它属性信息来选择所述区域来激活。
6.根据权利要求1所述的电子设备,其中所述指纹传感器在第一感测模式和第二感测模式中的至少一个感测模式下操作,并且
其中所述处理器还配置为:在所述第一感测模式下操作所述激活区域,并且在所述第二感测模式下,操作所述至少一个指纹传感器的与所述激活区域不同的其余区域。
7.根据权利要求1所述的电子设备,其中所述至少一个指纹传感器包括第一指纹传感器和第二指纹传感器,并且
其中所述处理器还配置为:基于与所述激活区域的对应关系,来选择所述第一指纹传感器和所述第二指纹传感器中的一个来激活。
8.根据权利要求1所述的电子设备,其中所述处理器还配置为:忽略从所述至少一个指纹传感器的与所述激活区域不同的其余区域获取的信息。
9.一种用于控制电子设备的方法,所述方法包括:
通过处理器控制触摸屏显示一个或多个图形对象;
从所述一个或多个图形对象中,获得与设置在所述触摸屏的至少一部分上的指纹传感器相关联的至少一个图形对象的属性信息,并且获得与所述触摸屏正接触且与所述至少一个图形对象相关联的至少一个触摸输入的尺寸;
基于所述属性信息激活所述指纹传感器的区域,所述指纹传感器的激活区域与所述至少一个图形对象相关联;
当所述至少一个触摸输入被检测到部分地在所述至少一个图形对象内且部分地在所述至少一个图形对象外部时,扩展所述指纹传感器的激活区域,以包含所述至少一个触摸输入的整体,所述整体包括设置在所述至少一个图形对象内部的第一部分和设置在所述至少一个图形对象外部的第二部分,以及
通过所述指纹传感器的所述激活区域获取指纹信息。
10.根据权利要求9所述的方法,其中基于与通过所述触摸屏获得的用户输入相关联的其它属性信息来选择所述指纹传感器的用于激活的区域,所述用户输入与所述至少一个触摸输入相对应。
11.根据权利要求10所述的方法,其中所述其它属性信息还包括所述用户输入的坐标信息或大小信息。
12.根据权利要求9所述的方法,其中基于与存储器中存储登记的指纹信息相关联的其它属性信息来选择所述区域来激活。
13.根据权利要求9所述的方法,其中所述指纹传感器在第一感测模式和第二感测模式中的至少一个感测模式下操作,所述方法还包括:在所述第一感测模式下操作所述激活区域,并且在所述第二感测模式下操作所述指纹传感器的与所述激活区域不同的其余区域。
14.根据权利要求9所述的方法,其中所述指纹传感器包括第一指纹传感器和第二指纹传感器,所述方法还包括:基于与所述激活区域的对应关系,选择所述第一指纹传感器和所述第二指纹传感器中的一个来激活。
15.根据权利要求9所述的方法,还包括:忽略从所述指纹传感器的与所述激活区域不同的其余区域获取的信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170015427A KR102582973B1 (ko) | 2017-02-03 | 2017-02-03 | 지문 센서를 제어하기 위한 장치 및 그 방법 |
KR10-2017-0015427 | 2017-02-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108388390A CN108388390A (zh) | 2018-08-10 |
CN108388390B true CN108388390B (zh) | 2023-03-31 |
Family
ID=61163503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810104079.0A Active CN108388390B (zh) | 2017-02-03 | 2018-02-01 | 控制指纹传感器的设备和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10725578B2 (zh) |
EP (1) | EP3358455A1 (zh) |
KR (1) | KR102582973B1 (zh) |
CN (1) | CN108388390B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102006560B1 (ko) * | 2017-03-27 | 2019-08-01 | 선전 구딕스 테크놀로지 컴퍼니, 리미티드 | 지문 동작의 프롬프팅 방법 및 전자 기기 |
CN108664279B (zh) * | 2017-03-29 | 2021-05-18 | 上海耕岩智能科技有限公司 | 一种基于指纹识别同步启动应用的方法和装置 |
CN109255278A (zh) * | 2017-07-12 | 2019-01-22 | 上海耕岩智能科技有限公司 | 一种同步采集指纹信息的方法和装置 |
WO2019135700A1 (en) * | 2018-01-08 | 2019-07-11 | Fingerprint Cards Ab | Improved fingerprint matching in in-display solutions |
CN108647606B (zh) * | 2018-04-28 | 2020-07-14 | 武汉天马微电子有限公司 | 一种显示面板和显示装置 |
CN109032323A (zh) * | 2018-06-20 | 2018-12-18 | 华勤通讯技术有限公司 | 界面显示方法及电子设备 |
CN112567380A (zh) * | 2018-08-09 | 2021-03-26 | 指纹卡有限公司 | 针对用户的多手指登记的方法 |
CN109190501A (zh) * | 2018-08-10 | 2019-01-11 | 维沃移动通信有限公司 | 操作识别方法和终端 |
CN109244108B (zh) * | 2018-08-29 | 2020-11-03 | 京东方科技集团股份有限公司 | 一种oled显示基板及其制作方法、oled显示装置 |
CN110232356B (zh) * | 2018-09-21 | 2022-04-15 | 神盾股份有限公司 | 光学式指纹辨识器及其指纹辨识方法 |
TWI757198B (zh) | 2018-12-27 | 2022-03-01 | 聯詠科技股份有限公司 | 電子裝置及其指紋感測控制方法與指紋掃描控制方法 |
CN111488761B (zh) * | 2019-01-25 | 2024-04-26 | 北京小米移动软件有限公司 | 指纹识别方法、装置、电子设备和计算机可读存储介质 |
US10775926B2 (en) * | 2019-01-28 | 2020-09-15 | Novatek Microelectronics Corp. | Method of performing touch sensing and fingerprint sensing simultaneously and electronic device and system using the same |
CN111695382B (zh) * | 2019-03-14 | 2024-02-13 | 北京小米移动软件有限公司 | 指纹采集区域确定方法和指纹采集区域确定装置 |
KR20200118270A (ko) | 2019-04-03 | 2020-10-15 | 삼성디스플레이 주식회사 | 지문 감지 기능을 갖는 표시 장치, 그것을 포함하는 전자 장치 및 전자 장치의 동작 방법 |
CN110069208A (zh) * | 2019-05-31 | 2019-07-30 | Oppo广东移动通信有限公司 | 触控操作方法及相关设备 |
CN110276307A (zh) * | 2019-06-25 | 2019-09-24 | Oppo广东移动通信有限公司 | 显示组件装置、电子设备和显示组件装置的组装方法 |
EP3991017A1 (en) * | 2019-06-28 | 2022-05-04 | Telefonaktiebolaget LM Ericsson (publ) | Control of user profiles based on biometrical user authentication in an electronic user device |
US11551466B2 (en) | 2019-08-21 | 2023-01-10 | Novatek Microelectronics Corp. | Control circuit and related method for controlling display panel |
US11232282B2 (en) | 2019-08-21 | 2022-01-25 | Novatek Microelectronics Corp. | Control circuit, display system, and related method of controlling display panel |
CN113778273B (zh) * | 2021-07-29 | 2022-12-23 | 荣耀终端有限公司 | 光斑显示方法、电子设备及计算机可读存储介质 |
CN114489410B (zh) * | 2021-07-29 | 2023-11-17 | 荣耀终端有限公司 | 光斑显示方法、电子设备及计算机可读存储介质 |
US11823481B2 (en) | 2021-12-29 | 2023-11-21 | Qualcomm Incorporated | Adaptive activation of fingerprint sensor areas |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104991609A (zh) * | 2015-07-20 | 2015-10-21 | 广东欧珀移动通信有限公司 | 一种移动终端 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1766547B1 (en) | 2004-06-18 | 2008-11-19 | Fingerprint Cards AB | Fingerprint sensor element |
KR100687725B1 (ko) | 2004-12-07 | 2007-03-02 | 고려대학교 산학협력단 | 지문 데이터 보안 인증 방법 및 그 장치 |
KR101035930B1 (ko) * | 2007-01-24 | 2011-05-23 | 후지쯔 가부시끼가이샤 | 화상 판독 장치, 화상 판독 프로그램을 기록한 기록 매체, 화상 판독 방법 |
KR20150018349A (ko) * | 2013-08-08 | 2015-02-23 | 삼성전자주식회사 | 휴대 단말기 및 휴대 단말기의 지문 입력 가이드 정보를 제공하는 방법, 및 이 방법을 실행하기 위한 프로그램이 기록되어 있는 비휘발성 기록매체 |
KR102090750B1 (ko) | 2013-08-23 | 2020-03-18 | 삼성전자주식회사 | 지문 인식을 위한 전자 장치 및 방법 |
KR102180226B1 (ko) | 2013-10-30 | 2020-11-18 | 삼성전자주식회사 | 복합 생체 정보를 이용한 보안을 제공하는 전자 장치 및 방법 |
US10068118B2 (en) * | 2014-02-25 | 2018-09-04 | Tara Chand Singhal | Apparatus and method for a biometric sensor in a handheld mobile wireless communication device |
KR102264808B1 (ko) | 2014-06-23 | 2021-06-14 | 삼성전자주식회사 | 지문 처리 방법 및 그 전자 장치 |
KR102264473B1 (ko) | 2014-09-17 | 2021-06-14 | 엘지디스플레이 주식회사 | 지문 인식 소자를 포함한 표시 장치 및 그의 구동 방법 |
CN105528099B (zh) * | 2014-09-29 | 2018-04-13 | 神盾股份有限公司 | 结合指纹辨识功能于触控屏幕的电子装置及其控制方法 |
KR102220783B1 (ko) | 2014-10-10 | 2021-02-26 | 엘지디스플레이 주식회사 | 지문 인식 소자를 포함한 표시 장치 및 그의 구동 방법 |
KR102290892B1 (ko) * | 2014-12-12 | 2021-08-19 | 엘지전자 주식회사 | 이동단말기 및 그것의 제어방법 |
KR102280155B1 (ko) | 2015-02-04 | 2021-07-22 | 엘지디스플레이 주식회사 | 센서 스크린 및 그를 구비한 표시장치 |
US20160246396A1 (en) | 2015-02-20 | 2016-08-25 | Qualcomm Incorporated | Interactive touchscreen and sensor array |
KR102468191B1 (ko) | 2016-04-27 | 2022-11-18 | 삼성전자주식회사 | 지문 인증 방법 및 이를 수행하는 전자 장치 |
-
2017
- 2017-02-03 KR KR1020170015427A patent/KR102582973B1/ko active IP Right Grant
-
2018
- 2018-01-10 US US15/866,791 patent/US10725578B2/en active Active
- 2018-02-01 EP EP18154780.3A patent/EP3358455A1/en not_active Withdrawn
- 2018-02-01 CN CN201810104079.0A patent/CN108388390B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104991609A (zh) * | 2015-07-20 | 2015-10-21 | 广东欧珀移动通信有限公司 | 一种移动终端 |
Also Published As
Publication number | Publication date |
---|---|
CN108388390A (zh) | 2018-08-10 |
US20180224999A1 (en) | 2018-08-09 |
KR102582973B1 (ko) | 2023-09-26 |
EP3358455A1 (en) | 2018-08-08 |
KR20180090503A (ko) | 2018-08-13 |
US10725578B2 (en) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108388390B (zh) | 控制指纹传感器的设备和方法 | |
CN106066986B (zh) | 用于感测指纹的方法和装置 | |
US10425409B2 (en) | Method and apparatus for connecting between electronic devices using authentication based on biometric information | |
CN108701178B (zh) | 认证方法及使用认证方法的电子设备 | |
EP3086217B1 (en) | Electronic device for displaying screen and control method thereof | |
KR102552312B1 (ko) | 복수의 지문 센싱 모드를 갖는 전자 장치 및 그 제어 방법 | |
US10386927B2 (en) | Method for providing notification and electronic device thereof | |
CN108376017B (zh) | 用于控制显示器的方法和电子设备 | |
CN110325993B (zh) | 通过使用多个生物特征传感器执行认证的电子设备及其操作方法 | |
CN110050279B (zh) | 用于感测指纹的电子设备和方法 | |
US20190324640A1 (en) | Electronic device for providing user interface according to electronic device usage environment and method therefor | |
EP3396562A1 (en) | Content recognition apparatus and method for operating same | |
CN107784268B (zh) | 基于红外线传感器使用其来测量心率的方法和电子设备 | |
US10719209B2 (en) | Method for outputting screen and electronic device supporting the same | |
KR102513147B1 (ko) | 전자 장치 및 그의 터치 입력 인식 방법 | |
US10909226B2 (en) | Method for controlling biosensor, and electronic device | |
KR20160124536A (ko) | 사용자 인터페이스를 제공하는 방법 및 전자장치 | |
US10970515B2 (en) | Method and electronic device for verifying fingerprint | |
US11132537B2 (en) | Electronic device for determining position of user based on image pixels, and method of controlling said device | |
CN108652594B (zh) | 用于测量生物计量信息的电子设备和方法 | |
KR20180014614A (ko) | 전자 장치 및 전자 장치의 터치 이벤트 처리 방법 | |
KR20170054072A (ko) | 액세서리 장치를 감지하는 전자장치 및 그의 동작 방법 | |
KR20180106221A (ko) | 객체의 구성 정보에 대응하는 그래픽 효과를 제공하기 위한 방법 및 그 전자 장치 | |
KR20180037753A (ko) | 전자 장치 및 그의 동작 방법 | |
CN110537177B (zh) | 电子装置及其操作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |