CN113767359A - 使用显示器的光获取生物特征信息的方法及电子装置 - Google Patents

使用显示器的光获取生物特征信息的方法及电子装置 Download PDF

Info

Publication number
CN113767359A
CN113767359A CN202080032385.3A CN202080032385A CN113767359A CN 113767359 A CN113767359 A CN 113767359A CN 202080032385 A CN202080032385 A CN 202080032385A CN 113767359 A CN113767359 A CN 113767359A
Authority
CN
China
Prior art keywords
display
processor
touch
image sensor
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080032385.3A
Other languages
English (en)
Inventor
崔佑存
吴斗善
金达索
金镇护
郑知云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN113767359A publication Critical patent/CN113767359A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6825Hand
    • A61B5/6826Finger
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Environmental & Geological Engineering (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Computer Security & Cryptography (AREA)
  • Pulmonology (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)

Abstract

根据实施例的电子装置可以包括壳体,通过壳体的第一表面的至少一部分露出的显示器,图像传感器,与显示器和图像传感器可操作地连接的处理器,以及与处理器可操作地连接的存储器,其中存储器可以存储指令,所述指令在被执行时使得处理器在使用显示器显示用户界面的同时检测用户手指在图像传感器上的触摸。响应于检测到触摸,在手指的触摸保持在图像传感器上的同时,改变距图像传感器预定距离内的显示器区域中的用户界面,并且基于从显示器发射的光的反射光获取用户的生物特征信息,其中使用图像传感器获取反射光。

Description

使用显示器的光获取生物特征信息的方法及电子装置
技术领域
本发明大体上涉及一种使用显示器的光获取生物特征信息的电子装置和方法。
背景技术
电子装置可以使用光传感器获取用户的生物特征信息。为了获取用户的生物特征信息,电子装置需要光发射装置和光传感器。
发明内容
[技术问题]
传统上,电子装置可能需要专用的光发射装置和光传感器,以便向用户提供与生物特征信息相关联的各种功能。此外,由于光发射装置和光传感器露出在电子装置的壳体表面上,电子装置的设计可能受到限制,增加了购买和安装光发射装置和光传感器的成本。
因此,进行了在不需要专用光发射装置和光传感器的情况下生物特征信息的获取的研究。
[技术方案]
根据实施例的电子装置可以包括壳体,通过壳体的第一表面的至少一部分露出的显示器,通过壳体的第一表面的至少一部分露出的图像传感器,与显示器和图像传感器可操作地连接的处理器,以及与处理器可操作地连接的存储器,并且存储器可以存储指令,所述指令在被执行时使得处理器在使用显示器显示用户界面的同时,检测用户的手指在图像传感器上的触摸,响应于检测到触摸,在手指的触摸保持在图像传感器上的同时,改变距图像传感器预定距离内的显示器区域中的用户界面,并且基于从显示器发射的光的反射光获取用户的生物特征信息,其中使用图像传感器获取反射光。
根据实施例的包括壳体的电子装置的操作方法可以包括,在使用通过壳体的第一表面的至少一部分露出的显示器显示用户界面的同时,检测用户的手指在通过壳体的第一表面的至少一部分露出的图像传感器上的触摸,响应于检测到触摸,在手指的触摸保持在图像传感器上的同时,改变距图像传感器预定距离内的显示器区域中的用户界面,并且基于从显示器发射的光的反射光来获取用户的生物特征信息,其中使用图像传感器来获取反射光。
根据实施例的电子装置可以包括壳体,通过壳体的第一表面的至少一部分露出的显示器,当观看壳体的第一表面时设置在显示器的显示区域中的图像传感器,与显示器和图像传感器可操作地连接的处理器,以及与处理器可操作地连接的存储器,并且存储器可以存储指令,所述指令在被执行时使处理器在显示器上显示的用户界面上显示指示预设触摸请求区域的指示符,在用户界面中显示指示符之后,在触摸请求区域的至少一部分中检测用户的手指的触摸,响应于检测到触摸,控制显示器在当在壳体的前视图中观看时围绕图像传感器的预设第二区域中发射预设强度的光,基于从显示器发射的预定强度的光的反射光获取用户的生物特征信息,其中使用图像传感器获取反射光。
通过下面结合附图的详细描述公开了本公开的实施例,本公开的其它方面、优点和显著特征对于本领域的技术人员将变得显而易见。
[发明的有益效果]
电子装置(例如,图4的电子装置401)及其操作方法可以在没有专用光发射装置和光学传感器的情况下向用户提供与生物特征信息获取相关联的各种功能。
附图说明
从以下结合附图的描述中,本公开的某些实施例的上述和其它方面、特征和优点将变得更加明显,其中:
图1示出了根据实施例的网络环境中的电子装置的框图;
图2示出了根据实施例的显示装置的框图;
图3示出了根据实施例的相机模块的框图;
图4A是示出根据实施例的电子装置的视图;
图4B是示出根据实施例的电子装置的视图;
图4C是示出根据实施例的电子装置的视图;
图5A是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图5B是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图5C是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图5D是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图5E是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图6A是示出根据实施例的电子装置的发射区域的示例的视图;
图6B是示出根据实施例的电子装置的发射区域的示例的视图;
图6C是示出根据实施例的电子装置的发射区域的示例的视图;
图6D是示出根据实施例的电子装置的发射区域的示例的视图;
图6E是示出根据实施例的电子装置的发射区域的示例的视图;
图6F是示出根据实施例的电子装置的发射区域的示例的视图;
图7A是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图7B是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图7C是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图7D是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图7E是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图8A是示出根据实施例的电子装置的发射区域的示例的视图;
图8B是示出根据实施例的电子装置的发射区域的示例的视图;
图8C是示出根据实施例的电子装置的发射区域的示例的视图;
图8D是示出根据实施例的电子装置的发射区域的示例的视图;
图8E是示出根据实施例的电子装置的发射区域的示例的视图;
图8F是示出根据实施例的电子装置的发射区域的示例的视图;
图8G是示出根据实施例的电子装置的发射区域的示例的视图;
图9A是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图9B是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图9C是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图9D是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图9E是示出根据实施例的使用电子装置进行生物特征信息测量的视图;
图10A是示出根据实施例的电子装置的发射区域的示例的视图;
图10B是示出根据实施例的电子装置的发射区域的示例的视图;
图10C是示出根据实施例的电子装置的发射区域的示例的视图;
图11示出了根据实施例的电子装置的操作的流程图;以及
图12示出了根据实施例的电子装置的操作的流程图。
在所有附图中,相同的附图标记将被理解为表示相似的部件、部件和结构。
具体实施方式
图1是示出根据实施例的网络环境100中的电子装置101的框图。参照图1,网络环境100中的电子装置101可经由第一网络198(例如,短距离无线通信网络)与电子装置102进行通信,或者经由第二网络199(例如,长距离无线通信网络)与电子装置104或服务器108进行通信。根据实施例,电子装置101可经由服务器108与电子装置104进行通信。根据实施例,电子装置101可包括处理器120、存储器130、输入装置150、声音输出装置155、显示装置160、音频模块170、传感器模块176、接口177、触觉模块179、相机模块180、电力管理模块188、电池189、通信模块190、用户识别模块(SIM)196或天线模块197。在一些实施例中,可从电子装置101中省略所述部件中的至少一个(例如,显示装置160或相机模块180),或者可将一个或更多个其它部件添加到电子装置101中。在一些实施例中,可将所述部件中的一些部件实现为单个集成电路。例如,可将传感器模块176(例如,指纹传感器、虹膜传感器、或照度传感器)实现为嵌入在显示装置160(例如,显示器)中。
处理器120可运行例如软件(例如,程序140)来控制电子装置101的与处理器120连接的至少一个其它部件(例如,硬件部件或软件部件),并可执行各种数据处理或计算。根据一个实施例,作为所述数据处理或计算的至少部分,处理器120可将从另一部件(例如,传感器模块176或通信模块190)接收到的命令或数据加载到易失性存储器132中,对存储在易失性存储器132中的命令或数据进行处理,并将结果数据存储在非易失性存储器134中。根据实施例,处理器120可包括主处理器121(例如,中央处理器(CPU)或应用处理器(AP))以及与主处理器121在操作上独立的或者相结合的辅助处理器123(例如,图形处理单元(GPU)、图像信号处理器(ISP)、传感器中枢处理器或通信处理器(CP))。另外地或者可选择地,辅助处理器123可被适配为比主处理器121耗电更少,或者被适配为具体用于指定的功能。可将辅助处理器123实现为与主处理器121分离,或者实现为主处理器121的部分。
在主处理器121处于未激活(例如,睡眠)状态时,辅助处理器123可控制与电子装置101(而非主处理器121)的部件之中的至少一个部件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些,或者在主处理器121处于激活状态(例如,运行应用)时,辅助处理器123可与主处理器121一起来控制与电子装置101的部件之中的至少一个部件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些。根据实施例,可将辅助处理器123(例如,图像信号处理器或通信处理器)实现为在功能上与辅助处理器123相关的另一部件(例如,相机模块180或通信模块190)的部分。
存储器130可存储由电子装置101的至少一个部件(例如,处理器120或传感器模块176)使用的各种数据。所述各种数据可包括例如软件(例如,程序140)以及针对与其相关的命令的输入数据或输出数据。存储器130可包括易失性存储器132或非易失性存储器134。
可将程序140作为软件存储在存储器130中,并且程序140可包括例如操作系统(OS)142、中间件144或应用146。
输入装置150可从电子装置101的外部(例如,用户)接收将由电子装置101的其它部件(例如,处理器120)使用的命令或数据。输入装置150可包括例如麦克风、鼠标、键盘或数字笔(例如,手写笔)。
声音输出装置155可将声音信号输出到电子装置101的外部。声音输出装置155可包括例如扬声器或接收器。扬声器可用于诸如播放多媒体或播放唱片的通用目的,接收器可用于呼入呼叫。根据实施例,可将接收器实现为与扬声器分离,或实现为扬声器的部分。
显示装置160可向电子装置101的外部(例如,用户)视觉地提供信息。显示装置160可包括例如显示器、全息装置或投影仪以及用于控制显示器、全息装置和投影仪中的相应一个的控制电路。根据实施例,显示装置160可包括被适配为检测触摸的触摸电路或被适配为测量由触摸引起的力的强度的传感器电路(例如,压力传感器)。
音频模块170可将声音转换为电信号,反之亦可。根据实施例,音频模块170可经由输入装置150获得声音,或者经由声音输出装置155或与电子装置101直接(例如,有线地)连接或无线连接的外部电子装置(例如,电子装置102)的耳机输出声音。
传感器模块176可检测电子装置101的操作状态(例如,功率或温度)或电子装置101外部的环境状态(例如,用户的状态),然后产生与检测到的状态相应的电信号或数据值。根据实施例,传感器模块176可包括例如手势传感器、陀螺仪传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口177可支持将用来使电子装置101与外部电子装置(例如,电子装置102)直接(例如,有线地)或无线连接的一个或更多个特定协议。根据实施例,接口177可包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端178可包括连接器,其中,电子装置101可经由所述连接器与外部电子装置(例如,电子装置102)物理连接。根据实施例,连接端178可包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块179可将电信号转换为可被用户经由他的触觉或动觉识别的机械刺激(例如,振动或运动)或电刺激。根据实施例,触觉模块179可包括例如电机、压电元件或电刺激器。
相机模块180可捕获静止图像或运动图像。根据实施例,相机模块180可包括一个或更多个透镜、图像传感器、图像信号处理器或闪光灯。
电力管理模块188可管理对电子装置101的供电。根据实施例,可将电力管理模块188实现为例如电力管理集成电路(PMIC)的至少部分。
电池189可对电子装置101的至少一个部件供电。根据实施例,电池189可包括例如不可再充电的原电池、可再充电的蓄电池、或燃料电池。
通信模块190可支持在电子装置101与外部电子装置(例如,电子装置102、电子装置104或服务器108)之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道执行通信。通信模块190可包括能够与处理器120(例如,应用处理器(AP))独立操作的一个或更多个通信处理器,并支持直接(例如,有线)通信或无线通信。根据实施例,通信模块190可包括无线通信模块192(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块194(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的相应一个可经由第一网络198(例如,短距离通信网络,诸如蓝牙、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络199(例如,长距离通信网络,诸如蜂窝网络、互联网、或计算机网络(例如,LAN或广域网(WAN)))与外部电子装置进行通信。可将这些各种类型的通信模块实现为单个部件(例如,单个芯片),或可将这些各种类型的通信模块实现为彼此分离的多个部件(例如,多个芯片)。无线通信模块192可使用存储在用户识别模块196中的用户信息(例如,国际移动用户识别码(IMSI))识别并验证通信网络(诸如第一网络198或第二网络199)中的电子装置101。
天线模块197可将信号或电力发送到电子装置101的外部(例如,外部电子装置)或者从电子装置101的外部(例如,外部电子装置)接收信号或电力。根据实施例,天线模块197可包括天线,所述天线包括辐射元件,所述辐射元件由形成在基底(例如,印刷电路板(PCB))中或形成在基底上的导电材料或导电图案构成。根据实施例,天线模块197可包括多个天线。在这种情况下,可由例如通信模块190(例如,无线通信模块192)从所述多个天线中选择适合于在通信网络(诸如第一网络198或第二网络199)中使用的通信方案的至少一个天线。随后可经由所选择的至少一个天线在通信模块190和外部电子装置之间发送或接收信号或电力。根据实施例,除了辐射元件之外的另外的部件(例如,射频集成电路(RFIC))可附加地形成为天线模块197的一部分。
上述部件中的至少一些可经由外设间通信方案(例如,总线、通用输入输出(GPIO)、串行外设接口(SPI)或移动工业处理器接口(MIPI))相互连接并在它们之间通信地传送信号(例如,命令或数据)。
根据实施例,可经由与第二网络199连接的服务器108在电子装置101和外部电子装置104之间发送或接收命令或数据。电子装置102和电子装置104中的每一个可以是与电子装置101相同类型的装置,或者是与电子装置101不同类型的装置。根据实施例,将在电子装置101运行的全部操作或一些操作可在外部电子装置102、外部电子装置104或服务器108中的一个或更多个运行。例如,如果电子装置101应该自动执行功能或服务或者应该响应于来自用户或另一装置的请求执行功能或服务,则电子装置101可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分,而不是运行所述功能或服务,或者电子装置101除了运行所述功能或服务以外,还可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分。接收到所述请求的所述一个或更多个外部电子装置可执行所述功能或服务中的所请求的所述至少部分,或者执行与所述请求相关的另外功能或另外服务,并将执行的结果传送到电子装置101。电子装置101可在对所述结果进行进一步处理的情况下或者在不对所述结果进行进一步处理的情况下将所述结果提供作为对所述请求的至少部分答复。为此,可使用例如云计算技术、分布式计算技术或客户机-服务器计算技术。
图2是示出根据实施例的显示装置160的框图200。参照图2,显示装置160可包括显示器210和用于控制显示器210的显示驱动器集成电路(DDI)230。DDI 230可包括接口模块231、存储器233(例如,缓冲存储器)、图像处理模块235或映射模块237。DDI 230可经由接口模块231从电子装置101的另一部件接收包含图像数据的图像信息或与用于控制图像数据的命令相应的图像控制信号。例如,根据实施例,可从处理器120(例如,主处理器121(例如,应用处理器))或辅助处理器123(例如,图形处理单元)接收图像信息,其中,辅助处理器123独立于主处理器121的功能进行操作。DDI 230可经由接口模块231与例如触摸电路150或传感器模块176通信。DDI 230还可例如逐帧地将接收到的图像信息的至少一部分存储在存储器233中。
图像处理模块235可针对图像数据的至少一部分执行预处理或后处理(例如,对分辨率、亮度或尺寸的调整)。根据实施例,例如,可至少部分基于图像数据的一个或更多个特征或显示器210的一个或更多个特征来执行预处理或后处理。
映射模块237可产生与由图像处理模块235预处理或后处理的图像数据相应的电压值或电流值。根据实施例,例如,可至少部分基于像素的一个或更多个属性(例如,像素的阵列(诸如RGB条纹或pentile结构)或每个子像素的尺寸)执行电压值或电流值的产生。例如,可至少部分基于电压值或电流值来驱动显示器210的至少一些像素,从而可经由显示器210来显示与图像数据相应的视觉信息(例如,文本、图像或图标)。
根据实施例,显示装置160还可包括触摸电路250。触摸电路250可包括触摸传感器251和用于控制触摸传感器251的触摸传感器IC 253。触摸传感器IC 253可控制触摸传感器251感测针对显示器210上的特定位置的触摸输入或悬浮输入。为此,例如,触摸传感器251可检测(例如,测量)与显示器210上的特定位置相应的信号(例如,电压、光量、电阻或者一个或更多个电荷量)。触摸电路250可将指示经由触摸传感器251检测的触摸输入或悬浮输入的输入信息(例如,位置、区域、压力或时间)提供给处理器120。根据实施例,可将触摸电路250的至少一部分(例如,触摸传感器IC 253)形成为显示器210或DDI 230的一部分,或形成为位于显示装置160外部的另一部件(例如,辅助处理器123)的一部分。
根据实施例,显示装置160还可包括传感器模块176的至少一个传感器(例如,指纹传感器、虹膜传感器、压力传感器或照度传感器)或用于所述至少一个传感器的控制电路。在这样的情况下,可将所述至少一个传感器或用于所述至少一个传感器的控制电路嵌入在显示装置160的部件(例如,显示器210、DDI 230或触摸电路150)的一部分中。例如,当嵌入在显示装置160中的传感器模块176包括生物传感器(例如,指纹传感器)时,生物传感器可获取与经由显示器210的一部分接收到的触摸输入相应的生物信息(例如,指纹图像)。作为另一示例,当嵌入在显示装置160中的传感器模块176包括压力传感器时,压力传感器可获取与经由显示器210的部分区域或整个区域接收到的触摸输入相应的压力信息。根据实施例,可将触摸传感器251或传感器模块176布置在显示器210的像素层中的像素之间,或布置在像素层的上方或下方。
图3是示出根据实施例的相机模块180的框图300。参照图3,相机模块180可包括镜头组件310、闪光灯320、图像传感器330、图像稳定器340、存储器350(例如,缓冲存储器)或图像信号处理器360。镜头组件310可采集从将被拍摄图像的物体发出或反射的光。镜头组件310可包括一个或更多个透镜。根据实施例,相机模块180可包括多个镜头组件310。在这种情况下,相机模块180可形成例如双相机、360度相机或球形相机。多个镜头组件310中的一些镜头组件310可具有相同的镜头属性(例如,视角、焦距、自动对焦、f数或光学变焦),或者至少一个镜头组件可具有与另外的镜头组件的镜头属性不同的一个或更多个镜头属性。镜头组件310可包括例如广角镜头或长焦镜头。
闪光灯320可发光,其中,发出的光用于增强从物体反射的光。根据实施例,闪光灯320可包括一个或更多个发光二极管(LED)(例如,红绿蓝色(RGB)LED、白色LED、红外(IR)LED或紫外(UV)LED)或氙灯。图像传感器330可通过将从物体发出或反射并经由镜头组件310透射的光转换为电信号来获取与物体相应的图像。根据实施例,图像传感器330可包括从具有不同属性的多个图像传感器中选择的一个图像传感器(例如,RGB传感器、黑白(BW)传感器、IR传感器或UV传感器)、具有相同属性的多个图像传感器或具有不同属性的多个图像传感器。可使用例如电荷耦合器件(CCD)传感器或互补金属氧化物半导体(CMOS)传感器来实现包括在图像传感器330中的每个图像传感器。
图像稳定器340可沿特定方向移动图像传感器330或包括在镜头组件310中的至少一个透镜,或者响应于相机模块180或包括相机模块180的电子装置101的移动来控制图像传感器330的可操作属性(例如,调整读出时序)。这样,允许补偿由于正被捕捉的图像的移动而产生的负面效果(例如,图像模糊)的至少一部分。根据实施例,图像稳定器340可使用布置在相机模块180之内或之外的陀螺仪传感器(未示出)或加速度传感器(未示出)来感测相机模块180或电子装置101的这样的移动。根据实施例,可将图像稳定器340实现为例如光学图像稳定器。
存储器350可至少暂时地存储经由图像传感器330获取的图像的至少一部分以用于后续的图像处理任务。例如,如果快速捕捉了多个图像或者由于快门时滞而导致图像捕捉延迟,则可将获取的原始图像(例如,拜耳图案图像、高分辨率图像)存储在存储器350中,并且可经由显示装置160来预览其相应的副本图像(例如,低分辨率图像)。然后,如果满足了指定的条件(例如,通过用户的输入或系统命令),则可由例如图像信号处理器360来获取和处理存储在存储器350中的原始图像的至少一部分。根据实施例,可将存储器350配置为存储器130的至少一部分,或者可将存储器350配置为独立于存储器130进行操作的分离的存储器。
图像信号处理器360可对经由图像传感器330获取的图像或存储在存储器350中的图像执行一个或更多个图像处理。所述一个或更多个图像处理可包括例如深度图生成、三维(3D)建模、全景图生成、特征点提取、图像合成或图像补偿(例如,降噪、分辨率调整、亮度调整、模糊、锐化或柔化)。另外或可选地,图像信号处理器360可对包括在相机模块180中的部件中的至少一个部件(例如,图像传感器330)执行控制(例如,曝光时间控制或读出时序控制)。可将由图像信号处理器360处理的图像存储回存储器350以用于进一步处理,或者可将该图像提供给在相机模块180之外的外部部件(例如,存储器130、显示装置160、电子装置102、电子装置104或服务器108)。根据实施例,可将图像信号处理器360配置为处理器120的至少一部分,或者可将图像信号处理器360配置为独立于处理器120进行操作的分离的处理器。如果将图像信号处理器360配置为与处理器120分离的处理器,则可由处理器120经由显示装置160将由图像信号处理器360处理的至少一个图像按照其原样显示,或者可将所述至少一个图像在被进一步处理后进行显示。
根据实施例,电子装置101可包括具有不同属性或功能的多个相机模块180。在这种情况下,所述多个相机模块180中的至少一个相机模块180可形成例如广角相机,并且所述多个相机模块180中的至少另一个相机模块180可形成长焦相机。类似地,所述多个相机模块180中的至少一个相机模块180可形成例如前置相机,并且所述多个相机模块180中的至少另一个相机模块180可形成后置相机。
根据实施例的电子装置可以是各种类型的电子装置之一。电子装置可非限制性地包括例如便携式通信装置(例如,智能电话)、计算机装置、便携式多媒体装置、便携式医疗装置、相机、可穿戴装置、家用电器等。根据本公开的实施例,电子装置不限于以上所述的那些电子装置。
应该理解的是,本公开的实施例以及其中使用的术语并不意图将在此阐述的技术特征限制于具体实施例,而是包括针对相应实施例的各种改变、等同形式或替换形式。对于附图的描述,相似的参考标号可用来指代相似或相关的元件。将理解的是,与术语相应的单数形式的名词可包括一个或更多个事物,除非相关上下文另有明确指示。如这里所使用的,诸如“A或B”、“A和B中的至少一个”、“A或B中的至少一个”、“A、B或C”、“A、B和C中的至少一个”以及“A、B或C中的至少一个”的短语中的每一个短语可包括在与所述多个短语中的相应一个短语中一起列举出的项的任意一项或所有可能组合。如这里所使用的,诸如“第1”和“第2”或者“第一”和“第二”的术语可用于将相应部件与另一部件进行简单区分,并且不在其它方面(例如,重要性或顺序)限制所述部件。将理解的是,在使用了术语“可操作地”或“通信地”的情况下或者在不使用术语“可操作地”或“通信地”的情况下,如果一元件(例如,第一元件)被称为“与另一元件(例如,第二元件)结合”、“结合到另一元件(例如,第二元件)”、“与另一元件(例如,第二元件)连接”或“连接到另一元件(例如,第二元件)”,所述一元件可与所述另一元件直接(例如,有线地)连接、与所述另一元件无线连接、或经由第三元件与所述另一元件连接。
如这里所使用的,术语“模块”可包括以硬件、软件、固件或其任何组合实现的单元,并可与其他术语(例如,“逻辑”、“逻辑块”、“部分”或“电路”)可互换地使用。模块可以是被适配为执行一个或更多个功能的单个集成部件或者是该单个集成部件的最小单元或部分。例如,根据实施例,可以以专用集成电路(ASIC)的形式来实现模块。
可将在此阐述的实施例实现为包括存储在存储介质(例如,内部存储器136或外部存储器138)中的可由机器(例如,电子装置101)读取的一个或更多个指令的软件(例如,程序140)。例如,在处理器的控制下,所述机器(例如,电子装置101)的处理器(例如,处理器120)可在使用或无需使用一个或更多个其它部件的情况下调用存储在存储介质中的所述一个或更多个指令中的至少一个指令并运行所述至少一个指令。这使得所述机器能够操作用于根据所调用的至少一个指令执行至少一个功能。所述一个或更多个指令可包括由编译器产生的代码或能够由解释器运行的代码。可以以非暂时性存储介质的形式来提供机器可读存储介质。其中,术语“非暂时性”仅意味着所述存储介质是有形装置,并且不包括信号(例如,电磁波),但是该术语并不在数据被半永久性地存储在存储介质中与数据被临时存储在存储介质中之间进行区分。
根据实施例,可在计算机程序产品中包括和提供根据本公开的实施例的方法。计算机程序产品可作为产品在销售者和购买者之间进行交易。可以以机器可读存储介质(例如,紧凑盘只读存储器(CD-ROM))的形式来发布计算机程序产品,或者可经由应用商店(例如,Play StoreTM)在线发布(例如,下载或上传)计算机程序产品,或者可直接在两个用户装置(例如,智能电话)之间分发(例如,下载或上传)计算机程序产品。如果是在线发布的,则计算机程序产品中的至少部分可以是临时产生的,或者可将计算机程序产品中的至少部分至少临时存储在机器可读存储介质(诸如制造商的服务器、应用商店的服务器或转发服务器的存储器)中。
根据实施例,上述部件中的每个部件(例如,模块或程序)可包括单个实体或多个实体。根据实施例,可省略上述部件中的一个或更多个部件,或者可添加一个或更多个其它部件。可选择地或者另外地,可将多个部件(例如,模块或程序)集成为单个部件。在这种情况下,根据实施例,该集成部件可仍旧按照与所述多个部件中的相应一个部件在集成之前执行一个或更多个功能相同或相似的方式,执行所述多个部件中的每一个部件的所述一个或更多个功能。根据实施例,由模块、程序或另一部件所执行的操作可顺序地、并行地、重复地或以启发式方式来执行,或者所述操作中的一个或更多个操作可按照不同的顺序来运行或被省略,或者可添加一个或更多个其它操作。
图4A、图4B和图4C是示出根据实施例的电子装置401的视图。图4A示出了根据实施例的电子装置401。图4B是示出根据实施例的电子装置401在使用显示器410的光来获取生物特征信息时的视图。图4C示出了根据实施例的电子装置401的侧视图,其是沿着图4B中的参考线A-A'截取的。在实施例中,图4的电子装置401可以对应于图1的电子装置101。在实施例中,将参考图1的电子装置101的配置来描述图4的电子装置401。
参照图4A,在实施例中,电子装置401可以包括显示器410和/或相机420。在实施例中,显示器410和相机420可以分别对应于图1的显示器160和相机180。在实施例中,电子装置401还可以包括处理器(例如,图1的处理器120)。处理器120可以包括微处理器或任何合适类型的处理电路,例如一个或多个通用处理器(例如,基于ARM的处理器)、数字信号处理器(DSP)、可编程逻辑器件(PLD)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、图形处理单元(GPU)、视频卡控制器等。此外,可以认识到,当通用计算机访问用于实现本文所示的处理的代码时,代码的执行将通用计算机转换为用于执行本文所示的处理的专用计算机。在附图中提供的某些功能和步骤可以用硬件,软件或两者的组合来实现,并且可以全部或部分地在计算机的编程指令内执行。除非使用短语“用于……的装置”明确地陈述元件,不应在35U.S.C.§112(f)的规定下解释权利要求元件。此外,技术人员认为和理解,在所要求保护的公开中,“处理器”或“微处理器”可以是硬件。在最广泛的合理解释下,所附权利要求是符合35U.S.C.§101的法定主题。
参照图4A,在实施例中,显示器410可以通过例如大部分前板430露出。在实施例中,可以在显示器410的屏幕显示区域的一部分中形成凹陷或开口,并且另一电子部件,例如相机420、接近传感器(未示出)和/或光传感器(未示出)可以与凹陷或开口对准。
在实施例中,处理器(例如,图1的处理器120)可以在显示器410上显示第一用户界面以接收用于获取用户的生物特征信息的输入。在实施例中,在运行生物特征信息测量应用程序期间,第一用户界面可以接收输入(例如,触摸输入),以选择要测量的用户生物特征信息的类型。在实施例中,处理器120可以基于通过第一用户界面接收的输入来识别要测量的用户生物特征信息的类型。在实施例中,第一用户界面可以由不是生物特征信息测量应用程序的另一个运行的应用程序生成。在实施例中,用于获取用户生物特征信息的输入可以包括以用户的手指402覆盖相机420的触摸。在实施例中,生物特征信息可以包括但不限于心率、氧饱和度、压力指数、血压、血糖、组织含水量,组织脱水,指纹或其组合。
参照图4B和图4C,在实施例中,处理器120可以通过显示器410接收用于获取用户的生物特征信息的输入。在实施例中,处理器120可以检测在显示器410上以用户的手指402覆盖相机420的触摸。
在实施例中,如果检测到以用户的手指402覆盖相机420的触摸,则处理器120可以在显示器410上显示第二用户界面。在实施例中,在生物特征信息测量应用运行期间,第二用户界面可以与用户的生物特征信息的测量相关联。
在实施例中,在显示第二用户界面期间,处理器120可以响应于检测源自以用户的手指402覆盖相机420的触摸的触摸区域440来设置发射区域450,并且控制显示器410从所设置的发射区域450发射光461和463。在实施例中,可以通过使用显示器410的触摸传感器(未示出)和/或压力传感器(未示出)来检测触摸区域440。在实施例中,从发射区域450发射的光461和463的强度可以高于从第二用户界面的其它区域发射的光的强度。在实施例中,从发射区域450发射的光461和463的强度可以例如高于显示第一用户界面时源自显示器410的光强度。或者,从发射区域450发射的光461和463的强度可以高于或等于当显示第一用户界面时源自显示器410的光强度。在实施例中,当显示第一用户界面时,可以从显示器410以第一强度发射光,并且可以从发射区域450以高于第一强度的第二强度发射光461和463。
在实施例中,处理器120可以在与用手指402覆盖相机420的触摸输入相对应的触摸区域440内设置发射区域450。在实施例中,处理器120可以基于用手指402覆盖相机420的触摸区域440将发射区域450的边缘设置在距相机420的设置距离内。在实施例中,处理器120可以将发射区域450的大小设置为对应于触摸区域440。在实施例中,发射区域450的边界可以在触摸区域440的边界内。在实施例中,处理器120可以随着触摸区域440的改变而改变发射区域450的尺寸和/或边界。
在实施例中,处理器120可以基于要获取的生物特征信息的类型来设置发射区域450。在实施例中,处理器120可以响应于要获取的生物特征信息的类型来调整发射区域450的形状和/或发射区域450在显示器410上的位置。在实施例中,可以在存储器(例如,图1的存储器130)中预设每种待获取的生物特征信息的与发射区域450的形状、发射区域450在显示器410上的位置、或它们的组合有关的信息。在实施例中,发射区域450的形状可以包括多边形、圆形、椭圆形或它们的组合。在实施例中,发射区域450的位置可以包括显示器410上距相机420预定距离的位置、围绕相机420的位置、或它们的组合。
在实施例中,处理器120可以响应于要获取的生物特征信息的类型来调整光461和463的颜色、光461和463的强度或它们的组合。在实施例中,处理器120可以响应于手指402的触摸区域来调整光461和463的颜色、光461和463的强度、或它们的组合。在实施例中,处理器120可以将光461和463的强度调整为随着手指402的触摸区域变窄而增加。在实施例中,可以在存储器(例如,图1的存储器130)中预设每种要获取的生物特征信息的与光461和463的颜色、光461和463的强度或它们的组合有关的信息。
参照图4B和图4C,在实施例中,处理器120可以通过相机420接收从发射区域450发射的光461和463的反射光471和473。在实施例中,处理器120可以基于接收到的反射光471和473来获取用户的生物特征信息。
在实施例中,处理器120可以基于反射光471和473来重新设置发射区域450。在实施例中,如果识别到基于反射光471和473获得的图像的参考方向的不对称性,则处理器120可以基于图像的参考方向的不对称性的程度来重新设置发射区域450。在实施例中,处理器120可以重新设置发射区域450以产生基于反射光471和473获得的对称图像。在实施例中,处理器120可以基于重新设置的发射区域获取用户的生物特征信息。
在实施例中,作为示例,光461和463是显示器410的光,但是光461和463可以由发射红外光的光源(例如,红外发光二极管(LED))发射。在实施例中,如果光461和463是红外光,则相机420可以是飞行时间(TOF)传感器或指纹传感器。
图5A至5E是示出根据实施例使用电子装置501进行生物特征信息测量的视图。图6A至6F是示出根据实施例的电子装置601的发射区域的示例的视图。在实施例中,图5的电子装置501或图6的电子装置601可以对应于图1的电子装置101或图4的电子装置401。在实施例中,参考图1的电子装置101的配置来描述图5A至5E及图6A至6F。
在实施例中,参考图5A至5E,如果从第一方向(例如,电子装置501的前方向)观看电子装置501,则电子装置501的相机520可以与显示器510重叠。在实施例中,电子装置501的相机520与显示器510的重叠区域可以不包括显示器510的光发射装置。在实施例中,显示器510可以通过例如大部分前板530露出。
参考图5A,在实施例中,处理器(例如,处理器120)可以在显示器510上显示第一用户界面511。在实施例中,在例如生物特征信息测量应用程序运行期间,第一用户界面511可以接收输入(例如,触摸输入),以选择要测量的用户生物特征信息的类型。在实施例中,可以由另一个运行的应用程序而不是生物特征信息测量应用程序生成第一用户界面511。
参考图5B,在实施例中,在显示器510上显示第一用户界面511期间,处理器120可以识别以用户手指(例如,图4的手指402)覆盖相机520的触摸。在实施例中,如果识别出覆盖相机520的触摸,则处理器120可以在显示器510上显示不同于第一用户界面511的第二用户界面513。
在实施例中,处理器120可以基于对应于手指402的触摸区域540的、由显示器510的触摸传感器(未示出)检测到的触摸区域来识别覆盖相机520的触摸。在实施例中,如果检测到的触摸区域围绕相机520,则处理器120可以识别该触摸覆盖相机520。在实施例中,如果检测到手指402的触摸,则处理器120可以基于通过相机520获取的图像来识别覆盖相机520的触摸。在实施例中,响应于显示器510的预设区域(例如,围绕相机520的预设区域)中的触摸输入,处理器120可启用相机520并基于通过相机520获取的图像来识别覆盖相机520的触摸。
在实施例中,如果识别出覆盖相机520的触摸,则处理器120可以识别相机520是否被手指402完全覆盖。在实施例中,处理器120可以基于通过相机520的图像传感器(未示出)获取的光来识别相机520是否被完全覆盖。在实施例中,如果通过相机520的图像传感器(未示出)获取的光包括除从显示器510发射的光的反射光之外的光,则处理器120可以识别出相机520没有被手指402完全覆盖。在实施例中,如果通过相机520的图像传感器(未示出)获取的光不包括除从显示器510发射的光的反射光之外的光,则处理器120可以识别出相机520被手指402完全覆盖。
如图5C所示,在实施例中,如果相机520被手指402完全覆盖,则处理器120可以显示用于生物特征测量的第二用户界面513。如图5D所示,在实施例中,如果相机520没有被手指402完全覆盖,则处理器120可以显示包括指示符514的第三用户界面515,该指示符引导用户用他或她的手指402重新触摸显示器510。在实施例中,可以在生物特征信息测量应用程序运行期间测量用户的生物特征信息时显示第二用户界面513。在实施例中,第三用户界面515可以向用户指示需要重新触摸以便测量生物特征信息。
参考图5C,在实施例中,处理器120可以在显示器510上显示第二用户界面513。在实施例中,处理器120可以将第二用户界面513的一部分设置为发射区域550。在实施例中,处理器120可以基于手指402的触摸区域540来设置发射区域550。在实施例中,处理器120可以设置发射区域550,使得其边界在手指402的触摸区域540内。在实施例中,处理器120可以将发射区域550设置为围绕相机520。在实施例中,处理器120可以基于要获取的生物特征信息的类型来确定发射区域550的形状、图案、大小、位置或它们的组合,其中可以由用户在第一用户界面511显示期间选择该类型。
在实施例中,处理器120可以在显示器510上的发射区域550中发射预设光(例如,图4的光461和463)。在实施例中,处理器120可以基于要获取的生物特征信息的类型来确定光461和463的颜色、强度或它们的组合。在实施例中,处理器120可以在显示第一用户界面511期间确定光461和463的颜色、强度或它们的组合。
在实施例中,处理器120可以在显示器510上的发射区域550中发射光461和463,并且基于通过相机520获取的光461和463的反射光471和473来测量用户的生物特征信息。
尽管在该示例中,图5C的发射区域550以环形示出,本公开不限于此,并且发射区域550可以采用各种形状。参考图6A,在实施例中,电子装置601可以在显示器610上包括两个或更多个发射区域651和652,其中显示器610通过电子装置601的大部分前板630露出。在实施例中,发射区域651和652可以共同具有圆形形状。在实施例中,例如,发射区域651和652可以围绕相机620的中心对称地设置。或者,发射区域651和652可以围绕相机620的中心不对称地设置。
在实施例中,处理器120可以控制在不同的时间点亮发射区域651和652。在实施例中,处理器120可以在第一持续时间内点亮发射区域651,并且在第一持续时间期满之后的第二持续时间内点亮发射区域652。在实施例中,第一持续时间和第二持续时间分别可以是用于生物特征测量的持续时间。
在实施例中,处理器120可以控制以不同颜色点亮发射区域651和652。在实施例中,作为示例,处理器120可以从发射区域651发射第一颜色(例如红色)的光,并且从发射区域652发射第二颜色(例如绿色)的光。或者,处理器120可以控制以相同颜色点亮发射区域651和652。
在实施例中,处理器120可以控制为在第一持续时间内从发射区域651和652发射第一颜色(例如红色)的光,并且在第二持续时间内从发射区域651和652发射第二颜色(例如绿色)的光。在实施例中,处理器120可以控制发射区域651和652发射与第一颜色(例如,红色)和第二颜色(例如,绿色)混合的颜色(例如,黄色)的光。
参考6B,在实施例中,通过电子器件601的大部分前板630露出的显示器610的发射区域653可以包括两个或更多个发射子区域654和655。在实施例中,为了以预设图案发射光,处理器120可以将发射区域653划分成两个或更多个发射子区域654和655。在实施例中,处理器120可以控制显示器610从发射子区域654和655发射对应于预设图案的光。
在实施例中,处理器120可以控制在不同的时间点亮发射子区域654和655。在实施例中,处理器120可以控制以不同颜色点亮发射子区域654和655。
参考图6C,在实施例中,通过电子装置601的大部分前板630露出的显示器610的发射区域656和657可以包括发射区域656和直接与相机620相邻的发射区域657,其中发射区域657插入在发射区域656和相机620之间。在实施例中,处理器120可以控制在不同的时间点亮发射区域656和657。在实施例中,处理器120可以控制以不同颜色点亮发射区域656和657。在实施例中,处理器120可以控制发射区域656和657,使得靠近相机620的光源发射相对较短波长的光。例如,远离相机620的发射区域656可以发射第一颜色(例如红色)的光,而靠近相机620的发射区域657可以发射第二颜色(例如绿色)的光。
在实施例中,处理器120可以控制以不同的强度点亮发射区域656和657。在实施例中,处理器120可以控制用第一强度的光点亮发射区域656,并用第二强度的光点亮发射区域657。在不同的实施例中,第一强度可以高于或低于第二强度。
参考图6D,在实施例中,可以配置通过电子装置601的大部分前板630露出的显示器610的两个或更多个发射区域661和662。在实施例中,发射区域661和662一起可以形成四边形形状。
参考图6E,在实施例中,通过电子装置601的大部分前板630露出的显示器610的四边形发射区域663可以包括两个或更多个发射子区域664和665。
参考图6F,在实施例中,电子装置601的前板630的显示器610的发射区域666和667可以包括直接与相机620相邻的四边形发射区域667和四边形发射区域666,其中发射区域667插入在四边形发射区域666和相机620之间。
发射区域651、652、653、656、657、661、662、663、666和667在这里被示为圆形或四边形。然而,这些仅仅是示例,并且发射区域可以是另外的形状,例如多边形。
参考图5D,在实施例中,如果处理器120识别出相机520未被手指402完全覆盖,则处理器120可以在第三用户界面515上显示指示符514,这引导用户用他或她的手指402重新触摸显示器510。在实施例中,作为示例,指示符514可以是具有用于指示相机520的形状的图像对象。指示符514可以包括用于请求重新触摸的短语、图像或它们的组合。
在实施例中,处理器120可以基于通过相机520的图像传感器(未示出)获取的除反射光之外的光的位置来确定指示符514的位置。除反射光之外的光的位置可以是对应于暴露于除反射光之外的光的区域的位置。在实施例中,例如,如果除反射光之外的光的位置在距相机520的中心的第一方向上,则处理器120可以将指示符514的位置确定为在第一方向上距预设参考位置设定距离的位置。在实施例中,处理器120可以响应于通过相机520的图像传感器(未示出)获取的图像上的暴露于除反射光之外的光的区域来确定设定距离。在实施例中,处理器120可以响应于暴露于除反射光之外的光的区域的宽度来确定设定距离。
参考图5E,在实施例中,如果指示符514被显示,然后识别到覆盖相机520的触摸,则处理器120可以识别相机520是否被手指402完全覆盖。在实施例中,如果识别出相机520被手指402的重新触摸完全覆盖,则处理器120可以将指示符514的位置信息存储在存储器(例如,图1的存储器130)中。
如图5C所示,在实施例中,如果相机520被手指402的重新触摸完全覆盖,则处理器120可以显示用于生物特征测量的第二用户界面513。如图5D所示,在实施例中,如果相机520没有被手指402的重新触摸完全覆盖,则处理器120可以再次显示第三用户界面515,该第三用户界面515包括引导用户重新触摸显示器510的指示符514。
在实施例中,处理器120可以在显示第二用户界面513期间,在手指402的重新触摸之后,从显示器510的发射区域发射光461和463,并且基于通过相机520获取的光461和463的反射光471和473来测量用户的生物特征信息。
在实施例中,在显示第三用户界面515期间,处理器120可以重新显示请求手指402的重新触摸的指示符514。在实施例中,处理器120可以基于手指402的触摸区域541在重新确定的位置显示指示符514。
图7A至7E分别是示出根据实施例使用电子装置701进行生物特征信息测量的视图。图8A至8G分别是示出根据实施例的电子装置801的发射区域的示例的视图。在实施例中,图7的电子装置701或图8的电子装置801可以对应于图1的电子装置101或图4的电子装置401。在实施例中,通过参考图1的电子装置101的配置来描述8A到8G及图7A至7E。在8A到8G及图7A至7E的描述中,将省略图5A至图5E及图6A至图6F的冗余描述。
如果用户在第一方向(例如,电子装置701的前方向)上观看电子装置701,则图7A至7E的显示器710和相机720可以彼此重叠。在实施例中,显示器570的光发射装置可以设置在电子装置701的相机720在显示器710中的重叠区域。在实施例中,显示器710可以通过例如大部分前板730露出。
在实施例中,如果相机720被禁用,则用户可能不能看到相机720。在实施例中,如果相机720被禁用,则相机720在显示器710中的重叠区域的光发射装置可以发射光。或者,如果相机720被启用,则用户能够看到相机720。在实施例中,如果相机720被启用,则相机720在显示器710中的重叠区域的光发射装置可以不发射光。
参考图7A,在实施例中,处理器(例如,处理器120)可以在显示器710上显示第一用户界面711。
参考图7B,在实施例中,在显示器710上显示第一用户界面711期间,处理器120可识别以用户手指(例如,图4的手指402)覆盖相机720的触摸。在实施例中,如果识别出覆盖相机720的触摸,则处理器120可以在显示器710上显示不同于第一用户界面711的第二用户界面713。
在实施例中,处理器120可以基于对应于手指402的触摸区域740的、由显示器710的触摸传感器(未示出)检测的触摸区域来识别覆盖相机720的触摸。在实施例中,如果检测到的触摸区域对应于相机720在显示器710中的重叠区域,则处理器120可以识别覆盖相机720的触摸。在实施例中,如果检测到的触摸区域围绕相机720,则处理器120可以识别覆盖相机720的触摸。在实施例中,如果检测到手指402的触摸,则处理器120可以基于通过相机720获取的图像来识别覆盖相机720的触摸。在实施例中,响应于显示器710的预设区域(例如,围绕相机720的预设区域)中的触摸输入,处理器120可启用相机720并基于通过相机720获取的图像来识别覆盖相机720的触摸。
在实施例中,如果识别出覆盖相机720的触摸,则处理器120可以识别相机720是否被手指402完全覆盖。在实施例中,处理器120可以基于通过相机720的图像传感器(未示出)获取的光来识别相机720是否被完全覆盖。在实施例中,如果通过相机720的图像传感器(未示出)获取的光包括除从显示器710发射的光的反射光之外的光,则处理器120可以识别出相机720没有被手指402完全覆盖。在实施例中,如果通过相机720的图像传感器(未示出)获取的光不包括除从显示器710发射的光的反射光之外的光,则处理器120可以识别出相机720被手指402完全覆盖。
如图7C所示,在实施例中,如果相机720被手指402完全覆盖,则处理器120可以显示用于生物特征测量的第二用户界面713。如图7D所示,在实施例中,如果相机720没有被手指402完全覆盖,则处理器120可以显示包括指示符714的第三用户界面715,这引导用户用他或她的手指402重新触摸显示器710。
参考图7C,在实施例中,处理器120可以在显示器710上显示第二用户界面713。在实施例中,处理器120可以将第二用户界面713的一部分设置为发射区域750。在实施例中,处理器120可以基于手指402的触摸区域740来设置发射区域750。在实施例中,处理器120可以设置发射区域750,使得其边界在手指402的触摸区域740内。
在实施例中,处理器120可以从显示器710上的发射区域750发射预设光(例如,图4的光461和463)。在实施例中,处理器120可以基于要获取的生物特征信息的类型来确定光461和463的颜色、强度或它们的组合。
在实施例中,处理器120可以从显示器710上的发射区域750发射光461和463,并且基于通过相机720获取的光461和463的反射光471和473来测量用户的生物特征信息。
尽管在该示例中,图7C示出的发射区域750为环形,本公开不限于此,并且发射区域750可以采用各种形状。参考图8A,在实施例中,电子装置801可以在显示器810上包括两个或更多个发射区域851和852,其中显示器810通过电子装置801的大部分前板830露出。在实施例中,发射区域851和852共同可以具有圆形形状。在实施例中,作为示例,发射区域851和852可以围绕相机820的中心对称地设置。或者,发射区域851和852可以围绕相机820的中心不对称地设置。
在实施例中,处理器120可以控制在不同的时间点亮发射区域851和852。在实施例中,处理器120可以控制以不同颜色点亮发射区域851和852。
在实施例中,处理器120可以控制发射区域851和852在第一持续时间内发射第一颜色(例如红色)的光,并且在第二持续时间内发射第二颜色(例如绿色)的光。在实施例中,处理器120可以控制根据与第一颜色(例如,红色)和第二颜色(例如,绿色)混合的颜色(例如,黄色)点亮发射区域851和852。
参考图8B,在实施例中,通过电子器件801的大部分前板830露出的显示器810的发射区域853可以包括两个或更多个发射子区域854和855。在实施例中,为了以预设图案发射光,处理器120可以将发射区域853分成两个或更多个发射子区域854和855。在实施例中,处理器120可以控制显示器810从发射子区域854和855发射对应于预设图案的光。
在实施例中,处理器120可以控制在不同的时间点亮发射子区域854和855。在实施例中,处理器120可以控制以不同颜色点亮发射子区域854和855。
参考图8C,在实施例中,通过电子装置801的大部分前板830露出的显示器810的发射区域856和857可以包括直接与相机820相邻的发射区域857和发射区域856,其中发射区域857插入在发射区域856和相机820之间。在实施例中,处理器120可以控制在不同的时间点亮发射区域856和857。在实施例中,处理器120可以控制以不同颜色点亮发射区域856和857。在实施例中,处理器120可以控制点亮发射区域856和857,使得靠近相机820的光源发射相对较短波长的光。例如,远离相机820的发射区域856可以发射第一颜色(例如红色)的光,而靠近相机820的发射区域857可以发射第二颜色(例如绿色)的光。
在实施例中,处理器120可以控制以不同的强度点亮发射区域856和857。在实施例中,处理器120可以控制用第一强度的光点亮发射区域856,并用第二强度的光点亮发射区域857。在不同的实施例中,第一强度可以高于或低于第二强度。
参考图8D,在实施例中,可以配置两个或更多个通过电子装置801的大部分前板830露出的显示器810的发射区域861和862。在实施例中,发射区域861和862一起可以形成四边形形状。
参考图8E,在实施例中,通过电子器件801的大部分前板830露出的显示器810的四边形发射区域863可以包括两个或更多个发射子区域864和865。
参考图8F,在实施例中,通过电子装置801的大部分前板830露出的显示器810的发射区域866和867可以包括直接与相机820相邻的四边形发射区域867和四边形发射区域866,其中发射区域867插入在四边形发射区域866和相机820之间。
参考图8G,在实施例中,显示器810的发射区域871可以被配置为与相机820具有相同大小的区域。因此,在该实施例中,相机820不设置在显示器810的凹陷或开口中,而是与显示器810的像素重叠。在实施例中,显示器810的发射区域871可以周期性地发射光。在实施例中,响应于显示器810的发射区域871的周期性发射,相机280可以接收从显示器810的发射区域871发射的光的反射光。在实施例中,发射区域871的光发射和相机820的光检测可以在时间上分开。在这样的实施例中,处理器120可以控制发射区域871在相机820接收光时不发射光。在实施例中,处理器120可以围绕发射区域871设置阴影区域(未示出)。在实施例中,阴影区域(未示出)可以在生物特征测量期间发射光。在实施例中,阴影区域(未示出)可以被设置在手指402的触摸区域740内。
发射区域851、852、853、856、857、861、862、863、866、867和871在这里被示为圆形或四边形。然而,这些仅仅是示例,并且发射区域可以是另外的形状,例如多边形。
参考图7D,在实施例中,如果处理器120识别出相机720未被手指402完全覆盖,则处理器120可以在第三用户界面715上显示指示符714,这引导用户用他或她的手指402重新触摸显示器510。在实施例中,作为示例,指示符714可以是具有用于指示相机720的形状的图像对象。指示符714可以包括用于请求重触摸的短语、图像或它们的组合。
参考图7E,在实施例中,如果指示符714被显示并且随后识别到覆盖相机720的触摸,则处理器120可以识别相机720是否被手指402完全覆盖。在实施例中,如果识别出相机720被手指402的重触摸完全覆盖,则处理器120可以将指示符714的位置信息存储在存储器(例如,图1的存储器130)中。
如图7C所示,在实施例中,如果相机720被手指402的重新触摸完全覆盖,则处理器120可以显示用于生物特征测量的第二用户界面713。如图7D所示,在实施例中,如果相机720没有被手指402的重新触摸完全覆盖,则处理器120可以再次显示包括指示符714的第三用户界面715,该指示符714引导用户重新触摸显示器710。
在实施例中,处理器120可以在显示第二用户界面713期间,在手指402重新触摸之后,从显示器510的发射区域发射光461和463,并且基于通过相机520获取的光461和463的反射光471和473来测量用户的生物特征信息。
在实施例中,在显示第三用户界面715期间,处理器120可以重新显示请求重新触摸手指402的指示符714。在实施例中,处理器120可以基于手指402的触摸区域741在重新确定的位置显示指示符714。
图9A至9E分别是示出根据实施例使用电子装置901进行生物特征信息测量的视图。图10A、10B和10C分别是示出根据实施例的电子装置1001的发射区域的示例的视图。在实施例中,图9的电子装置901或图10的电子装置1001可以对应于图1的电子装置101或图4的电子装置401。在实施例中,通过参考图1的电子装置101的配置来描述图9A至9E以及图10A、10B和10C。
参考图9A至9E,在实施例中,如果电子装置701在第一方向(例如,电子装置901的前方向)被观看,则电子装置901的相机920可以不与显示器910重叠。在实施例中,相机920可以设置在前板930上显示器910未露出的区域中。
参考图9A,在实施例中,处理器(例如,处理器120)可以在显示器910上显示第一用户界面911。
参考图9B,在实施例中,在显示器910上显示第一用户界面911期间,处理器120可以识别以用户手指(例如,图4的手指402)覆盖相机920的触摸。在实施例中,如果识别出覆盖相机920的触摸,则处理器120可以在显示器910上显示不同于第一用户界面911的第二用户界面913。
在实施例中,处理器120可以基于对应于手指402的触摸区域940的、由显示器910的触摸传感器(未示出)检测到的触摸区域来识别覆盖相机920的触摸。在实施例中,如果检测到手指402的触摸,则处理器120可以基于通过相机920获取的图像来识别覆盖相机920的触摸。在实施例中,响应于显示器910的预设区域(例如,显示器910上与相机920相邻的区域)中的触摸输入,处理器120可启用相机920并基于通过相机920获取的图像来识别覆盖相机920的触摸。
在实施例中,如果识别出覆盖相机920的触摸,则处理器120可以识别相机920是否被手指402完全覆盖。在实施例中,处理器120可以基于通过相机920的图像传感器(未示出)获取的光来识别相机920是否被完全覆盖。在实施例中,如果通过相机920的图像传感器(未示出)获取的光包括除从显示器910发射的光的反射光之外的光,则处理器120可以识别出相机920没有被手指402完全覆盖。在实施例中,如果通过相机920的图像传感器(未示出)获取的光不包括除从显示器910发射的光的反射光之外的光,则处理器120可以识别相机920被手指402完全覆盖。
如图9C所示,在实施例中,如果相机920被手指402完全覆盖,则处理器120可以显示用于生物特征测量的第二用户界面913,如图9D所示,在实施例中,如果相机920没有被手指402完全覆盖,则处理器120可以显示包括指示符914的第三用户界面915,该指示符914引导用户用他或她的手指402重新触摸显示器910。
参考图9C,在实施例中,处理器120可以在显示器910上显示第二用户界面913。在实施例中,处理器120可以将第二用户界面913的一部分设置为发射区域950。在实施例中,处理器120可以基于手指402的触摸区域940来设置发射区域950。在实施例中,处理器120可以设置发射区域950,使得其边界在手指402的触摸区域940内。在实施例中,处理器120可以将发射区域950设置为靠近相机920。在实施例中,处理器120可以基于要获取的生物特征信息的类型来确定发射区域950的形状、图案、大小、位置或它们的组合,其中该类型可以由用户在显示第一用户界面911期间选择。
在实施例中,处理器120可以从显示器910上的发射区域950发射预设光(例如,图4的光461和463)。在实施例中,处理器120可以基于要获取的生物特征信息的类型来确定光461和463的颜色、强度或它们的组合。
在实施例中,处理器120可以从显示器910上的发射区域950发射光461和463,并且基于通过相机920获取的光461和463的反射光471和473来测量用户的生物特征信息。
尽管在该示例中,图9C的发射区域950以椭圆形示出,本公开不限于此,并且发射区域950可以采用各种形状。参考图10A,在实施例中,作为示例,显示器1010的发射区域1051可以是四边形的形状。发射区域1051可以具有诸如多边形、圆形、椭圆形等形状。
参照图10B,显示器1010的发射区域1053和1053可以包括两个或更多个发射区域。在实施例中,处理器120可以控制在不同的时间点亮发射区域1052和1053。因此,在该实施例中,处理器120可以控制在第一持续时间内点亮发射区域1052,在第二持续时间内点亮发射区域1053。
在实施例中,处理器120可以控制以不同颜色点亮发射区域1052和1053。在实施例中,作为示例,处理器120可以从发射区域1052发射第一颜色(例如红色)的光,并且从发射区域1053发射第二颜色(例如绿色)的光。或者,处理器120可以控制以相同颜色点亮发射区域1052和1053。
在实施例中,处理器120可以控制发射区域1052和1053在第一持续时间内发射第一颜色(例如红色)的光,并且在第二持续时间内发射第二颜色(例如绿色)的光。在实施例中,处理器120可以控制以与第一颜色(例如,红色)和第二颜色(例如,绿色)混合的颜色(例如,黄色)点亮发射区域1052和1053。
参考图10C,在实施例中,显示器1010的发射区域1054可以包括两个或更多个发射子区域1055至1058。在实施例中,为了以预设图案发射光,处理器120可以将发射区域1054划分成两个或更多个发射子区域1055至1058。在实施例中,处理器120可以控制显示器1010从发射子区域1055至1058发射对应于预设图案的光。
在实施例中,处理器120可以在不同的时间控制发射子区域1055至1058。在实施例中,处理器120可以控制以不同颜色点亮发射子区域1055到1058。
参考图9D,在实施例中,如果处理器120识别出相机920未被手指402完全覆盖,则处理器120可以在第三用户界面915上显示指示符914,该第三用户界面915引导用户用他或她的手指402重新触摸显示器910。在实施例中,作为示例,指示符914可以是用于指示相机920的形状的图像对象。指示符914可以包括用于请求重新触摸的短语、图像或它们的组合。
在实施例中,处理器120可以基于通过相机920的图像传感器(未示出)获取的除反射光之外的光的位置来确定指示符914的位置。除反射光之外的光的位置可以是对应于暴露于除反射光之外的光的区域的位置。在实施例中,例如,如果除反射光之外的光的位置在距相机920的中心的第一方向上,则处理器120可以将指示符914的位置确定为在第一方向上距预设参考位置设定距离的位置。在实施例中,处理器120可以响应于通过相机920的图像传感器(未示出)获取的图像上的暴露于除反射光之外的光的区域来确定设定距离。在实施例中,处理器120可以响应于暴露于除反射光之外的光的区域的宽度来确定设定距离。
参考图9E,在实施例中,如果指示符914被显示并且随后识别到覆盖相机920的触摸,则处理器120可以识别相机920是否被手指402完全覆盖。在实施例中,如果识别出相机920被手指402的重新触摸所完全覆盖,则处理器120可以将指示符914的位置信息存储在存储器(例如,图1的存储器130)中。
如图9C所示,在实施例中,如果相机920被手指402的重新触摸完全覆盖,则处理器120可以显示用于生物特征测量的第二用户界面913。如图9D所示,在实施例中,如果相机920没有被手指402的重新触摸完全覆盖,则处理器120可以再次显示第三用户界面915,该第三用户界面915包括引导用户重新触摸显示器910的指示符914。
在实施例中,处理器120可以在显示第二用户界面913期间,在手指402重新触摸之后,从显示器910的发射区域发射光461和463,并且基于通过相机920获取的光461和463的反射光471和473来测量用户的生物特征信息。
在实施例中,在显示第三用户界面915期间,处理器120可以重新显示请求手指402的重新触摸的指示符914。在实施例中,处理器120可以基于手指402的触摸区域941在重新确定的位置显示指示符914。
图11示出了根据实施例的电子装置(例如,图4的电子装置401)的操作的流程图。将通过参考图1的电子装置101和图4的电子装置401的配置来描述图11的操作。
参照图11,在操作1110中,处理器(例如,图1的处理器120)可以在显示器(例如,显示器410)上显示用户界面。在实施例中,例如在生物特征信息测量应用程序运行期间,在操作1110中显示的与传感器(例如,触摸传感器)有关的用户界面可以接收输入(例如,触摸输入),以选择要测量的用户的生物特征信息的类型。在实施例中,用户界面可以由不同于生物特征信息测量应用的另一个运行应用生成。
在实施例中,处理器120可以通过在操作1110中显示的用户界面来确定要获取的生物特征信息的类型。在实施例中,生物特征信息可以包括例如心率、氧饱和度、压力指数、血压、血糖、组织含水量、组织脱水、指纹或其组合。利用反射光获取的生物特征信息不限于此。
在操作1120中,处理器120可以识别以用户的手指(例如,图4的手指402)覆盖相机(例如,相机420)的触摸。在实施例中,处理器120可以基于对应于手指402的触摸区域440的、由显示器410的触摸传感器(未示出)检测到的触摸区域来识别覆盖相机420的触摸。在实施例中,如果检测到的触摸区域围绕相机420,则处理器120可以识别覆盖相机420的触摸。在实施例中,如果检测到手指402的触摸,则处理器120可以基于通过相机420获取的图像来识别覆盖相机420的触摸。在实施例中,响应于显示器410的预设区域(例如,围绕相机420的预设区域)中的触摸输入,处理器120可启用相机420并基于通过相机420获取的图像来识别覆盖相机420的触摸。
在实施例中,如果识别到覆盖相机420的触摸(“是”),则处理器120可以执行操作1130。在实施例中,如果没有识别到覆盖相机420的触摸(“否”),则处理器120可以返回到操作1120。
在操作1130中,处理器120可以将用户界面改变为用于生物特征信息获取的用户界面。在实施例中,在生物特征信息测量应用程序运行期间,在操作1130中显示的用户界面可以与对用户的生物特征信息的测量相关联。
在操作1140中,处理器120可以使用从显示器410发射的光来获取生物特征信息。在实施例中,处理器120可以通过从用户界面的发射区域(例如,图4的发射区域450)发射光(例如,图4的光461和463)、通过相机420获得光461和463的反射光(例如,图4的光471和473)、分析得到的反射光471和473来获取生物特征信息。
在实施例中,处理器120可以将用户界面的一部分设置为发射区域450。在实施例中,处理器120可以基于手指402的触摸区域440来设置发射区域450。在实施例中,处理器120可以设置发射区域450,使得其边界在手指402的触摸区域440内。在实施例中,处理器120可以将发射区域450设置为围绕相机420。在实施例中,在操作1110中显示用户界面期间,处理器120可以基于要获取的生物特征信息的类型来确定发射区域450的形状、图案、大小、位置或它们的组合。
在实施例中,处理器120可以从显示器410上的发射区域450发射预设光(例如,图4的光461和463)。在实施例中,在操作1110中显示用户界面期间,处理器120可以基于要获取的生物特征信息的类型来确定光461和463的颜色、强度或它们的组合。
图12示出了根据实施例的电子装置(例如,图4的电子装置401)的操作的流程图。将通过参考图1的电子装置101和图4的电子装置401的配置来描述图12的操作。
在实施例中,图12的操作1210可以对应于图11的操作1120。在实施例中,图12的操作1235可以对应于图11的操作1140。
参照图12,在操作1210中,处理器(例如,图1的处理器120)可以识别以用户的手指(例如,图1的手指402)覆盖相机(例如,相机420)的触摸。
在操作1220中,处理器120可以识别是否需要改变触摸位置。在实施例中,如果相机420没有被手指402完全覆盖,则处理器120可以识别出有必要改变触摸位置。
在实施例中,如果通过相机420的图像传感器(未示出)获取的光包括除从显示器(例如,图4的显示器410)发射的光的反射光之外的光,则处理器120可以识别出相机420没有被手指402完全覆盖。
在实施例中,如果处理器120识别出需要改变触摸位置(“是”),则处理器120可以执行操作1231。在实施例中,如果处理器120识别出触摸位置不需要改变(“否”),则处理器120可以执行操作1235。
在操作1231中,处理器120可以引导用户重新触摸显示器410。在实施例中,处理器120可以在用户界面上显示请求手指402的重新触摸的指示符。在实施例中,可以基于存储在存储器(例如,图1的存储器130)中的信息来确定请求重新触摸的指示符的位置。
在实施例中,处理器120可以显示请求在用户界面上重新触摸的指示符,返回到操作1210,并因此重新检测用户触摸。在实施例中,如果用户触摸被释放然后再次被检测、如果触摸区域440被改变、或者它们的组合发生,则处理器120可以识别出用户触摸被重新检测。在实施例中,如果在操作1220中检测到重新检测的用户触摸且处理器120识别出不需要额外的重新触摸,则处理器120可以将在操作1231中显示的指示符的位置信息存储在存储器(例如,图1的存储器130)中。
在操作1235中,处理器120可以使用从显示器410发射的光来获取生物特征信息。在实施例中,处理器120可以通过从用户界面的发射区域(例如,图4的发射区域450)发射光(例如,图4的光461和463)、通过相机420获得光461和463的反射光(例如,图4的光471和473)、分析得到的反射光471和473来获取生物特征信息。
如上所述,电子装置(例如,图4的电子装置401)及其操作方法可以在没有专用光发射装置和光学传感器的情况下向用户提供与生物特征信息获取相关联的各种功能。
如上所述,电子装置(例如,图4的电子装置401)可以包括壳体,通过壳体的第一表面的至少一部分露出的显示器,通过壳体的第一表面的至少一部分露出的图像传感器,与显示器和图像传感器可操作地连接的处理器,以及与处理器可操作地连接的存储器。所述存储器可以存储指令,当执行所述指令时,使得所述处理器在使用所述显示器显示用户界面的同时,在检测用户手指在所述图像传感器上的触摸,响应于检测到所述触摸,在手指的触摸保持在图像传感器上的同时,改变距所述图像传感器预定距离内的显示器区域中的用户界面,并且基于从所述显示器发射的光的反射光来获取所述用户的生物特征信息。其中使用图像传感器获取反射光。
在实施例中,指令可以使处理器在检测到触摸之前,在距图像传感器预定距离内的显示器区域中发射具有第一强度的光,并且响应于检测到触摸,在距图像传感器预定距离内的显示器区域中发射具有高于第一强度的第二强度的光。
在实施例中,指令可以使处理器响应于在图像传感器处接收到除反射光之外的光而显示另一用户界面,以引导用户重新触摸显示器。
在实施例中,指令可以使处理器响应于检测到触摸,识别用户的手指在显示器上触摸的区域,并且基于所识别的区域,设置距图像传感器预定距离内的显示器区域。
在实施例中,当在壳体的前视图中观察时,图像传感器可以设置在显示器的显示区域中。
在实施例中,当在壳体的前视图中观察时,距图像传感器预定距离内的显示器区域可以围绕图像传感器。
在实施例中,指令可以使处理器响应于检测到触摸,在手指的触摸保持在图像传感器上的同时,以指定的时间间隔改变用户界面。
在实施例中,指令可以使处理器响应于检测到触摸,从距图像传感器预定距离内的显示器区域的第一部分发射第一强度的光,并且响应于检测到触摸,从距图像传感器预定距离内的显示器区域的第二部分发射高于第一强度的第二强度的光。
在实施例中,指令可以使处理器接收输入,基于接收到的输入来识别要从用户获取的第一生物特征信息,并且响应于检测到触摸,从距图像传感器预定距离内的显示器区域发射与识别的第一生物特征信息相对应的光。
如上所述,电子装置(例如,图4的电子装置401)的操作方法可以包括,在使用通过壳体的第一表面的至少一部分露出的显示器显示用户界面的同时,检测用户的手指在通过壳体的第一表面的至少一部分露出的图像传感器上的触摸,响应于检测到触摸,在手指的触摸保持在图像传感器上的同时,改变距所述图像传感器预定距离内的显示器区域中的用户界面,并且基于从所述显示器发射的光的反射光来获取所述用户的生物特征信息,其中使用图像传感器获取反射光。
在实施例中,在检测到触摸之前,在距图像传感器预定距离内的显示器区域中发射具有第一强度的光,并且响应于检测到触摸,在距图像传感器预定距离内的显示器区域中发射具有高于第一强度的第二强度的光。
在实施例中,该方法还可以包括:响应于在图像传感器处接收到除反射光之外的光,显示另一个用户界面,以引导用户重新触摸显示器。
在实施例中,该方法还可以包括:响应于检测到触摸,识别用户的手指在显示器上触摸的区域;以及基于所识别的区域,设置距图像传感器预定距离内的显示器区域。
在实施例中,当在壳体的前视图中观察时,图像传感器可以设置在显示器的显示区域中,并且当在壳体的前视图中观察时,距图像传感器预定距离内的显示器区域可以围绕图像传感器。
在实施例中,该方法还可以包括:响应于检测到触摸,从距图像传感器预定距离内的显示器区域的第一部分发射第一强度的光;以及响应于检测到触摸,从距图像传感器预定距离内的显示器区域的第二部分发射高于第一强度的第二强度的光。
在实施例中,该方法还可以包括接收输入,基于所接收的输入来识别要从用户获取的第一生物特征信息,并且响应于检测到触摸,从距图像传感器预定距离内的显示器区域发射与所识别的第一生物特征信息相对应的光。
在实施例中,该方法还可以包括:基于反射光识别由图像传感器获取的图像的关于参考方向的不对称,响应于识别出图像的关于参考方向的不对称,识别出图像的关于参考方向的不对称程度,以及基于识别出的不对称程度,在预定距离内改变显示器区域。
如上所述,电子装置(例如,图4的电子装置401)可以包括壳体,当观看壳体的第一表面时,通过壳体的第一表面的至少一部分露出的显示器,设置在显示器的显示区域中的图像传感器,与显示器和图像传感器可操作地连接的处理器,以及与处理器可操作地连接的存储器,其中存储器可以存储指令,当执行所述指令时,使处理器在显示器上显示的用户界面上显示指示预设触摸请求区域的指示符,在用户界面中显示指示符之后,在触摸请求区域的至少一部分中检测用户的手指的触摸,响应于检测到触摸,控制显示器在当在壳体的前视图中观看时围绕图像传感器的预设第二区域中发射预设强度的光,基于从显示器发射的预定强度的光的反射光获取用户的生物特征信息,其中使用图像传感器获取反射光。
在实施例中,从第二区域的第一部分发射的光的特性不同于从第二区域的第二部分发射的光的特性。
在实施例中,指令可以使处理器响应于在图像传感器处接收到除反射光之外的光而显示另一个用户界面,以引导用户重新触摸显示器。
在实施例中,指令可以使处理器基于由图像传感器基于反射光获取的图像来调整指示符的位置,在显示器上显示的用户界面上,在调整后的位置处显示指示符,在调整后的位置处显示指示符之后,检测用户手指的重新触摸,并且响应于检测到用户手指的重新触摸,当基于反射光获取到用户的生物特征信息时,将指示符在用户界面上的调整后的位置存储在存储器中。
根据本公开的实施例的方法可以以硬件、软件或硬件和软件的组合来实现。
当所述方法由软件实现时,可以提供用于存储一个或多个程序(软件模块)的计算机可读存储介质。存储在计算机可读存储介质中的一个或多个程序可以被配置为由电子装置内的一个或多个处理器执行。所述一个或多个程序可以包括指令,所述指令使电子装置执行如所附权利要求书所定义和/或本文所公开的根据本公开的实施例的方法。
程序(软件模块或软件)可以存储在非易失性存储器中,非易失性存储器包括随机存取存储器和闪存、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、磁盘存储装置、光盘ROM(CD-ROM)、数字多功能盘(DVD)、或其它类型的光存储装置、或磁带盒。它们中的一些或全部的任何组合可以形成其中存储程序的存储器。此外,多个这样的存储器可以被包括在电子装置中。
此外,程序可以被存储在可连接的存储装置中,可以通过诸如因特网、内联网、局域网(LAN)、广域网(WAN)和存储区域网(SAN)之类的通信网络或其组合来访问该可连接的存储装置。这种存储装置可以经由外部端口访问电子装置。此外,通信网络上的单独存储装置可以访问便携式电子装置。
在本公开的上述示例性实施例中,根据所呈现的示例性实施例,包括在本公开中的部件以单数或复数来表示。然而,单数形式或复数形式是为了便于适于所呈现的情况的描述而选择的,且本发明的实施例不限于单个元件或其多个元件。此外,在说明书中表达的多个元件可以被配置成单个元件,或者在说明书中表达的单个元件可以被配置成多个元件。
本公开的某些上述实施例可以用硬件、固件实现;或通过存储在诸如CD ROM、数字多功能盘(DVD)、磁带、RAM、软盘、硬盘或磁光盘的记录介质中的软件或计算机代码的执行来实现;或通过最初存储在远程记录介质或存储在本地记录介质的非暂时性机器可读介质上的、网络上下载的计算机代码的执行来实现,使得可以经由存储在记录介质上的软件使用通用计算机、专用处理器、可编程硬件或专用硬件(例如ASIC或FPGA)来呈现本文所述的方法。如本领域所理解的,计算机、处理器、微处理器控制器或可编程硬件包括诸如RAM、ROM、闪存等的存储器部件,它们可以存储或接收软件或计算机代码,当上述软件或计算机代码被计算机、处理器或硬件访问和执行时,实现本文描述的处理方法。
虽然已经参考本公开的示例性实施例说明和描述了本公开,但是本领域技术人员将理解,在不脱离本公开的真实精神和全部范围的情况下,可以在其中进行形式和细节上的各种改变。

Claims (15)

1.一种电子装置,包括:
壳体;
通过所述壳体的第一表面的至少一部分露出的显示器;
通过所述壳体的第一表面的至少一部分露出的图像传感器;
处理器,与所述显示器和所述图像传感器可操作地连接;以及
存储器,与所述处理器可操作地连接,
其中所述存储器存储指令,所述指令在被执行时使得所述处理器:
使用所述显示器显示用户界面的同时,检测用户的手指在所述图像传感器上的触摸,
响应于检测到所述触摸,在手指的所述触摸保持在所述图像传感器上的同时,改变距所述图像传感器预定距离内的显示器区域中的所述用户界面,以及
基于从所述显示器发射的光的反射光获取用户的生物特征信息,其中使用所述图像传感器获取所述反射光。
2.根据权利要求1所述的电子装置,其中所述指令进一步使得所述处理器:
在检测到所述触摸之前,从距所述图像传感器预定距离内的所述显示器区域发射具有第一强度的光,以及
响应于检测到所述触摸,从距所述图像传感器预定距离内的所述显示器区域发射具有比第一强度更高的第二强度的光。
3.根据权利要求1所述的电子装置,其中所述指令进一步使得所述处理器:
响应于在所述图像传感器处接收到除所述反射光之外的光,显示另一用户界面以引导用户重新触摸所述显示器。
4.根据权利要求1所述的电子装置,其中所述指令进一步使得所述处理器:
响应于检测到所述触摸,识别用户的手指在所述显示器上触摸的区域,以及
基于所识别的区域,设置距所述图像传感器预定距离内的所述显示器区域。
5.根据权利要求1所述的电子装置,其中当在所述壳体的前视图中观看时,所述图像传感器设置在所述显示器的显示区域中。
6.根据权利要求1所述的电子装置,其中所述指令进一步使得所述处理器:
响应于检测到所述触摸,在手指的所述触摸保持在所述图像传感器上的同时,以指定的时间间隔改变所述用户界面。
7.根据权利要求1所述的电子装置,其中所述指令进一步使得所述处理器:
响应于检测到所述触摸,从距所述图像传感器预定距离内的所述显示器区域的第一部分发射第一强度的光;以及
响应于检测到所述触摸,从距所述图像传感器预定距离内的所述显示器区域的第二部分发射比所述第一强度高的第二强度的光。
8.根据权利要求1所述的电子装置,其中所述指令进一步使得所述处理器:
接收输入,
基于所接收的输入,识别要从用户获取的第一生物特征信息,以及
响应于检测到所述触摸,从距所述图像传感器预定距离内的所述显示器区域发射与所识别的第一生物特征信息相对应的光。
9.一种包括壳体的电子装置的操作方法,所述方法包括:
在使用通过所述壳体的第一表面的至少一部分露出的显示器来显示用户界面的同时,检测用户的手指在通过所述壳体的第一表面的至少一部分露出的图像传感器上的触摸;
响应于检测到所述触摸,在手指的所述触摸保持在所述图像传感器上的同时,改变距所述图像传感器预定距离内的显示器区域中的所述用户界面;以及
基于从所述显示器发射的光的反射光获取用户的生物特征信息,其中使用所述图像传感器获取所述反射光。
10.根据权利要求9所述的方法,其中在检测到所述触摸之前,从距所述图像传感器预设距离内的显示器区域中发射具有第一强度的光,以及
响应于检测到所述触摸,从距所述图像传感器预定距离内的所述显示器区域发射具有高于第一强度的第二强度的光。
11.根据权利要求9所述的方法,还包括:
响应于在所述图像传感器处接收到除所述反射光之外的光,显示另一用户界面以引导用户重新触摸显示器。
12.根据权利要求9所述的方法,还包括:
响应于检测到所述触摸,识别用户的手指在所述显示器上触摸的区域;以及
基于所识别的区域,设置距所述图像传感器预定距离内的所述显示器区域。
13.根据权利要求9所述的方法,还包括:
响应于检测到所述触摸,从距所述图像传感器预定距离内的所述显示器区域的第一部分发射第一强度的光;以及
响应于检测到所述触摸,从距所述图像传感器预定距离内的所述显示器区域的第二部分发射比所述第一强度高的第二强度的光。
14.根据权利要求9所述的方法,还包括:
接收输入;
基于接收到的输入,识别要从用户获取的第一生物信息;以及
响应于检测到所述触摸,从距所述图像传感器预定距离内的所述显示器区域发射对应于所识别的第一生物特征信息的光。
15.根据权利要求9所述的方法,还包括:
识别由所述图像传感器基于所述反射光获取的图像关于参考方向的不对称;
响应于识别到所述图像的关于所述参考方向的不对称,识别所述图像的关于所述参考方向的不对称程度;以及
基于所识别的所述不对称的程度,改变所述预定距离内的显示器区域。
CN202080032385.3A 2019-05-14 2020-05-13 使用显示器的光获取生物特征信息的方法及电子装置 Pending CN113767359A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190056177A KR102655532B1 (ko) 2019-05-14 2019-05-14 디스플레이의 광을 이용하여 생체 정보를 획득하기 위한 전자 장치 및 방법
KR10-2019-0056177 2019-05-14
PCT/KR2020/006246 WO2020231156A1 (en) 2019-05-14 2020-05-13 Electronic device and method for acquiring biometric information using light of display

Publications (1)

Publication Number Publication Date
CN113767359A true CN113767359A (zh) 2021-12-07

Family

ID=73245270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080032385.3A Pending CN113767359A (zh) 2019-05-14 2020-05-13 使用显示器的光获取生物特征信息的方法及电子装置

Country Status (5)

Country Link
US (1) US11204668B2 (zh)
EP (1) EP3949363B1 (zh)
KR (1) KR102655532B1 (zh)
CN (1) CN113767359A (zh)
WO (1) WO2020231156A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220061677A1 (en) * 2020-08-26 2022-03-03 X Development Llc Physiological measurements using phone screen
US11462047B1 (en) * 2021-05-05 2022-10-04 Lenovo (Singapore) Pte. Ltd. Device having a camera overlaid by display as biometric sensor
JP7467391B2 (ja) * 2021-06-18 2024-04-15 キヤノン株式会社 情報処理装置および情報処理装置の制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170337542A1 (en) * 2015-02-27 2017-11-23 Samsung Electronics Co., Ltd. Payment means operation supporting method and electronic device for supporting the same
US20180074627A1 (en) * 2016-09-13 2018-03-15 Samsung Electronics Co., Ltd. Electronic device including display emitting light to provide optics-based fingerprint detection
CN107977110A (zh) * 2016-10-21 2018-05-01 三星电子株式会社 用于获取指纹信息的电子装置和方法
US20180129798A1 (en) * 2015-06-18 2018-05-10 Shenzhen GOODIX Technology Co., Ltd. Optical sensing performance of under-screen optical sensor module for on-screen fingerprint sensing

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102177150B1 (ko) 2014-02-19 2020-11-10 삼성전자 주식회사 지문인식 장치 및 방법
KR20150120043A (ko) * 2014-04-16 2015-10-27 크루셜텍 (주) 터치 센싱 기능과 지문 인증 기능을 모두 포함하는 모바일 장치
KR102367550B1 (ko) 2014-09-02 2022-02-28 삼성전자 주식회사 생체 신호를 이용한 카메라 모듈의 제어
EP3232909B1 (en) * 2014-12-15 2022-09-28 Koninklijke Philips N.V. Approach for measuring capillary refill time
SE1451598A1 (en) 2014-12-19 2016-06-20 Fingerprint Cards Ab Improved guided fingerprint enrollment
KR20170003193A (ko) 2015-06-30 2017-01-09 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR102419624B1 (ko) * 2016-01-21 2022-07-11 삼성전자 주식회사 전자 장치의 센서 배치 구조
KR20170111827A (ko) * 2016-03-29 2017-10-12 삼성전자주식회사 디스플레이 및 카메라를 포함하는 전자 장치
KR102331464B1 (ko) * 2017-04-18 2021-11-29 삼성전자주식회사 디스플레이 영역에 형성된 생체 정보 센싱 영역을 이용한 생체 정보 획득 방법 및 이를 지원하는 전자 장치
US20180333088A1 (en) * 2017-05-17 2018-11-22 Microsoft Technology Licensing, Llc Pulse Oximetry Capturing Technique
KR20190019676A (ko) * 2017-08-18 2019-02-27 삼성전자주식회사 디스플레이 광을 이용하여 생체 정보를 획득하기 위한 전자 장치 및 그의 동작 방법
CN107819011B (zh) 2017-09-28 2019-12-17 维沃移动通信有限公司 一种显示屏、移动终端和显示方法
KR102400840B1 (ko) 2017-10-13 2022-05-24 삼성전자주식회사 디스플레이를 광원으로 이용하여 생체 정보를 획득하기 위한 방법 및 그 전자 장치
CN107729735A (zh) * 2017-10-20 2018-02-23 北京小米移动软件有限公司 指纹解锁方法、装置、电子设备及计算机可读存储介质
US10620665B2 (en) * 2018-02-05 2020-04-14 Guangdong Oppo Mobile Telecommunications Corp., Lt Terminal display assembly and mobile terminal
CN109711130A (zh) * 2018-12-21 2019-05-03 盛照博 一种指纹解锁方法、移动终端及电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170337542A1 (en) * 2015-02-27 2017-11-23 Samsung Electronics Co., Ltd. Payment means operation supporting method and electronic device for supporting the same
US20180129798A1 (en) * 2015-06-18 2018-05-10 Shenzhen GOODIX Technology Co., Ltd. Optical sensing performance of under-screen optical sensor module for on-screen fingerprint sensing
US20180074627A1 (en) * 2016-09-13 2018-03-15 Samsung Electronics Co., Ltd. Electronic device including display emitting light to provide optics-based fingerprint detection
CN107977110A (zh) * 2016-10-21 2018-05-01 三星电子株式会社 用于获取指纹信息的电子装置和方法

Also Published As

Publication number Publication date
EP3949363B1 (en) 2024-10-09
EP3949363A4 (en) 2022-05-04
US11204668B2 (en) 2021-12-21
EP3949363A1 (en) 2022-02-09
KR20200131488A (ko) 2020-11-24
WO2020231156A1 (en) 2020-11-19
KR102655532B1 (ko) 2024-04-09
US20200363902A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
US12073502B2 (en) Electronic device for displaying avatar corresponding to external object according to change in position of external object
US11461910B2 (en) Electronic device for blurring image obtained by combining plural images based on depth information and method for driving the electronic device
US11258962B2 (en) Electronic device, method, and computer-readable medium for providing bokeh effect in video
US11671701B2 (en) Electronic device for recommending composition and operating method thereof
US11025890B2 (en) Electronic device and method for acquiring depth information by using at least one of cameras or depth sensor
US11102409B2 (en) Electronic device and method for obtaining images
US11048923B2 (en) Electronic device and gesture recognition method thereof
KR20200017299A (ko) 이미지의 인식된 장면에 기반하여 이미지를 처리하는 방법 및 이를 위한 전자 장치
US11204668B2 (en) Electronic device and method for acquiring biometric information using light of display
EP4231629A1 (en) Electronic device for editing video by using object of interest, and operating method therefor
CN111788568A (zh) 利用相机感测多个波长带宽生成多个信息的方法及其设备
KR102370763B1 (ko) 외부 광에 기반하여 카메라를 제어하는 전자 장치 및 제어 방법
US11467673B2 (en) Method for controlling camera and electronic device therefor
US11368636B2 (en) Method for acquiring image corresponding to infrared rays by using camera module comprising lens capable of absorbing light in visible light band and electronic device implementing same
US20230007160A1 (en) Photographing method of electronic apparatus and electronic apparatus thereof
US12069382B2 (en) Electronic device and method for generating images by performing auto white balance
US20220091241A1 (en) Electronic device and method for compensating for depth error according to modulation frequency
KR20200117460A (ko) 전자 장치 및 그의 발열 제어 방법
KR20200101803A (ko) 뎁스 맵을 생성하는 전자 장치 및 방법
EP4138034A1 (en) Electronic device for detecting defect in image on basis of difference among sub-images acquired by multiple photodiode sensor, and operation method thereof
US11032462B2 (en) Method for adjusting focus based on spread-level of display object and electronic device supporting the same
KR102668212B1 (ko) 자동 초점 방법 및 이를 수행하는 전자 장치
KR20200092762A (ko) 전자 장치 및 이를 이용한 카메라의 가림을 인식하는 방법
US20230396889A1 (en) Image capturing method for electronic device, and electronic device therefor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination