CN110088764B - 用于虹膜识别功能的操作方法及支持该方法的电子设备 - Google Patents
用于虹膜识别功能的操作方法及支持该方法的电子设备 Download PDFInfo
- Publication number
- CN110088764B CN110088764B CN201780077513.4A CN201780077513A CN110088764B CN 110088764 B CN110088764 B CN 110088764B CN 201780077513 A CN201780077513 A CN 201780077513A CN 110088764 B CN110088764 B CN 110088764B
- Authority
- CN
- China
- Prior art keywords
- image
- specified
- processor
- iris recognition
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000006870 function Effects 0.000 claims description 151
- 238000003384 imaging method Methods 0.000 claims description 19
- 230000003213 activating effect Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 34
- 230000009466 transformation Effects 0.000 description 29
- 230000008569 process Effects 0.000 description 24
- 230000008859 change Effects 0.000 description 23
- 238000012545 processing Methods 0.000 description 22
- 230000004044 response Effects 0.000 description 13
- 230000004913 activation Effects 0.000 description 11
- 230000001815 facial effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000001413 cellular effect Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000009530 blood pressure measurement Methods 0.000 description 1
- 238000009529 body temperature measurement Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000001646 magnetic resonance method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/17—Image acquisition using hand-held instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
- Collating Specific Patterns (AREA)
Abstract
提供了操作虹膜识别功能的方法及其电子设备。电子设备包括第一摄像器件、第二摄像器件、以及可操作地连接到第一摄像器件和第二摄像器件的至少一个处理器。至少一个处理器配置成在被请求执行虹膜识别功能的情况下,基于第一摄像器件获得与对象相关联的第一图像,并且在显示器上输出关于所获得的第一图像的特征点的信息,并且如果关于特征点的信息满足指定条件,则基于第二摄像器件获得与对象相关联的第二图像,并且其中关于特征点的信息在显示器上的显示位置根据对象与第一摄像器件之间的拍摄角度而改变。
Description
技术领域
本公开涉及一种虹膜识别功能。
背景技术
如今,诸如智能手机、平板个人计算机(PC)等各种类型的便携式电子设备已广泛分布。便携式电子设备在安全功能方面支持虹膜识别功能。
发明内容
技术问题
以上信息仅作为背景信息呈现以帮助理解本公开。关于以上任何内容是否可以用作关于本公开的现有技术,没有做出决定并且没有做出断言。
解决方法
根据本公开的一个方面,提供了一种电子设备。电子设备可以包括第一摄像器件、第二摄像器件和可操作地连接到第一摄像器件和第二摄像器件的至少一个处理器,其中至少一个处理器配置成如果被请求执行虹膜识别功能,则基于第一摄像器件获得与对象相关联的第一图像,并且在显示器中输出关于所获得的第一图像的特征点的信息,并且如果关于特征点的信息满足指定条件,则基于第二摄像器件获得与对象相关联的第二图像,并且其中关于特征点的信息的显示位置根据对象与第一摄像器件之间的拍摄角度而改变。
根据本公开的另一方面,提供了一种操作虹膜识别功能的方法。所述方法可以包括接收对于执行虹膜识别功能的请求;基于第一摄像器件获得对象的第一图像;在显示器中输出关于所获得的第一图像的特征点的信息;并且如果特征点的信息满足指定条件,则基于与第一摄像器件不同的第二摄像器件获得与对象相关联的第二图像,其中关于特征点的信息的显示位置根据对象与第一摄像器件之间的拍摄角度而改变。
如上所述,各种实施例可以提高电子设备的虹膜识别速度,并且可以操作降低与虹膜识别功能相关联的电子设备的功耗的虹膜识别功能。
另外,根据各种实施例,由发射特定频带的光的光发射器引起的闪烁被最小化,从而减少由于闪烁引起的用户不便性。
此外,各种实施例可以基于面部特征点生成或提供适用于用户偏好的各种用户界面(UI)。
通过以下结合附图公开了本公开的各种实施例的详细描述,本公开的其他方面、优点和显著特征对于本领域技术人员将变得显而易见。
有益效果
在虹膜识别功能的情况下,如果被请求虹膜识别,则电子设备可以激活红外(IR)摄像器件以获得用户的虹膜图像,并且可以确定所获得的虹膜图像是否与存储的信息相同。电子设备分析通过使用IR摄像器件获得的图像,以确定用户的虹膜的尺寸是否在预定义的特定点处变为特定尺寸。此时,通过使用拍摄角度相对较窄的IR摄像器件来检测虹膜区域的操作具有许多错误,并且需要相对大量的操作时间以基于所获得的IR图像来检测虹膜区域。因此,电子设备的虹膜识别功能需要大量时间来分析图像,并且根据现有技术其精度相对较低。
本公开的各方面旨在解决至少上述问题和/或缺点并提供至少下述优点。因此,本公开的一个方面是提供一种能够节约电子设备的功率或者提高虹膜识别速度的虹膜识别功能操作方法以及支持该功能的电子设备。
附图说明
通过以下结合附图的描述,本公开的某些实施例的上述和其他方面、特征和优点将更加明显,在附图中:
图1是示出了根据本公开的实施例的虹膜识别环境的示例的图;
图2是示出了根据本公开的实施例的电子设备的配置示例的框图;
图3是示出了根据本公开的实施例的处理器的配置示例的视图;
图4是示出了根据本公开的实施例的虹膜识别功能操作方法的示例的流程图;
图5是示出了根据本公开的实施例的包括输出用户界面(UI)的操作的虹膜识别功能操作方法的示例的流程图;
图6是示出了根据本公开的实施例的与虹膜识别功能的操作相关联的红外(IR)摄像机激活方法的示例的流程图;
图7是示出了根据本公开的实施例的与虹膜识别功能的操作相关联的IR摄像机激活方法的另一示例的流程图;
图8是用于描述根据本公开的实施例的基于与虹膜识别功能相关联的红色、绿色、蓝色(RGB)摄像器件的屏幕界面输出方法的视图;
图9是示出了根据本公开的实施例的UI变换的示例的视图;
图10是示出了根据本公开的实施例的UI变换的另一示例的视图;
图11是示出了根据本公开的实施例的UI匹配的示例的视图;
图12是示出了根据本公开的实施例的处于网络环境中的电子设备的配置的框图;以及
图13是示出了根据本公开的各种实施例的电子设备的配置的框图。
贯穿附图,应当注意,相同参考标号用于描绘相同或相似元件、特征和结构。
具体实施方式
提供了参考附图的以下描述以帮助全面理解如由权利要求及其等同物限定的本公开的各种实施例。它包括各种具体细节来帮助理解,但是这些仅被认为是示例性的。因此,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可以对本文描述的各种实施例进行各种改变和修改。此外,为了清楚和简洁,可能省略对公知功能和结构的描述。
在以下描述和权利要求中使用的术语和词语不限于书面含义,而是仅由发明人使用以使得能够清楚和一致地理解本公开。因此,对于本领域技术人员来说显而易见的是,提供本公开的各种实施例的以下描述仅出于说明目的,而不是出于限制由所附权利要求及其等同物限定的本公开的目的。
应当理解,除非上下文明确地另有说明,否则单数形式“一个(a)”、“一种(an)”以及“所述(the)”包括复数指示物。因此,例如,对“部件表面”的引用包括对一个或多个此类表面的引用。
在本文公开的公开内容中,本文使用的表达“具有”、“可以具有”、“包括”和“包含”或“可以包括”和“可以包含”表示存在对应的特征(例如,诸如数值、功能、操作或部件的元素)但是不排除存在其他特征。
在本文公开的内容中,本文使用的表达“A或B”、“A或/和B中的至少一个”或“A或/和B中的一个或多个”等可以包括相关所列项中的一个或多个的任何和所有组合。例如,术语“A或B”、“A和B中的至少一个”或“A或B中的至少一个”可以是指以下所有情况:(1)包括至少一个A的情况;(2)包括至少一个B的情况;或者(3)包括至少一个A和至少一个B两者的情况。
本文使用的诸如“第一”、“第二”等术语可以指代各种实施例的各种元件,但是不限制这些元件。此外,这些术语可以用于将一个元素与另一个元素区分开。例如,“第一用户设备”和“第二用户设备”可以指示不同的用户设备,而不管其顺序或优先级。例如,“第一用户设备”和“第二用户设备”指示不同的用户设备。
应当理解,当元件(例如,第一元件)被称为(操作性地或通信地)“与另一元件(例如,第二元件)联接/联接到另一元件”或“连接到另一元件”时,其可以直接与另一元件联接/联接到另一元件或连接到另一元件,或者可以存在介入元件(例如,第三元件)。相反,当元件(例如,第一元件)被称为“与另一元件(例如,第二元件)直接联接/直接联接到另一元件”或者“直接连接到另一元件”时,应当理解,不存在介入元件(例如,第三元件)。
根据情况,本文使用的表达“配置为”可以用作例如“适用于”、“具有……的能力”、“设计为”、“适于”、“制造为”、或者“能够”等表述。术语“配置为”不能只意味着在硬件中“专门设计来……”。相反,表达“配置为……的设备”可以意指设备“能够”与另一设备或其他部件一起操作。中央处理单元(CPU),例如,“配置为执行A、B和C的处理器”可以意指用于执行对应操作的专用处理器(例如,嵌入式处理器)或通用处理器(例如,CPU或应用处理器(AP)),其可以通过执行存储在存储设备中的一个或多个软件程序来执行对应操作。
本公开中使用的术语用于描述具体实施例,而不旨在限制本公开的范围。除非另有说明,否则单数形式的术语可以包括复数形式。除非本文另有定义,否则本文使用的所有术语(包括技术或科学术语)可以具有本领域技术人员通常理解的相同含义。将进一步理解的是,除非在本公开的各种实施例中在本文明确地如此定义,否则在字典中定义并且通常使用的术语也应被解释为在相关领域是惯用的,而不是理想化或过度形式化的含义。在一些情况下,即使术语是在说明书中定义的术语,也不应将其解释为排除本公开的实施例。
根据本公开的各种实施例的电子设备可以包括以下各项中的至少一种:智能手机、平板个人计算机(PC)、移动电话、视频电话、电子书阅读器、台式PC、膝上型PC、上网本计算机、工作站、服务器、个人数字助理(PDA)、便携式多媒体播放器(PMP)、运动图像专家组(MPEG-1或MPEG-2)音频层3(MP3)播放器、移动医疗设备、摄像机、可穿戴设备(例如,头戴式设备(HMD),诸如电子眼镜)、电子服装、电子手镯、电子项链、电子配件、电子纹身、智能手表等。
根据另一实施例,电子设备可以是家用电器。家用电器可以包括例如以下各项中的至少一种:电视(TV)、数字多功能光盘(DVD)播放器、音频、冰箱、空调、清洁器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、家庭自动化控制面板、安全控制面板、电视盒(例如,Samsung HomeSyncTM、Apple TVTM或Google TVTM)、游戏机(例如,XboxTM或PlayStationTM)、电子词典、电子钥匙、便携式摄像机、电子相框等。
根据另一实施例,拍摄装置可以包括以下各项中的至少一种:医疗设备(例如,各种便携式医疗测量设备(血糖监测设备、心率监测设备、血压测量设备、体温测量设备等)、磁共振血管成像(MRA)、磁共振成像(MRI)、计算机断层扫描(CT)、扫描仪和超声波设备)、导航设备、全球定位系统(GPS)接收器、事件数据记录器(EDR)、飞行数据记录器(FDR)、车辆信息娱乐设备、用于船舶的电子装备(例如,导航系统和陀螺罗盘)、航空电子设备、安全设备、汽车车头单元、工业或家庭机器人、自动取款机(ATM)、销售点(POS)或物联网(例如,灯泡、各种传感器、电动或燃气表、喷洒器设备、火灾报警器、恒温器、路灯、烤面包机、运动用品、热水箱、加热器、锅炉等)。
根据另一实施例,电子设备可以包括家具或建筑物/结构的一部分、电子板、电子签名接收设备、投影仪和各种测量仪器(例如水表、电表、燃气表和无线电波表)中的至少一种。在各种实施例中,电子设备可以是上述各种设备之一或其组合。根据一个实施例的电子设备可以是柔性设备。此外,根据一个实施例的电子设备可以不限于上述电子设备,并且可以包括根据技术发展的其他电子设备和新型电子设备。
在下文中,可参考附图描述根据各种实施例的电子设备。本文所使用的术语“用户”可以指代使用电子设备的人或者可以指代使用电子设备的设备(例如,人工智能电子设备)。
图1是示出了根据本公开的实施例的虹膜识别环境的示例的图。
参考图1,根据本公开的实施例的虹膜识别环境可以通过使用电子设备100的的第一摄像器件(例如红色、绿色、蓝色(RGB)摄像器件140)来获得与包括眼睛区域12的用户面部11的至少一部分对应的图像。如果获得的第一图像(例如,RGB图像)满足指定条件,则虹膜识别环境可以基于其第二摄像器件获得与眼睛区域12相关联的第二图像(例如红外(IR)图像),以用于执行虹膜识别功能的目的,其中,第二摄像器件例如为IR摄像器件150,例如,IR摄像机151和如IR光发射单元152的光发射单元(例如,光发射器),光发射单元发射与第二摄像器件的图像拍摄相关联的指定频带的光。通过以上描述,根据本公开的实施例的虹膜识别环境可以通过使用以指定参考值或更小的低功率操作并且与IR摄像器件150相比具有高精度特征点检测的RGB摄像器件140来分析用于虹膜区域检测的图像并且可以跟踪虹膜区域。另外,根据本公开的实施例的虹膜识别环境可以通过基于比IR摄像器件150具有更高处理速度的RGB摄像器件140来分析和跟踪虹膜区域来提供高响应速度。此外,根据本公开的实施例的虹膜识别环境可以通过使用RGB摄像器件140来分析包括在面部中的各种特征点,以基于分析结果将各种可替换图像应用于虹膜识别功能。
根据一个实施例,在虹膜识别环境中,电子设备100可以提供与虹膜识别功能的执行相关联的菜单或图标。可替代地,电子设备100可以提供与虹膜识别功能的执行相关联的语音识别功能,并且可以从所收集的语音中提取与虹膜识别功能的执行相关联的指令。可替代地,当执行指定的应用(例如,与锁定屏幕解锁相关的应用、财务功能执行相关的应用、或者至少部分地应用了安全相关功能(诸如关于隐私的信息、搜索文件功能的执行)的应用)等时,电子设备100可以执行虹膜识别功能。
如果被请求执行虹膜识别功能,则电子设备100可以激活RGB摄像器件140以获得RGB图像(例如,RGB预览图像或RGB拍摄图像)。根据一个实施例,电子设备100可以分析所获得的RGB预览图像以提取至少一个特征点。电子设备100可以基于提取的特征点来确定所获得的RGB预览图像是否是人的面部(或人类面部)11。如果确定获得的RGB预览图像是人类面部11,则电子设备100可以从RGB预览图像提取眼睛区域12的特征点。如果提取了对应于眼睛区域12的特征点,则电子设备100可以输出指引信息,使得图像中的眼睛区域位于显示器160上的指定位置处。就此而言,电子设备100可以向显示器160的区域输出指示符164,该指示符164指示基于RGB预览图像检测到的眼睛区域12以及指示符164需要定位到的目标位置对象163。根据各种实施例,电子设备100可以将与虹膜识别相关联的应用信息区域输出到虹膜用户界面(UI)的第一区域161。指示符164和目标位置对象163可以输出到针对虹膜识别功能的执行而提供的虹膜UI的第二区域162。
在对应于眼睛区域12的指示符164设置在指定点(例如,在距显示器的屏幕上的目标位置对象163的特定距离内的点)的情况下,电子设备100可以激活IR摄像器件150来执行虹膜识别。在这种操作中,电子设备100可以从由IR摄像器件150获得的IR图像(例如,对应于虹膜图像的IR预览图像或IR静态图像)提取虹膜特征点,并且可以将提取的虹膜特征点与存储在存储器中的信息进行比较,以处理虹膜识别操作。如果虹膜识别成功,则电子设备100可以执行指定的功能。
图2是示出了根据本公开的实施例的电子设备的配置示例的框图。
参考图2,根据本公开的实施例的电子设备100可以包括输入设备110、处理器120、存储器130、RGB摄像器件140和IR摄像器件150,并且还可以包括显示器160等。另外,电子设备100还可以包括通信电路、传感器等。
根据本公开的各种实施例,输入设备110可以包括能够生成对应于用户输入的输入信号的至少一个装置或至少一个用户界面(UI)。根据一个实施例,输入设备110可以包括与虹膜识别功能的执行相关联的物理按钮。根据各种实施例,输入设备110可以包括与虹膜识别功能的执行相关联的触摸键或触摸屏显示面板。在这种情况下,输入设备110可以包括显示器160,其中显示与虹膜识别功能的执行相关联的图标。
根据本公开的各种实施例,存储器130可以存储与电子设备100的操作相关联的至少一个应用程序。根据一个实施例,存储器130可以包括与RGB摄像器件140和IR摄像器件150的操作相关联的摄像机应用程序。例如,摄像机应用程序可以包括用于在被请求执行虹膜识别功能时激活RGB摄像器件140的指令集、用于分析RGB摄像器件140获得的RGB预览图像或RGB静态图像以检测面部和眼睛区域的指令集、以及基于检测的信息来输出指定UI的指令集。另外,摄像机应用程序可以包括用于根据检测的信息与指定UI之间的匹配结果来激活IR摄像器件150的指令集、以及基于由IR摄像器件150获得的IR预览图像或IR静态图像来处理虹膜识别功能的指令集。
根据本公开的各种实施例,RGB摄像器件140可以包括RGB摄像机141和RGB摄像机控制器142。RGB摄像机141可以设置为使得镜头暴露于电子设备100的壳体的一侧。RGB摄像机141可以设置在与其上设置有IR摄像机151和IR光发射单元152的表面相同的表面上。根据一个实施例,RGB摄像机141可以设置在电子设备100的其中设置有显示器160的前表面的一侧(例如,上端的一侧)上。响应于来自RGB摄像机控制器142的控制信号,可以激活或去激活RGB摄像机141。如果针对虹膜识别功能而激活RGB摄像机141,则RGB摄像机141可以获得RGB预览图像并将获得的RGB预览图像发送到RGB摄像机控制器142或处理器120。由RGB摄像机141获得的RGB预览图像可以输出到显示器160。
根据本公开的各种实施例,RGB摄像机控制器142可以提供与RGB摄像机141的驱动相关联的控制信号。此外,RGB摄像机控制器142可以处理由RGB摄像机141获得的预览图像。例如,RGB摄像机控制器142可以用处理器120的至少一部分来实现。可替代地,RGB摄像机控制器142可以作为单独的处理器来提供,而不包括在RGB摄像器件140中。在这种情况下,RGB摄像机控制器142可以基于连接到RGB摄像机141的单独的通信信道来控制RGB摄像机141,或者可以通过连接到RGB摄像机141的处理器120来控制RGB摄像机141。如果被请求执行虹膜识别功能(例如,从处理器120或输入设备110接收到对于执行虹膜识别功能的请求),则RGB摄像机控制器142可以激活RGB摄像机141。在这种操作中,RGB摄像机控制器142可以请求IR摄像机控制器153来激活IR摄像机151。可以同时激活RGB摄像机141和IR摄像机151。
根据本公开的各种实施例,RGB摄像机控制器142可以分析由RGB摄像机141获得的RGB预览图像以提取面部特征点或眼睛区域特征点。RGB摄像机控制器142可以基于提取的面部特征点或眼睛区域特征点来输出指定UI。指定UI的至少一部分可以预先存储在存储器130中。根据一个实施例,可以基于用户指定的特定照片图像、从外部服务器接收的照片图像、特定动画人物图像等来生成指定UI。如果提取的面部特征点或眼睛区域特征点(在下文中,基于眼睛区域特征点描述)设置在屏幕上的指定位置处(例如,拍摄角度改变或者对象移动,使得指定特征点设置在显示器160的指定位置处),则RGB摄像机控制器142可以将与IR摄像器件150的激活相关联的控制信号发送到IR摄像器件150。根据各种实施例,如果满足与眼睛区域特征点相关联的指定条件(例如,对应于眼睛区域12的指示符164位于显示器160的屏幕区域上的指定点处的条件),则RGB摄像机控制器142可以请求IR摄像机控制器153激活IR光发射单元152并且执行虹膜识别功能。
根据本公开的各种实施例,IR摄像器件150可以包括IR摄像机151、IR光发射单元152和IR摄像机控制器153。IR摄像机151可以基于由IR光发射单元152发射的光获得与虹膜相关联的IR图像,并且可以将获得的IR图像发送到IR摄像机控制器153或处理器120。在这种操作中,IR摄像机151可以在IR摄像机控制器153的控制下获得与例如用户的虹膜相关的眼睛区域相关联的IR预览图像(例如,基于红外波长获得的预览图像)。可替代地,在IR摄像机控制器153的控制下,IR摄像机151可以确定是否从IR预览图像获得超过指定尺寸的虹膜区域,并且如果获得了超过指定尺寸的虹膜区域,则可以获得与虹膜相关联的IR静态图像。
在RGB摄像机控制器142或IR摄像机控制器153的控制下,IR光发射单元152可以发射特定波长的光。例如,在由RGB摄像机141获得的预览图像满足指定条件的情况下,IR光发射单元152可以在RGB摄像机控制器142的控制下(或者在IR摄像机控制器153的控制下)发射光。
根据本公开的各种实施例,IR摄像机控制器153可以控制IR光发射单元152发射光并获取IR摄像机151的IR图像(例如,IR预览图像或IR静态图像)的时间点,或者可以控制IR预览图像或IR静态图像(基于红外波长获得的静态图像)的获取。根据一个实施例,如果从RGB摄像机控制器142接收到执行虹膜识别的请求,则IR摄像机控制器153可以激活IR光发射单元152并且可以控制IR光发射单元152发射指定波段的光。另外,IR摄像机控制器153可以基于IR摄像机151获得IR预览图像或IR静态图像,以分析所获得的IR预览图像或IR静态图像。
根据本公开的各种实施例,例如,如果由RGB摄像机控制器142请求执行虹膜识别功能,则IR摄像机控制器153可以激活IR光发射单元152并且可以获得基于IR摄像机151的IR静态图像。可替代地,IR摄像机控制器153可以基于由IR摄像机151获得的IR预览图像来确定虹膜尺寸。在虹膜尺寸不小于指定尺寸的情况下,IR摄像机控制器153可以基于对应的IR预览图像来处理虹膜识别功能。可替代地,如果获得其中虹膜尺寸不小于指定尺寸的IR预览图像,则IR摄像机控制器153可以获得IR静态图像并且可以分析包括在所获得的IR静态图像中的虹膜图像。
根据本公开的各种实施例,IR摄像机控制器153可以将预先存储在存储器130中的虹膜图像与当前获得的虹膜图像进行比较和分析。例如,IR摄像机控制器153可以将预先存储在存储器130中的虹膜图像相关特征点或者通过使用虹膜特征点提供的模型信息与当前获得的虹膜图像相关特征点或者通过使用特征点生成的模型信息进行比较和分析。在比较结果指示相似率(预先存储的信息与当前获得的信息之间的同一性)不小于指定的参考值的情况下,IR摄像机控制器153可以处理虹膜识别成功并且可以将处理结果发送到处理器120。
根据各种实施例,IR摄像机控制器153可以用处理器120的至少一部分来实现,或者可以独立于处理器120而使用另一个处理器来实现。因此,IR摄像机控制器153可以控制IR光发射单元152和IR摄像机151的激活,而与基于IR摄像机151的虹膜识别相关联的处理(例如,IR预览图像的获取或者IR静态图像的获取、虹膜图像的分析等)可以由处理器120执行。如果从IR摄像机控制器153接收到关于虹膜识别成功的信息,则处理器120可以执行指定功能(例如,解锁锁定屏幕、执行设定了安全性的图库或财务支付的功能)。
根据本公开的各种实施例,显示器160可以输出与电子设备100的操作相关联的至少一个屏幕。例如,显示器160可以响应于用户输入来输出锁定屏幕等。可替代地,显示器160可以输出用于请求执行设定了安全性的应用的屏幕。为了解锁设定了安全性的屏幕或者为了执行设定了安全性的功能,显示器160可以输出与虹膜识别功能的处理相关联的屏幕。例如,显示器160可以输出关于虹膜识别功能的处理的预览图像和指定UI的至少一部分。显示器160可以输出IR摄像机151所获得的IR预览图像或IR静态图像。显示器160可以输出与虹膜识别失败或虹膜识别成功相关联的消息。当虹膜识别成功时,显示器160可以在处理器120的控制下输出指定功能的执行屏幕。
根据本公开的各种实施例,处理器120可以发送和处理与电子设备100的功能控制相关联的信号。根据一个实施例,处理器120可以响应于对执行虹膜识别功能的请求而控制RGB摄像机141的激活以及IR摄像机151和IR光发射单元152的激活,以基于激活的摄像机来执行虹膜识别功能。就此而言,处理器120可以包括图3所示的配置。
图3是示出了根据本公开的实施例的处理器的配置示例的视图。
参考图3,根据本公开的实施例的处理器120可以包括RGB摄像机控制模块20、UI处理模块30以及IR摄像机控制模块40。上述至少一个或多个模块的至少一部分可以用至少一个或多个硬件处理器来实现。可替代地,至少一个或多个模块可以加载到存储器130上,并且可以包括由处理器120执行的至少一个指令集。
根据本公开的各种实施例,RGB摄像机控制模块20可以处理与RGB摄像机141的操作相关联的信号。例如,RGB摄像机控制模块20可以将与RGB摄像机141的操作相关联的信号发送到RGB摄像机控制器142。可替代地,RGB摄像机控制模块20的至少一部分可以对应于上述RGB摄像机控制器142。在这种情况下,RGB摄像机控制模块20可以直接控制RGB摄像机141。如果被请求执行虹膜识别功能,则RGB摄像机控制模块20可以激活RGB摄像机141并且可以获得RGB预览图像。RGB摄像机控制模块20可以提取并分析与获得的RGB预览图像相关联的特征点。就此而言,RGB摄像机控制模块20可以包括特征点识别单元21。
根据本公开的各种实施例,特征点识别单元21可以提取与获得的RGB预览图像相关联的特征点。特征点识别单元21可以确定所提取的特征点是否与指定的特征点(例如,对应于人类面部的特征点)匹配。如果确定提取的特征点是面部特征点,则特征点识别单元21可以提取对应于眼睛区域的特征点。特征点识别单元21可以将关于提取的特征点的信息发送到UI处理模块30。
根据本公开的各种实施例,UI处理模块30可以基于与从特征点识别单元21接收的特征点有关的信息来输出指定UI。另外,UI处理模块30可以确定特征点的位置是否位于所输出的UI的指定位置处。就此而言,UI处理模块30可以包括UI变换单元33和UI匹配单元31。
根据本公开的各种实施例,UI变换单元33可以根据设置或者基于特征点的位置来输出指定图像。例如,UI变换单元33可以收集包括眼睛并且预先存储在存储器130中的图像(例如,预先存储的特定面部照片、人物等的图像)。UI变换单元33可以基于特征点来改变所收集的图像。例如,UI变换单元33可以改变所收集的图像的大小或显示方向、显示位置等,以便对应于特征点的分布。在没有单独设置(例如,存储器130中并不存储有图像采集设置)的情况下,UI变换单元33可以将当前正被拍摄的用户面部输出到显示器160的指定位置。可替代地,UI变换单元33可以将基于RGB预览图像的UI(例如,在显示器160的整个区域中显示的屏幕)变换成基于IR图像的虹膜UI(例如,包括应用信息区域和与眼睛区域对应的指示符164匹配区域的屏幕)。就此而言,UI变换单元33可以计算指示符164与目标位置对象163之间的相对坐标(例如,在虹膜UI的部分区域中,改变在显示器的整个区域中所显示的指示符164和目标位置对象163的显示比例)。在这种操作中,UI变换单元33可以获得与虹膜识别相关联的应用信息(例如,与应用的执行相关联的图像等),并且可以将应用信息区域输出到显示器160的部分区域。
根据本公开的各种实施例,UI匹配单元31可以在显示器160的指定位置处显示从UI变换单元33接收的图像(例如,指定图像或人物图像)或者改变的图像(例如,虹膜UI屏幕)。UI匹配单元31可以将与从特征点识别单元21接收的特征点对应的指示符164输出到显示器160的指定区域。可替代地,UI匹配单元31可以将指示符164所需要定位到的目标位置对象163输出到显示器160。用户可以移动电子设备(或者RGB摄像机141的拍摄方向)或者可以进行移动,使得指示符164与目标位置对象163重叠。如果电子设备100或对象移动,则可以改变拍摄用户的RGB摄像机141的拍摄方向,且因此,与显示器160上显示的用户的眼睛区域的图像对应的指示符164的位置可以改变。如果指示符164至少部分地与目标位置对象163重叠,则UI匹配单元31可以将指定的控制信号(例如,用于请求虹膜识别的信号)发送到IR摄像机控制模块40。
根据本公开的各种实施例,IR摄像机控制模块40可以处理与IR摄像器件150的操作相关联的信号。IR摄像机控制模块40的至少一部分可以对应于上述IR摄像机控制器153。如果从UI匹配单元31接收到与虹膜识别相关联的控制信号,则IR摄像机控制模块40可以激活IR光发射单元152并且可以控制IR光发射单元152,使得发射指定波段的光。根据各种实施例,IR光发射单元152可以由RGB摄像机控制模块20激活。在这种情况下,IR摄像机控制模块40可以激活IR摄像机151并且可以获得与对象相关联的IR预览图像或IR静态图像。IR摄像机控制模块40可以在获得的IR预览图像或IR静态图像中的虹膜区域上执行虹膜识别。就此而言,IR摄像机控制模块40可以包括虹膜识别单元41。
根据本公开的各种实施例,虹膜识别单元41可以从获得的IR预览图像或IR静态图像验证眼睛区域,并且可以从眼睛区域获得虹膜图像。虹膜识别单元41可以提取与获得的虹膜图像相关联的特征点,并且可以将提取的特征点与预先存储在存储器130中的参考信息中所包括的特征点进行比较。在这种操作中,虹膜识别单元41可以将当前提取的特征点与存储在存储器130中的参考信息中所包括的特征点进行比较。可替代地,虹膜识别单元41可以基于提取的特征点执行建模,并且可以将建模结果与参考信息中所包括的参考模型进行比较。虹膜识别单元41可以根据当前收集的信息(例如,当前收集的特征点,或者建模信息)与参考信息之间的比较结果来确定虹膜识别失败或虹膜识别成功。在虹膜识别失败的情况下,虹膜识别单元41可以输出对应于虹膜识别失败的消息(例如,输出指示虹膜识别失败的音频信息和视频信息中的至少一个)。在虹膜识别成功的情况下,虹膜识别单元41可以处理指定功能的执行。例如,虹膜识别单元41可以执行请求执行虹膜识别功能的应用(例如,设定了安全性的应用,诸如金融应用、锁定屏幕应用等)。
根据本公开的各种实施例,电子设备可以包括第一摄像器件(例如,RGB摄像器件)、第二摄像器件(例如,IR摄像器件)、以及可操作地连接到第一摄像器件和第二摄像器件的处理器,其中处理器配置成如果被请求执行虹膜识别功能,则基于第一摄像器件获得与对象相关联的第一图像(例如,RGB图像),并且在显示器中输出关于所获得的第一图像的特征点的信息,如果关于特征点的信息满足指定条件,则基于第二摄像器件获得与对象相关联的第二图像(例如,IR图像),其中关于特征点的信息的显示位置根据对象与第一摄像器件之间的拍摄角度而改变。
根据各种实施例,处理器可以配置为确定对象是否是第一图像中的人类面部,如果对象是人类面部,则提取人类面部的特征点或者提取包括在人类面部中的眼睛区域的特征点,并且确定与所提取的人类面部的特征点或者所提取的眼睛区域的特征点相关联的信息是否满足指定条件。
根据各种实施例,处理器可以配置为确定特征点是否邻近显示器的指定位置,或者特征点的至少一部分是否与指定位置重叠。
根据各种实施例,处理器可以配置为在显示器上输出对应于特征点的指示符对象和指示符对象所需要定位到的目标位置对象中的至少一者。
根据各种实施例,处理器可以配置为如果指示符对象的至少一部分与目标位置对象重叠,则基于第二摄像器件获得第二图像。
根据各种实施例,处理器可以配置为在获得与对于执行虹膜识别功能的请求对应的第一图像之前激活第一摄像器件和第二摄像器件。
根据各种实施例,处理器可以配置为如果满足指定条件,则激活光发射单元,光发射单元配置为发射与第二摄像器件的图像拍摄相关联的频带的光。
根据各种实施例,处理器可以配置为在第一摄像器件被激活期间将包括在第二摄像器件中的第二摄像机和与第二摄像机相关联的光发射单元去激活,并且如果满足指定条件,则激活光发射单元和第二摄像机。
根据各种实施例,处理器可以配置为检测对象的眼睛区域,并且将对应于眼睛区域的特征点映射并输出到存储在存储器中的图像的眼睛区域信息。
根据各种实施例,处理器可以配置为响应于与眼睛区域对应的特征点的尺寸或位置的改变来调整图像的显示尺寸、显示位置和显示方向中的至少一者。
图4是示出了根据本公开的实施例的虹膜识别功能操作方法的示例的流程图。
参考图4,关于虹膜识别功能操作方法,在操作401中,如果发生任何事件,则电子设备100的处理器120可以确定是否发生与虹膜识别功能的执行相关联的事件。例如,如果被请求从存储在电子设备100的存储器130中的至少一个或多个应用中执行设定了安全性的应用,则处理器120可以确定发送与虹膜识别功能的执行相关联的事件。根据一个实施例,如果锁定屏幕被输出到显示器160,则处理器120可以确定发生请求执行虹膜识别功能的事件。
如果发生的事件不是与虹膜识别功能的执行相关联的事件,则在操作403中,处理器120可以根据对应事件的类型来执行指定的功能。例如,处理器120可以根据事件的类型来执行呼叫功能、照片拍摄功能、网页浏览功能等。
如果发生与执行虹膜识别功能相关联的事件,则在操作405中,处理器120(例如,RGB摄像机控制模块20)可以基于RGB摄像器件140来检测特征点。根据一个实施例,例如,处理器120可以分析基于RGB摄像器件140获得的RGB预览图像,并且可以确定是否检测到与人类面部相关联的特征点。如果检测到与人类面部相关联的特征点,则处理器120可以检测与面部区域中的眼睛区域对应的特征点。在执行操作时,处理器120可以基于所获得的RGB预览图像在显示器160上输出指定UI。根据一个实施例,指定UI可以包括与虹膜识别功能相关联的应用信息区域以及其中包括目标位置对象163的屏幕区域,其中目标位置对象163允许图像的眼睛区域与屏幕指定位置进行匹配。
在操作407中,处理器120(例如,RGB摄像机控制模块20)可以确定检测到的特征点是否满足指定条件。在检测到的特征点不满足指定条件的情况下,处理器120可以跳过操作409。指定条件可以包括显示在显示器160上的检测到的特征点的位置定位在指定点(例如,对应于眼睛区域的特征点至少部分地与目标位置对象163重叠的点)处的条件。可替代地,指定条件可以包括在指定点处显示检测到的特征点并且检测到的特征点位于指定大小的范围内的条件(例如,对应于眼睛区域的特征点位于距目标位置对象163的特定距离中的条件)。
为了满足指定条件,用户可以通过移动电子设备100或对象(例如,用户面部)来调整RGB摄像机141的拍摄方向和拍摄距离中的至少一者。例如,用户可以调整面向RGB摄像机141的用户面部方向、面向用户面部的RGB摄像机141的方向、RGB摄像机141与用户面部之间的距离等。在上述操作中,处理器120可以输出与用户面部的调整方向或者经调整的距离对应的指引信息。例如,处理器120可以输出用于请求将用户面部向左或向右旋转的指引信息、用于请求用户降低用户的下巴或者提升用户的下巴的指引信息、用于指引电子设备100向前移动或向后移动的距离以维持用户面部与RGB摄像器件140之间的适当距离的指引信息等等。
当用户面部或电子设备100移动时,处理器120可以改变指示符164的位置。在指示符164与目标位置对象163重叠或者位于距目标位置对象163的指定距离内的情况下,处理器120可以确定满足指定条件。在操作中,处理器120可以根据满足指定条件而输出指引信息。例如,处理器120可以改变指示符164和目标位置对象163中的至少一个的颜色和形状中的至少一者。可替代地,处理器120可以输出指示满足指定条件的音频信息、振动、灯等。
在检测到的特征点满足指定条件的情况下,在操作409中,处理器120(例如,IR摄像机控制模块40)可以基于IR摄像器件150识别和处理虹膜。例如,处理器120可以获得虹膜图像并且可以对虹膜图像执行比较和分析,且随后处理器120可以输出关于虹膜识别成功或虹膜识别失败的指引信息。当虹膜识别成功时,处理器120可以处理指定应用的执行。当虹膜识别失败时,处理器120可以再次获得包括虹膜图像的IR图像,并且可以在指定频率期间重复进行比较任务。当虹膜识别在指定频率期间失败时,处理器120的状态可以转变为关闭状态。之后,处理器120可以再次执行虹膜识别功能,或者可以根据设置的策略输出与诸如密码输入、指纹输入等另一种认证方法相关联的屏幕界面。
在操作411中,处理器120可以确定是否发生与虹膜识别功能的完成相关联的事件(例如,根据虹膜认证的完成或者根据虹膜认证失败的完成)。在未发生与虹膜识别功能的完成相关联的事件的情况下,处理器120可以根据先前的状态返回到操作409或操作405之前的操作,以再次执行随后的操作。如果发生与虹膜识别功能的完成相关联的事件,则处理器120可以结束虹膜识别功能。
图5是示出了根据本公开的实施例的包括输出UI的操作的虹膜识别功能操作方法的示例的流程图。
参考图5,关于虹膜识别功能操作方法,在操作501中,处理器120可以接收与执行虹膜识别功能相关联的用户输入或设置事件。例如,处理器120可以向显示器160输出与虹膜识别功能相关联的图标或菜单、用于执行与虹膜识别功能相关联的应用的图标等。当选择对应的图标时,处理器120可以确定发生请求执行虹膜识别功能的事件。可替代地,处理器120可以确定解锁锁定屏幕的请求是对于执行虹膜识别功能的请求。
如果被请求执行虹膜识别功能,则在操作503中,处理器120可以激活RGB摄像器件140。处理器120可以分析RGB摄像机141获得的RGB预览图像。
在操作505中,处理器120可以确定是否识别出面部特征点。在未识别出面部特征点的情况下,在操作507中,处理器120可以确定是否发生与虹膜识别功能的完成相关联的事件。如果未发生与虹膜识别功能的完成相关联的事件,则处理器120可以返回到操作505之前的操作以再次执行随后的操作。如果存在与虹膜识别功能的完成相关联的事件,则处理器120可以在结束虹膜识别功能的同时去激活RGB摄像器件140并且可以返回到指定功能。
如果识别出面部特征点,则在操作509中,处理器120可以将指定UI输出到显示器160。指定UI可以包括屏幕界面,屏幕界面包括对应于指定区域(例如为面部中的眼睛区域)的指示符164以及需要与指示符164匹配的目标位置对象163。在指示符164与目标位置对象163不一致的情况下或者在RGB摄像机141的拍摄方向和拍摄距离中的至少一个改变的情况下,在显示器160上显示指示符164的位置可以改变。
在操作511中,处理器120可以确定是否满足与指定UI相关联的指定条件。例如,处理器120可以确定指示符164是否至少部分地与目标位置对象163重叠。可替代地,处理器120可以基于目标位置对象163确定指示符164是否位于特定距离内。
如果不满足与指定UI相关联的指定条件,则在操作513中,处理器120可以确定是否发生与虹膜识别功能的完成相关联的事件。如果未发生与虹膜识别功能的完成相关联的事件,则处理器120可以返回到操作509之前的操作以维持输出指定UI的状态。如果发生与虹膜识别功能的完成相关联的事件,则处理器120可以在结束虹膜识别功能的同时去激活RGB摄像器件140,并且可以中断指定UI的输出。可替代地,处理器120可以返回到指定的功能状态。
如果满足与指定UI相关联的指定条件,则在操作515中,处理器120可以激活IR摄像器件150。例如,处理器120可以控制IR光发射单元152输出指定的光,并且可以通过使用IR摄像机151获得IR预览图像或IR静态图像。
在操作517中,处理器120可以确定虹膜识别是否完成。在完成虹膜识别的情况下,在操作519中,处理器120可以执行与识别相关联的功能。在这种操作中,处理器120可以通过从IR预览图像获得的虹膜图像与预先存储在存储器130中的信息之间的比较来执行虹膜识别。
在虹膜识别失败的情况下,在操作521中,处理器120可以确定是否发生与虹膜识别功能的完成相关联的事件。如果未发生与虹膜识别功能的完成相关联的事件,则处理器120可以返回到操作517并且可以再次执行虹膜识别操作。
图6是示出了根据本公开的实施例的与虹膜识别功能的操作相关联的IR摄像机激活方法的示例的流程图。
参考图6,关于IR摄像机激活方法,在操作601中,处理器120可以接收用于执行虹膜识别功能的请求。在这种情况下,在操作603中,处理器120可以激活RGB摄像器件140和IR摄像机151。处理器120可以将激活的IR摄像机151保持在待机状态,并且可以基于RGB摄像器件140获得RGB预览图像。
在操作605中,处理器120可以确定基于RGB摄像器件140获得的RGB图像是否满足指定条件。例如,处理器120可以确定从RGB预览图像检测到的眼睛区域(或虹膜区域)的显示位置(或者与眼睛区域或虹膜区域对应的指示符164的显示位置)是否与指定目标位置对象163的位置一致或者是否处于眼睛区域位于距目标位置对象163的特定距离内的状态。
在获得的RGB图像满足指定条件的情况下,在操作607中,处理器120可以激活IR光发射单元152。根据一个实施例,RGB摄像机控制模块20或包括在RGB摄像器件140中的RGB摄像机控制器142可以控制IR光发射单元152发射指定波段的光。就此而言,电子设备100还可以包括IR光发射单元152与RGB摄像机控制器142或RGB摄像机控制模块20之间的信号线。RGB摄像机控制器142或RGB摄像机控制模块20可以通过信号线发送与IR光发射单元152的开启控制或关闭控制相关联的信号。
在操作609中,处理器120可以基于由IR摄像机151获得的IR图像来确定虹膜识别是否成功。在从IR光发射单元152发射指定波段的光之后,IR摄像机151可以收集从用户的眼睛区域或虹膜区域反射的红外光,并且可以获得IR预览图像或IR静态图像。处理器120可以将收集到的IR预览图像或IR静态图像中的虹膜区域信息与预先存储在存储器130中的信息进行比较以处理虹膜识别。
如果虹膜识别成功,则在操作611中,处理器120可以执行设定功能。例如,取决于请求执行虹膜识别功能的应用的类型,处理器120可以解锁锁定屏幕、可以执行金融应用、或者可以处理支付。
在操作613中,处理器120可以确定是否发生与虹膜识别相关联的功能结束事件。如果未发生与虹膜识别相关联的功能结束事件,则处理器120可以根据先前状态返回到操作605、操作609或操作611,并且可以再次执行随后的操作。如果发生与虹膜识别相关联的功能结束事件,则处理器120可以返回到指定功能或者可以返回到指定状态(例如,睡眠状态等)。
利用上述操作,当满足指定条件时,根据本公开的实施例的电子设备100可以节省激活IR摄像机151所需的时间,并且随后可以快速处理虹膜识别。当满足指定条件时,电子设备100可以激活IR光发射单元152,从而减少IR光发射单元152的照射的功耗。由于电子设备100允许IR光发射单元152发射特定波段的光,从而减少了用户观察的不便(例如,对于红外颜色的不适感)。
图7是示出了根据本公开的实施例的与虹膜识别功能的操作相关联的IR摄像机激活方法的另一示例的流程图。
参考图7,关于IR摄像机激活方法,在操作701中,处理器120可以接收对于执行虹膜识别功能的请求。在操作703中,处理器120可以激活RGB摄像器件140、IR摄像机151以及IR光发射单元152。在这种操作中,处理器120可以分析通过RGB摄像器件140获得的图像,并且IR光发射单元152和IR摄像机151可以保持待机状态,同时IR光发射单元152和IR摄像机151接收电力。通过上述操作,处理器120可以允许不执行基于IR摄像器件150的虹膜识别,从而抑制不必要的功耗。
在操作705中,处理器120可以确定通过RGB摄像器件140获得的RGB图像是否满足指定条件。例如,指定条件可以包括用户面部或面部的指定区域位于显示器160上的指定位置处的状态。如上所述,指定条件可以包括眼睛区域或虹膜区域或者对应于眼睛区域或虹膜区域的指示符164至少部分地与预设目标位置对象163重叠的条件。
在所获得的RGB图像满足指定条件的情况下,在操作707中,处理器120可以执行虹膜识别和设定功能处理。在操作709中,处理器120可以确定是否发生与虹膜识别相关联的功能结束事件。如果未发生与虹膜识别相关联的功能结束事件,则处理器120可以根据先前状态返回到操作705或操作707,并且可以再次执行随后的操作。如果发生与虹膜识别相关联的功能结束事件,则处理器120可以返回到指定功能或者可以返回到指定状态(例如,睡眠状态等)。
根据本公开的各种实施例,一种用于操作虹膜识别功能的方法可以包括:接收对执行虹膜识别功能的请求;基于第一摄像器件获得对象的第一图像;在显示器中输出关于所获得的第一图像的特征点的信息;并且如果特征点的信息满足指定条件,基于与第一摄像器件不同的第二摄像器件获得与对象相关联的第二图像,其中关于特征点的信息的显示位置根据对象与第一摄像器件之间的拍摄角度而改变。
根据一个实施例,获得第二图像可以包括:确定对象是否是第一图像中的人类面部,如果对象是人类面部,则提取人类面部的特征点或者提取包括在人类面部中的眼睛区域的特征点,并且确定与所提取的人类面部的特征点或者所提取的眼睛区域的特征点相关联的信息是否满足指定条件。
根据一个实施例,获得第二图像可以包括确定特征点是否邻近显示器的指定位置,或者特征点的至少一部分是否与指定位置重叠。
根据一个实施例,获得第二图像可以包括:在显示器上输出对应于特征点的指示符对象和指示符对象所需要定位到的目标位置对象中的至少一者。
根据一个实施例,获得第二图像可以包括:如果指示符对象的至少一部分与目标位置对象重叠,则基于第二摄像器件获得第二图像。
根据一个实施例,所述方法还可以包括:在获得对应于执行虹膜识别功能的请求的第一图像之前激活第一摄像器件和第二摄像器件。
根据一个实施例,获得第二图像可以包括:如果满足指定条件,则激活光发射单元,光发射单元配置为发射与第二摄像器件的图像拍摄相关联的频带的光。
根据一个实施例,所述方法还可以包括:在第一摄像器件被激活期间将包括在第二摄像器件中的第二摄像机和与第二摄像机相关联的光发射单元去激活,其中获得第二图像可以包括:如果满足指定条件,激活光发射单元和第二摄像机。
根据一个实施例,在显示器中输出关于所获得的第一图像的特征点的信息可以包括:检测对象的眼睛区域,并且将对应于眼睛区域的特征点映射并输出到存储在存储器中的图像的眼睛区域信息。
根据一个实施例,在显示器中输出关于所获得的第一图像的特征点的信息可以包括:响应于与眼睛区域对应的特征点的显示尺寸或显示位置的改变来调整图像的显示尺寸、显示位置和显示方向中的至少一者。
图8是用于描述根据本公开的实施例的基于与虹膜识别功能相关联的RGB摄像器件的屏幕界面输出方法的视图。
参考图8,在电子设备100的RGB摄像器件140获得RGB预览图像的情况下,电子设备100的处理器120可以输出对应于屏幕801中所示的RGB预览图像的RGB UI屏幕870。此时,RGB UI屏幕870可以在显示器160的整个区域中显示对应于RGB预览图像的屏幕。RGB UI屏幕870可以被定义为第一坐标系(X、Y)。电子设备100的处理器120可以从RGB预览图像中检测面部区域820或眼睛区域830(或虹膜区域)。根据一个实施例,如果检测到眼睛区域830,则电子设备100的处理器120可以提取与对应的眼睛区域830相关联的RGB UI屏幕870的坐标(X`、Y`)。如图8所示,在RGB UI屏幕870的基础上,虹膜识别区域810(例如,用户的眼睛区域830所需要定位到的区域)可以对应于指定的目标点区域(例如,Z、W)。
如屏幕803所示,电子设备100可以将上述RGB UI屏幕870改变并输出到与虹膜识别相关联的变换UI 880。在生成变换UI 880的过程中,在将X轴和Y轴改变为特定函数比(例如,G(x)、F(y))之后,电子设备100的处理器120可以将特定的函数比输出到显示器160的第一区域808。当屏幕801的预览图像改变为屏幕803的变换UI 880时,眼睛区域830可以改变为眼睛变换区域831。例如,眼睛变换区域831的坐标可以对应于(G(x`)、F(y`))。可以根据设计者的意图改变上述坐标变换函数(G(x)、F(y))。如图8所示,取决于变换UI 880的输出,先前的虹膜识别区域810可以由虹膜识别变换区域811代替。一个实施例在图8中示出为虹膜识别变换区域811根据比率变化位于显示器160上的虹膜识别区域810上方。
根据各种实施例,电子设备100的处理器120可以将与虹膜识别功能的执行相关联的应用的屏幕输出到显示器160的第二区域809。一个实施例在图8中示出为根据对于执行虹膜识别功能以解锁锁定屏幕的请求而在第二区域809中显示锁定屏幕的至少一部分。在第二区域809中显示的锁定屏幕可以包括以特定比率调整显示显示器160的整个屏幕的形状的形式。
电子设备100的处理器120可以根据用户设置提供如屏幕801中所示的RGB UI屏幕870,或者可以输出如屏幕803中所示的变换UI 880。根据各种实施例,在通过使用RGB摄像器件140检测到用户面部并且眼睛区域830位于距虹膜识别区域810的指定距离内的状态下激活IR摄像机151的情况下,可以如屏幕803中所示地输出变换UI 880。
关于上述操作的执行,电子设备100的处理器120可以使虹膜识别区域810(例如,IR摄像机识别角度)与RGB摄像器件140的区域对齐,并且可以计算基于RGB摄像器件140的面部特征点的动态坐标。通过在最终变换UI 880上使用相比于虹膜识别区域810的虹膜识别变换区域811的变换函数F和G,处理器120可以将通过使用RGB摄像器件140识别的眼睛区域或面部特征点的坐标改变为平面相对坐标(例如,与虹膜识别相关联的减小区域(例如,对应于第一区域808的坐标))。处理器120可以基于改变的状态坐标显示变换UI 880。可替代地,如上所述,处理器120可以将基于RGB摄像器件140获得的预览图像输出到整个屏幕,并且可以在基于IR摄像机151的识别角度获得的预览图像中显示眼睛区域和面部区域。在这种情况下,处理器120可以基于显示器160的整个区域输出与用户的眼睛区域或面部的特征点匹配的目标位置对象。处理器120可以基于RGB摄像器件140的拍摄角度的变化(例如,电子设备100旋转或移动从而改变电子设备100的RGB摄像器件140的拍摄方向的变化)来改变眼睛区域或面部的特征点或者对应于眼睛区域或面部的特征点的指示符的显示位置。如果目标位置对象与指示符一致(或者匹配率不小于指定值),则处理器120可以基于IR光发射单元152和IR摄像机151来执行虹膜识别。
图9是示出了根据本公开的实施例的UI变换的示例的视图。
参考图9,电子设备100的处理器120可以响应于对执行虹膜识别功能的请求来激活RGB摄像器件140,并且随后可以获得RGB预览图像。在从RGB预览图像提取眼部区域或面部的特征点的同时,处理器120可以通过过滤或边界提取等来获取所获得的预览图像的轮廓信息。通过以上描述,如屏幕901所示,处理器120可以显示轮廓图像910和指定特征点信息911。指定特征点信息911可以包括来自从RGB预览图像获得的多个特征点中的对应于眼睛区域的特征点。指定特征点信息911可以显示成与其他特征点不同或者可以被分组。
在指定时间期间在显示器160中显示轮廓图像910和指定特征点信息911的同时,电子设备100的处理器120可以输出存储在存储器130中的指定图像920,而不是轮廓图像910。例如,指定图像920可以包括根据用户设置被设置成用于虹膜识别功能的图像。例如,指定图像920可以是诸如名人等的特定人物照片(例如,如屏幕903中所示)。可替代地,指定图像920可以是来自存储在图库中的各种人物的照片中的用户指定的特定人物的照片、图片等。可替代地,指定图像920可以是RGB摄像器件140当前拍摄的并且与用户相关联的照片或者当前照片。
在输出指定图像920的同时,处理器120可以将指定特征点信息911映射到指定图像920。在这种操作中,为了将指定特征点信息911映射到指定图像920,处理器120可以改变指定图像920。根据一个实施例,在指定特征点信息911是对应于眼睛区域的信息的情况下,处理器120可以调整指定图像920的显示尺寸和位置中的至少一个,使得指定图像920的眼睛区域与指定特征点信息911一致(或者指定图像920的眼睛区域在指定容差范围内与指定特征点信息911一致)。例如,处理器120可以调整指定图像920的眼睛区域的大小、眼睛区域的间隔等,以与指定特征点信息911一致。
图10是示出了根据本公开的实施例的UI变换的另一示例的视图。
参考图10,如图9中所述,电子设备100的处理器120可以响应于对执行虹膜识别功能的请求激活RGB摄像器件140,并且随后可以获得RGB预览图像。在从RGB预览图像提取眼部区域或面部的特征点的同时,处理器120可以通过过滤或边界提取等来获取所获得的预览图像的轮廓信息。通过以上描述,如屏幕1001所示,处理器120可以显示轮廓图像1010和指定特征点信息1011。
在指定时间期间在显示器160中显示轮廓图像1010和指定特征点信息1011的同时,电子设备100的处理器120可以输出存储在存储器130中的人物图像1020,而不是轮廓图像1010。例如,人物图像1020可以包括根据用户设置而设定为用于虹膜识别功能的图像。人物图像1020可以是从服务器等接收的图像,或者是从另一外部电子设备接收的图像。可替代地,人物图像1020可以包括用户创建的图像。
在输出人物图像1020的同时,处理器120可以调整人物图像1020的尺寸、显示方向和位置中的至少一者以映射指定特征点信息1011。例如,处理器120可以调整人物图像1020的显示尺寸、显示方向、显示位置中的至少一个,使得人物图像1020的对应于指定特征点信息1011的特定区域(例如,在指定特征点信息1011为眼睛区域的情况下,人物图像1020的眼睛区域)的尺寸、显示方向或形状与指定特征点信息1011一致(或者人物图像1020的特定区域的尺寸、显示方向或形状在指定公差范围内与指定特征点信息1011一致)。另外,在输出人物图像1020的同时,处理器120可以在显示器160中输出指定特征点信息1011所需要定位到的目标位置对象。
一个实施例在图9和图10中例示为:在首先输出轮廓图像910和1010以及多个指定特征点信息911和1011之后,输出指定图像920或人物图像1020。然而,本公开的实施例可以不限于此。例如,如果从RGB摄像器件140获得的预览图像中提取到指定特征点信息,则处理器120可以输出适用于指定特征点信息的指定图像920或人物图像1020,而不输出轮廓图像1010。
另外,如果在输出指定图像920或人物图像1020的同时改变电子设备100的RGB摄像器件140的拍摄方向或距离,则处理器120可以改变指定图像920或人物图像1020的显示尺寸或显示方向。在这种操作中,处理器120可以基于通过RGB摄像器件140获得的预览图像实时地或在特定时间段分析图像,以维持对面部特征点或眼睛区域的提取。
图11是示出了根据本公开的实施例的UI匹配的示例的视图。
参考图11,如果被请求执行虹膜识别功能,则电子设备100的处理器120可以激活RGB摄像器件以获得RGB预览图像,并且可以在显示器160中输出对应于如屏幕1101所示的、所获得的RGB预览图像的RGB UI屏幕1160。可替代地,如图9或图10中所描述的,处理器120可以输出用户或系统指定的图像或人物图像。处理器120可以从预览图像提取特征点,并且可以基于指定区域(例如,眼睛区域)的特征点输出指示符1120。另外,处理器120可以输出指示符1120所需要映射到的目标位置对象1130。例如,目标位置对象1130可以显示在IR摄像机识别角度区域1110中。IR摄像机识别角度区域1110可以是用户的眼睛区域需要定位在其中的区域。用户可以改变RGB摄像器件的拍摄方向,或者可以改变用户面部位置或方向,使得用户的眼睛区域设置在IR摄像机识别角度区域1110中。IR摄像机识别角度区域1110可以包括由RGB摄像器件获得的预览图像中的、用于虹膜识别的IR摄像机151的拍摄角度所映射到的区域。如果RGB摄像器件的拍摄角度改变(例如,RGB摄像器件的拍摄角度根据旋转或移动电子设备100而改变),则处理器120可以响应于角度变化而改变指示符1120的显示位置。
根据各种实施例,通过使用基于RGB摄像器件获得的预览图像,电子设备100的处理器120可以在屏幕1101中所示的特定区域(例如,IR摄像机识别角度区域1110)中仅输出指示符1120和目标位置对象1130。就此而言,如图8中所描述的,处理器120可以执行将基于RGB摄像器件获得的RGB预览图像改变为与虹膜识别功能的执行相关联的虹膜UI 1170的坐标的过程。例如,虹膜UI 1170可以包括其中显示有坐标变换指示符1121、坐标变换目标位置对象1131等的特征点匹配区域1109、系统信息区域1108以及虹膜识别所需要的应用信息区域1190。系统信息区域1108可以是用于输出与在执行虹膜识别功能之前电子设备100所获得的信息或者指定警报的信息相关联的通知、基于消息接收的通知等的区域。例如,应用信息区域1190可以包括锁定屏幕或正在处理的金融支付的信息、关于设定了安全性的功能的指引信息等。
根据各种实施例,如屏幕1101所示,在输出基于RGB摄像器件的指定图像1106、基于指定特征点信息1140的指示符1120、目标位置对象1130等之后,处理器120可以根据指定事件的发生而在显示器160中输出屏幕1103。例如,当在输出屏幕1101之后经过指定时间时,处理器120可以在显示器160中输出屏幕1103。可替代地,在输出屏幕1101之后,在所获得的指定特征点信息1140超过特定尺寸或者位于距目标位置对象1130的特定距离内的情况下,处理器120可以输出屏幕1103。可替代地,即使通过响应于对执行虹膜识别功能的请求而激活RGB摄像器件来获得RGB预览图像,处理器120也可以立即在显示器160中输出屏幕1103而不输出屏幕1101。
如屏幕1105所示,响应于电子设备100的位置或方向的改变或者用户面部位置或方向的改变,在指示符1122至少部分地与目标位置对象1132重叠或者指示符1122位于距目标位置对象1132的指定距离内的情况下,处理器120可以基于IR摄像机151执行虹膜识别。如以上在屏幕1103中所述,屏幕1105可以输出特征点匹配区域1109、系统信息区域1108以及应用信息区域1190,并且可以响应于拍摄角度或对象位置的改变而改变指示符1122的显示位置。
如果虹膜识别成功,则如屏幕1107所示,处理器120可以执行指定功能。例如,如果锁定屏幕被解锁,则处理器120可以在显示器160中输出指定的待机屏幕。根据各种实施例,可以关于财务支付等功能的执行来请求执行虹膜识别功能。如果虹膜识别成功,则处理器120可以在显示器160中根据财务支付的输出结果信息。
图12是示出了根据本公开的实施例的处于网络环境中的电子设备的配置的框图1200。
参考图12,在各种实施例中,电子设备1201可以与第一外部电子设备1202、第二外部电子设备1204或服务器1206通过网络1262或局域通信1264彼此连接。电子设备1201可以包括总线1210、处理器1220、存储器1230、输入和输出接口1250、显示器1260以及通信接口1270。在各种实施例中,可以从电子设备1201中省略至少一个部件,或者可以在电子设备1201中另外包括其他部件。根据各种实施例,电子设备1201可以从与网络1262连接的外部设备(例如,外部电子设备1202、1204,服务器1206)接收与转换UI相关联的图像。另外,电子设备1201可以根据虹膜识别的成功来执行对指定服务器或指定的另一电子设备的访问。
总线1210可以是例如将部件1220至1270彼此连接并且在部件之间发送通信信号(例如,控制消息和/或数据)的电路。
处理器1220可以包括中央处理单元(CPU)、应用处理器(AP)或通信处理器(CP)中的一个或多个。例如,处理器1220可以执行关于电子设备1201的至少另一个部件的控制和/或通信的计算或数据处理。
存储器1230可以包含易失性和/或非易失性存储器。存储器1230可以存储例如与电子设备1201的至少另一个部件相关联的命令或数据。根据一个实施例,存储器1230可以存储软件和/或程序1240。程序1240可以包括例如内核1241、中间件1243、应用程序接口(API)1245和/或至少一个应用程序1247(或“至少一个应用”)等。内核1241、中间件1243或API 1245中的至少一部分可以是指操作系统(OS)。
内核1241可以控制或管理例如用于执行在其他程序(例如,中间件1243、API 1245或应用程序1247)中实现的操作或功能的系统资源(例如,总线1210、处理器1220或存储器1230等)。此外,当中间件1243、API 1245或应用程序1247访问电子设备1201的单独部件时,内核1241可以提供可控制或管理系统资源的接口。
中间件1243可以起到例如中间者的作用,使得API 1245或应用程序1247与内核1241通信以传送数据。
此外,中间件1243可以按优先级顺序处理从应用程序1247接收的一个或多个工作请求。例如,中间件1243可以将能够使用电子设备1201的系统资源(总线1210、处理器1220或存储器1230等)的优先级分配给至少一个应用程序1247中的至少一者。例如,中间件1243可以通过按照分配给至少一个应用程序1247中的至少一个的优先级的顺序处理一个或多个工作请求,为一个或多个工作请求执行调度或负载平衡。
API 1245可以是例如应用程序1247控制从内核1241或中间件1243提供的功能的接口。例如,API 1245可以包括用于文件控制、窗口控制、图像处理或文本控制等的至少一个接口或功能(例如,命令)。
输入和输出接口1250可以起到例如可将从用户或另一外部设备输入的命令或数据发送到电子设备1201的另一部件(或其他部件)的接口的作用。另外,输入和输出接口1250可以将从电子设备1201的另一部件(或其他部件)接收的指令或数据输出到用户或其他外部设备。
显示器1260可以包括例如液晶显示器(LCD)、发光二极管(LED)显示器、有机LED(OLED)显示器、微机电系统(MEMS)显示器或电子纸显示器。显示器1260可以向用户显示例如各种内容(例如,文本、图像、视频、图标或符号等)。显示器1260可以包括触摸屏,并且可以使用电子笔或用户身体的部分来接收例如触摸、手势、接近或悬停输入。
通信接口1270可以例如在电子设备1201与外部设备(例如,第一外部电子设备1202、第二外部电子设备1204或服务器1206)之间建立通信。例如,通信接口1270可以通过无线或有线通信而连接到网络1262,并且可以与外部设备(例如,第二外部电子设备1204或服务器1206)通信。
无线通信可以使用例如长期演进(LTE)、LTE高级(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)或者全球移动通信系统(GSM)等中的至少一种作为蜂窝通信协议。另外,无线通信可以包括例如局域通信1264。局域通信1264可以包括例如Wi-Fi通信、蓝牙(BT)通信、近场通信(NFC)或者全球导航卫星系统(GNSS)通信等中的至少一种。
磁安全传输(MST)模块可以使用电磁信号基于传输数据生成脉冲,并且可以基于脉冲生成磁场信号。电子设备1201可以将磁场信号输出到销售点(POS)系统。POS系统可以通过使用MST读取器检测磁场信号并且将检测到的磁场信号转换为电信号来恢复数据。
GNSS可以根据可用区域或带宽等包括例如全球定位系统(GPS)、全球导航卫星系统(Glonass)、北斗导航卫星系统(以下称为“Beidou”)或Galileo(即,基于欧洲全球卫星导航系统)中的至少一者。在下文中,本文使用的“GPS”可以与“GNSS”互换。有线通信可以包括例如通用串行总线(USB)通信、高清晰度多媒体接口(HDMI)通信、推荐标准232(RS-232)通信或者普通老式电话服务(POTS)通信等中的至少一者。网络1262可以包括电信网络,例如计算机网络(例如,局域网(LAN)或广域网(WAN))、互联网或电话网络中的至少一种。
第一外部电子设备1202和第二外部电子设备1204中的每个可以是与电子设备1201相同或不同的设备。根据一个实施例,服务器1206可以包括一个或多个服务器的群组。根据各种实施例,在电子设备1201中执行的所有或一些操作可以在另一电子设备或多个电子设备(例如,第一外部电子设备1202、第二外部电子设备1204或服务器1206)中执行。根据一个实施例,如果电子设备1201应当自动地或根据请求执行任何功能或服务,则它可以请求另一设备(例如,第一外部电子设备1202、第二外部电子设备1204或服务器1206)执行至少部分功能或服务,而不是自身执行或者除了自身执行以外附加地执行功能或服务。另一电子设备(例如,第一外部电子设备1202、第二外部电子设备1204或服务器1206)可以执行所请求的功能或添加的功能,并且可以将执行的结果发送到电子设备1201。电子设备1201可以在不改变的情况下处理接收的结果或者另外地处理接收的结果,并且可以提供所请求的功能或服务。为此,例如,可使用云计算技术、分布式计算技术或客户端服务器计算技术。
图13是示出了根据本公开的各种实施例的电子设备的配置的框图。
参考图13,电子设备1301可以包括例如图12中所示的电子设备1201的全部或一部分。电子设备1301可以包括一个或多个处理器1310(例如,应用处理器(AP))、通信模块1320、用户识别模块(SIM)1329、存储器1330、安全模块1336、传感器模块1340、输入设备1350、显示器1360、接口1370、音频模块1380、摄像机模块1391、功率管理模块1395、电池1396、指示器1397和马达1398。
处理器1310可以驱动例如OS或应用程序以控制连接到其的多个硬件或软件部件,并且可以处理和计算各种数据。处理器1310可以被实现为例如片上系统(SoC)。根据一个实施例,处理器1310可以包括图形处理单元(GPU)(未示出)和/或图像信号处理器(ISP)(未示出)。处理器1310可以包括图13中所示的部件中的至少一些(例如,蜂窝模块1321)。处理器1310可以将从其他部件(例如,非易失性存储器)中的至少一者接收的命令或数据加载到易失性存储器中以处理数据,并且可以将各种数据存储在非易失性存储器中。
通信模块1320可以具有与图12的通信接口1370相同或相似的配置。通信模块1320可以包括例如蜂窝模块1321、Wi-Fi模块1323、蓝牙(BT)模块1325、全球定位系统(GPS)模块1327(例如,全球导航卫星系统(GNSS)模块、Glonass模块、Beidou模块或Galileo模块)、近场通信(NFC)模块1328、MST模块1326以及射频(RF)模块1329。
蜂窝模块1321可以通过通信网络提供例如语音呼叫服务、视频呼叫服务、文本消息服务或互联网服务等。根据一个实施例,蜂窝模块1321可以使用SIM 1324(例如,SIM卡)识别和认证通信网络中的电子设备1301。根据一个实施例,蜂窝模块1321可以执行可以由处理器1310提供的功能的至少一部分。根据一个实施例,蜂窝模块1321可以包括通信处理器(CP)。
Wi-Fi模块1323、BT模块1325、GPS模块1327、NFC模块1328或MST模块1326可以包括例如至少一个处理器,以用于处理通过对应模块发送和接收的数据。根据各种实施例,蜂窝模块1321、Wi-Fi模块1323、BT模块1325、GPS模块1327、NFC模块1328或MST模块1326中的至少一些(例如,两个或更多个)可以包括在一个集成芯片(IC)或一个IC封装中。
RF模块1329可以发送和接收例如通信信号(例如,RF信号)。尽管未示出,但是RF模块1329可以包括例如收发器、功率放大器模块(PAM)、频率滤波器、低噪声放大器(LNA)、或者天线等。根据另一个实施例,蜂窝模块1321、Wi-Fi模块1323、BT模块1325、GPS模块1327、NFC模块1328和MST模块1326中的至少一个可以通过单独的RF模块来发射和接收RF信号。
SIM 1324可以包括例如包括SIM和/或嵌入式SIM的卡。SIM 1324可以包括唯一的标识信息(例如,集成电路卡标识符(ICCID))或者用户信息(例如,国际移动用户身份(IMSI))。
存储器1330(例如,图12的存储器1230)可以包括例如嵌入式存储器1332或外部存储器1334。嵌入式存储器1332可以包括例如以下各项中的至少一项:易失性存储器(例如,动态随机存取存储器(DRAM)、静态RAM(SRAM)、同步动态RAM(SDRAM)等)、或者非易失性存储器(例如,一次可编程只读存储器(OTPROM)、可编程ROM(PROM)、可擦除和可编程ROM(EPROM)、电可擦除和可编程ROM(EEPROM)、掩模ROM、闪存ROM、闪存存储器(例如,NAND闪存存储器或者NOR闪存存储器等)、硬盘驱动器或者固态驱动器(SSD))。
外部存储器1334可以包括闪存驱动器,例如紧凑型闪存(CF)、安全数字卡(SD)、微型SD、迷你SD、极限数字卡(xD)、多媒体卡(MMC)、或者记忆棒等。外部存储器1334可以通过各种接口可操作地和/或物理地与电子设备1301连接。
安全模块1336可以是具有比存储器1330相对更高的安全级别的模块,并且可以是存储安全数据并保证受保护的执行环境的电路。安全模块1336可以用单独的电路实现,并且可以包括单独的处理器。安全模块1336可以包括例如嵌入式安全元件(eSE),其存在于可移动智能芯片或可移动SD卡中或者嵌入在电子设备1301的固定芯片中。此外,安全模块1336可以由与电子设备1301的OS不同的OS驱动。例如,安全模块1336可以基于Java卡开放平台(JCOP)OS进行操作。
传感器模块1340可以测量例如物理量或者可以检测电子设备1301的操作状态,并且可以将测量或检测到的信息转换成电信号。传感器模块1340可以包括例如以下各项中的至少一项:手势传感器1340A、陀螺仪传感器1340B、气压传感器1340C、磁性传感器1340D、加速度传感器1340E、握力传感器1340F、近距离传感器1340G、颜色传感器1340H(例如,红色、绿色、蓝色(RGB)传感器)、生物传感器1340I、温度/湿度传感器1340J、照度传感器1340K、或者紫外线(UV)传感器1340M。此外或可替代地,传感器模块1340还可以包括例如电子鼻传感器(未示出)、肌电图(EMG)传感器(未示出)、脑电图(EEG)传感器(未示出)、心电图(ECG)传感器(未示出)、红外线(IR)传感器(未示出)、虹膜传感器(未示出)和/或指纹传感器(未示出)等。传感器模块1340还可以包括用于控制包括在其中的至少一个或多个传感器的控制电路。根据各种实施例,电子设备1301还可以包括作为处理器1310的一部分或者独立于处理器1310的、配置为控制传感器模块1340的处理器。当处理器1310处于睡眠状态时,电子设备1301可以控制传感器模块1340。
输入设备1350可以包括例如触摸面板1352、(数字)笔传感器1354、键1356或超声输入设备1358。触摸面板1352可以使用例如电容型、电阻型、红外型和超声波型中的至少一种。另外,触摸面板1352还可以包括控制电路。触摸面板1352还可以包括触觉层,并且可以向用户提供触觉反应。
(数字)笔传感器1354可以例如是触摸面板1352的一部分或者可以包括单独的识别片。键1356可以包括例如物理按钮、光学键或小键盘。超声输入设备1358可以允许电子设备1301使用麦克风(例如,麦克风1388)来检测声波,并且通过产生超声信号的输入工具来验证数据。
显示器1360(例如,图12的显示器1260)可以包括面板1362、全息图设备1364或投影仪1366。面板1362可以包括与显示器1360或1260相同或相似的配置。面板1362可以被实现为例如是柔性的、透明的或可穿戴的。面板1362和触摸面板1352可以集成到一个模块中。全息图设备1364可以使用光的干涉在空间中显示立体图像。投影仪1366可以将光投射到屏幕上以显示图像。屏幕可以例如定位在电子设备1301的内部或外部。根据一个实施例,显示器1360还可包括用于控制面板1362、全息图设备1364或投影仪1366的控制电路。
接口1370可以包括例如高分辨率多媒体接口(HDMI)1372、通用串行总线(USB)1374、光学接口1376或者D-微型1378。接口1370可以包括在例如图2和图12所示的通信接口170或1270中。此外或可替代地,接口1370可以包括例如移动高清链接(MHL)接口、SD卡/多媒体卡(MMC)接口或红外数据关联(IrDA)标准接口。
音频模块1380可以双向转换声音和电信号。音频模块1380的至少部分部件可以包括在例如图12中所示的输入和输出接口1250(或用户接口)中。音频模块1380可以处理通过例如扬声器1382、接收器1384、耳机1386、麦克风1388等输入或输出的声音信息。
摄像机模块1391可以是拍摄静态图像和活动图像的设备。根据一个实施例,摄像机模块1391可以包括一个或多个图像传感器(未示出)(例如,前置传感器或后置传感器)、镜头(未示出)、图像信号处理器(ISP)(未示出)或者闪光灯(未示出)(例如,LED或氙灯)。
电源管理模块1395可以管理例如电子设备1301的电源。根据一个实施例,尽管未示出,但是功率管理模块1395可以包括功率管理集成电路(PMIC)、充电器IC或者电池或油表。PMIC可以具有有线充电和/或无线充电方法。无线充电方法可以包括例如磁共振方法、磁感应方法或者电磁方法等。还可以提供用于无线充电的附加电路,例如线圈回路、谐振电路或者整流器等。电池量表可以测量例如电池1396的剩余容量以及在电池1396充电时的其电压、电流或温度。电池1396可以包括例如可充电电池或太阳能电池。
指示器1397可以显示电子设备1301或其部分(例如,处理器1310)的特定状态,例如启动状态、消息状态、充电状态等。马达1398可以将电信号转换为机械振动,并且可以产生振动或触觉效果等。尽管未示出,但是电子设备1301可以包括用于支持移动电视的处理单元(例如,GPU)。用于支持移动TV的处理单元可以根据例如数字多媒体广播(DMB)标准、数字视频广播(DVB)标准或者mediaFloTM标准等标准来处理媒体数据。
根据本公开的各种实施例的电子设备的上述元件中的每一个可以被配置有一个或多个部件,并且对应元件的名称可以根据电子设备的类型而变化。根据本公开各种实施例的电子设备可以包括上述元件中的至少一个,可以从电子设备中省略一些元件,或者可以在电子设备中进一步包括其他附加元件。此外,根据本公开的各种实施例的电子设备的一些元件可以彼此组合以形成一个实体,从而使得可以以与组合之前相同的方式来执行对应元件的功能。
本文使用的术语“模块”可以表示例如包括硬件、软件和固件之一或者其两种或更多种组合的单元。术语“模块”可以与例如术语“单元”、“逻辑”、“逻辑块”、“部件”或“电路”等互换使用。“模块”可以是集成部件或其部分的最小单位。“模块”可以是执行一个或多个功能或其部分的最小单位。“模块”可以机械地或电子地实现。例如,“模块”可以包括专用集成电路(ASIC)芯片、现场可以编程门阵列(FPGA)和可编程逻辑器件中的至少一个,其为众所周知的或者将在未来开发用于执行某些操作。
根据本公开的各种实施例,设备的至少一部分(例如,模块或功能)或方法(例如,操作)可以利用例如存储在具有程序模块的计算机可读存储介质中的指令来实现。当指令由处理器执行时,一个或多个处理器可以执行对应于指令的功能。例如,计算机可读存储媒体可以是存储器。
计算机可读记录介质可以包括硬盘、软盘、磁介质(例如磁带)、光介质(例如,光盘只读存储器(CD-ROM)和数字通用盘(DVD))、磁光介质(例如,光磁软盘)、硬件设备(例如,ROM、随机存取存储器(RAM)、或闪速存储器等)等。另外,程序指令不仅可以包括由编译器编译的机械代码,还可以包括可以由计算机使用解释器等执行的高级语言代码。上述硬件设备可以配置为作为一个或多个软件模块来操作以便执行根据本公开的各种实施例的操作,反之亦然。
根据本公开的各种实施例的模块或程序模块可以包括至少一个或多个上述部件,可以省略一些上述部件,或者可以进一步包括其他附加部件。由模块、程序模块或其他部件执行的操作可以通过连续方法、并行方法、重复方法或启发式方法来执行。另外,一些操作可以以不同顺序执行或者可被省略,并且可添加其他操作。
提供在附图中描述和示出的本公开的实施例作为示例来描述技术内容并且帮助理解但不限制本公开。因此,应解释为,除了在此列出的实施例之外,基于本公开的技术构思导出的所有修改或修改形式都包括在如权利要求中限定的本公开及其等同物中。
本公开的上述实施例可以以硬件、固件来实现或者经由执行可以存储在诸如CDROM、DVD、磁带、RAM、软盘、硬盘或磁光盘的记录介质中的软件或计算机代码或者通过网络下载的最初存储在远程记录介质或非暂时性机器可读介质上并且待存储在本地记录介质上的计算机代码来实现,使得本文描述的方法可以使用通用计算机或专用处理器或者在可编程或专用硬件(诸如ASIC或FPGA)中经由存储在记录介质上的这种软件来呈现。如本领域所理解的,计算机、处理器、微处理器控制器或可编程硬件包括存储器部件,例如RAM、ROM、闪存等,其可以存储或接收软件或计算机代码,所述软件或计算机代码当由计算机访问和执行时,处理器或硬件实现本文描述的处理方法。
控制单元可以包括微处理器或者任何适当类型的处理电路,诸如一个或多个通用处理器(例如,基于高级RISC机器(ARM)的处理器)、数字信号处理器(DSP)、可编程逻辑器件(PLD)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、图形处理单元(GPU)、视频卡控制器等。此外,将认识到,当通用计算机访问用于实现本文所示的处理的代码时,代码的执行将通用计算机转换成专用计算机,以便执行本文所示的处理。附图中提供的任何功能和操作可以用硬件、软件或两者的组合来实现,并且可以在计算机的编程指令内全部或部分地执行。此外,本领域技术人员理解并认识到“处理器”或“微处理器”可以是所要求保护的公开内容中的硬件。
虽然已参考本公开的各种实施例示出并描述本公开,但是本领域技术人员将理解,在不脱离如由以下权利要求及其等效物所限定的本公开的精神和范围的情况下,可以在其中对形式和细节进行各种改变。
Claims (11)
1.一种电子设备,其包括:
第一摄像器件;
第二摄像器件;以及
至少一个处理器,所述至少一个处理器可操作地连接到所述第一摄像器件和所述第二摄像器件,
其中,所述至少一个处理器配置为:
当被请求执行虹膜识别功能时,基于所述第一摄像器件来获得与对象相关联的第一图像,
检测指定特征点信息,所述指定特征点信息包括从所述第一图像获得的多个特征点中的、与所述对象的眼睛区域对应的特征点,
输出所述指定特征点信息以及存储在存储器中的指定图像,所述指定图像是用户或系统指定的图像或人物图像,
调整所述指定图像的显示尺寸、显示位置和显示方向中的至少一者,以将所述指定特征点信息映射到所述指定图像的眼睛区域信息,
在显示器上输出与所述指定特征点信息对应的指示符对象以及所述指示符对象所需要定位到的目标位置对象,以及
当所述指示符对象的至少一部分与所述目标位置对象重叠时,基于所述第二摄像器件来获得与所述对象相关联的第二图像,以及
其中,关于所述特征点的所述信息在所述显示器上的显示位置根据所述对象与所述第一摄像器件之间的拍摄角度而改变。
2.如权利要求1所述的电子设备,其中,所述至少一个处理器进一步配置为:
确定所述对象是否是所述第一图像中的人类面部,
如果所述对象是所述人类面部,则提取所述人类面部的特征点或者提取包括在所述人类面部中的眼睛区域的特征点,以及
确定与所提取的所述人类面部的特征点或者所提取的所述眼睛区域的特征点相关联的信息是否满足指定条件。
3.如权利要求1所述的电子设备,其中,所述至少一个处理器进一步配置为:
确定所述特征点是否邻近所述显示器的指定位置或者所述特征点的至少一部分是否与所述指定位置重叠,
在所述显示器上输出对应于所述特征点的指示符对象和所述指示符对象所需要定位到的目标位置对象中的至少一者,
如果所述指示符对象的至少一部分与所述目标位置对象重叠,则基于所述第二摄像器件获得所述第二图像。
4.如权利要求1所述的电子设备,其中,所述至少一个处理器进一步配置为:
在获得与对于执行所述虹膜识别功能的请求对应的所述第一图像之前,激活所述第一摄像器件和所述第二摄像器件。
5.如权利要求4所述的电子设备,其中,所述至少一个处理器进一步配置为:
如果满足指定条件,则激活光发射单元,所述光发射单元配置为发射与所述第二摄像器件的图像拍摄相关联的频带的光。
6.如权利要求1所述的电子设备,其中,所述至少一个处理器进一步配置为:
当所述第一摄像器件被激活时,将包括在所述第二摄像器件中的第二摄像机和与所述第二摄像机相关联的光发射器去激活,以及
如果满足指定条件,则激活所述光发射器和所述第二摄像机。
7.一种用于操作虹膜识别功能的方法,所述方法包括:
接收对于执行虹膜识别功能的请求;
基于第一摄像器件获得对象的第一图像;
检测指定特征点信息,所述指定特征点信息包括从所述第一图像获得的多个特征点中的、与所述对象的眼睛区域对应的特征点;
输出所述指定特征点信息以及存储在存储器中的指定图像,所述指定图像是用户或系统指定的图像或人物图像;
调整所述指定图像的显示尺寸、显示位置和显示方向中的至少一者,以将所述指定特征点信息映射到所述指定图像的眼睛区域信息;
在显示器上输出与所述指定特征点信息对应的指示符对象以及所述指示符对象所需要定位到的目标位置对象;以及
当所述指示符对象的至少一部分与所述目标位置对象重叠时,基于与所述第一摄像器件不同的第二摄像器件获得与所述对象相关联的第二图像,
其中,关于所述特征点的所述信息在所述显示器上的显示位置根据所述对象与所述第一摄像器件之间的拍摄角度而改变。
8.如权利要求7所述的方法,其中,获得所述第二图像包括:
确定所述对象是否是所述第一图像中的人类面部;
如果所述对象是所述人类面部,则提取所述人类面部的特征点或者提取包括在所述人类面部中的眼睛区域的特征点,以及
确定与所提取的所述人类面部的特征点或者所提取的所述眼睛区域的特征点相关联的信息是否满足指定条件。
9.如权利要求7所述的方法,还包括:
在获得与对于执行所述虹膜识别功能的请求对应的所述第一图像之前,激活所述第一摄像器件和所述第二摄像器件。
10.如权利要求9所述的方法,其中,获得所述第二图像包括:
如果满足指定条件,则激活光发射单元,所述光发射单元配置为发射与所述第二摄像器件的图像拍摄相关联的频带的光。
11.如权利要求7所述的方法,还包括:
当所述第一摄像器件被激活时,将包括在所述第二摄像器件中的第二摄像机和与所述第二摄像机相关联的光发射器去激活,
其中,获得所述第二图像包括:如果满足指定条件,则激活所述光发射器和所述第二摄像机。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160174371A KR20180071589A (ko) | 2016-12-20 | 2016-12-20 | 홍채 인식 기능 운용 방법 및 이를 지원하는 전자 장치 |
KR10-2016-0174371 | 2016-12-20 | ||
PCT/KR2017/012544 WO2018117409A1 (en) | 2016-12-20 | 2017-11-07 | Operating method for function of iris recognition and electronic device supporting the same |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110088764A CN110088764A (zh) | 2019-08-02 |
CN110088764B true CN110088764B (zh) | 2023-07-07 |
Family
ID=62562446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780077513.4A Active CN110088764B (zh) | 2016-12-20 | 2017-11-07 | 用于虹膜识别功能的操作方法及支持该方法的电子设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10579870B2 (zh) |
EP (1) | EP3529748A4 (zh) |
KR (1) | KR20180071589A (zh) |
CN (1) | CN110088764B (zh) |
WO (1) | WO2018117409A1 (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10275648B2 (en) * | 2017-02-08 | 2019-04-30 | Fotonation Limited | Image processing method and system for iris recognition |
WO2020024603A1 (zh) * | 2018-08-01 | 2020-02-06 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
WO2020024576A1 (zh) * | 2018-08-01 | 2020-02-06 | Oppo广东移动通信有限公司 | 摄像头校准方法和装置、电子设备、计算机可读存储介质 |
CN109190509B (zh) * | 2018-08-13 | 2023-04-25 | 创新先进技术有限公司 | 一种身份识别方法、装置和计算机可读存储介质 |
US11015830B2 (en) * | 2018-11-19 | 2021-05-25 | Johnson Controls Technology Company | Device using projector for display |
JP7293039B2 (ja) * | 2019-08-16 | 2023-06-19 | キヤノン株式会社 | 撮像装置およびその制御方法 |
CN113220174A (zh) * | 2020-01-21 | 2021-08-06 | 青岛海尔电冰箱有限公司 | 冰箱显示区域控制方法、冰箱以及存储介质 |
US11468496B2 (en) * | 2020-08-07 | 2022-10-11 | International Business Machines Corporation | Smart contact lenses based shopping |
JP2022171084A (ja) * | 2021-04-30 | 2022-11-11 | キヤノン株式会社 | 撮像装置及びその制御方法、並びにプログラム |
CN114661160A (zh) * | 2022-03-30 | 2022-06-24 | 中国农业银行股份有限公司 | 一种自助设备的控制方法和装置 |
CN118351602A (zh) * | 2024-06-14 | 2024-07-16 | 杭州海康威视数字技术股份有限公司 | 一种虹膜识别设备及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006040151A (ja) * | 2004-07-29 | 2006-02-09 | Toshiba Corp | 顔認証装置、顔認証方法および通行制御装置 |
CN105956538A (zh) * | 2016-04-26 | 2016-09-21 | 乐视控股(北京)有限公司 | 基于rgb摄像头和虹膜摄像头的图像呈现装置和方法 |
CN106022275A (zh) * | 2016-05-26 | 2016-10-12 | 青岛海信移动通信技术股份有限公司 | 虹膜识别方法、装置及移动终端 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5016282A (en) * | 1988-07-14 | 1991-05-14 | Atr Communication Systems Research Laboratories | Eye tracking image pickup apparatus for separating noise from feature portions |
JP4265076B2 (ja) * | 2000-03-31 | 2009-05-20 | 沖電気工業株式会社 | 多画角カメラ、及び自動撮影装置 |
JP2004295572A (ja) * | 2003-03-27 | 2004-10-21 | Matsushita Electric Ind Co Ltd | 認証対象画像撮像装置及びその撮像方法 |
US20040207743A1 (en) | 2003-04-15 | 2004-10-21 | Nikon Corporation | Digital camera system |
KR100682889B1 (ko) * | 2003-08-29 | 2007-02-15 | 삼성전자주식회사 | 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치 |
US8064647B2 (en) * | 2006-03-03 | 2011-11-22 | Honeywell International Inc. | System for iris detection tracking and recognition at a distance |
KR20050025927A (ko) * | 2003-09-08 | 2005-03-14 | 유웅덕 | 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 |
EP1730666A1 (de) * | 2004-03-29 | 2006-12-13 | André Hoffmann | Verfahren und system zur identifikation, verifikation, erkennung und wiedererkennung |
JP2005334402A (ja) * | 2004-05-28 | 2005-12-08 | Sanyo Electric Co Ltd | 認証方法および認証装置 |
US7574021B2 (en) * | 2006-09-18 | 2009-08-11 | Sarnoff Corporation | Iris recognition for a secure facility |
CA2764914C (en) * | 2008-07-09 | 2016-12-13 | Global Rainmakers, Inc. | Biometric data acquisition device |
KR101537948B1 (ko) * | 2008-12-16 | 2015-07-20 | 삼성전자주식회사 | 얼굴 포즈 추정을 이용한 촬영 방법 및 장치 |
WO2010099475A1 (en) * | 2009-02-26 | 2010-09-02 | Kynen Llc | User authentication system and method |
WO2011093538A1 (en) * | 2010-01-27 | 2011-08-04 | Iris Id | Iris scanning apparatus employing wide-angle camera, for identifying subject, and method thereof |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US20130089240A1 (en) * | 2011-10-07 | 2013-04-11 | Aoptix Technologies, Inc. | Handheld iris imager |
CN104094197B (zh) * | 2012-02-06 | 2018-05-11 | 索尼爱立信移动通讯股份有限公司 | 利用投影仪的注视追踪 |
KR101979669B1 (ko) * | 2012-07-13 | 2019-05-17 | 삼성전자주식회사 | 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말 |
KR102305263B1 (ko) | 2013-06-18 | 2021-09-24 | 델타 아이디 아이엔씨. | 홍채 이미지 형성을 위한 다중 모드 이미지 획득 |
US10042994B2 (en) * | 2013-10-08 | 2018-08-07 | Princeton Identity, Inc. | Validation of the right to access an object |
US9532715B2 (en) * | 2014-01-21 | 2017-01-03 | Osterhout Group, Inc. | Eye imaging in head worn computing |
KR102163850B1 (ko) * | 2014-01-29 | 2020-10-12 | 삼성전자 주식회사 | 디스플레이장치 및 그 제어방법 |
KR102206877B1 (ko) * | 2014-02-21 | 2021-01-26 | 삼성전자주식회사 | 생체 정보디스플레이 방법 및 장치 |
US10254831B2 (en) * | 2014-04-08 | 2019-04-09 | Umoove Services Ltd. | System and method for detecting a gaze of a viewer |
KR102215077B1 (ko) * | 2014-08-04 | 2021-02-10 | 삼성전자주식회사 | 홍채인식장치 및 홍채인식방법 |
KR102287751B1 (ko) * | 2014-09-25 | 2021-08-09 | 삼성전자 주식회사 | 전자 장치의 홍채 인식 방법 및 장치 |
FR3026291A1 (fr) * | 2014-09-26 | 2016-04-01 | Morpho | Dispositif destine a etre utilise pour identifier ou authentifier un sujet |
US9767358B2 (en) * | 2014-10-22 | 2017-09-19 | Veridium Ip Limited | Systems and methods for performing iris identification and verification using mobile devices |
US20170061210A1 (en) * | 2015-08-26 | 2017-03-02 | Intel Corporation | Infrared lamp control for use with iris recognition authentication |
JP6613740B2 (ja) * | 2015-09-09 | 2019-12-04 | 富士通コネクテッドテクノロジーズ株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
US10339367B2 (en) * | 2016-03-29 | 2019-07-02 | Microsoft Technology Licensing, Llc | Recognizing a face and providing feedback on the face-recognition process |
-
2016
- 2016-12-20 KR KR1020160174371A patent/KR20180071589A/ko not_active Application Discontinuation
-
2017
- 2017-11-07 EP EP17885329.7A patent/EP3529748A4/en active Pending
- 2017-11-07 WO PCT/KR2017/012544 patent/WO2018117409A1/en unknown
- 2017-11-07 CN CN201780077513.4A patent/CN110088764B/zh active Active
- 2017-11-21 US US15/819,430 patent/US10579870B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006040151A (ja) * | 2004-07-29 | 2006-02-09 | Toshiba Corp | 顔認証装置、顔認証方法および通行制御装置 |
CN105956538A (zh) * | 2016-04-26 | 2016-09-21 | 乐视控股(北京)有限公司 | 基于rgb摄像头和虹膜摄像头的图像呈现装置和方法 |
CN106022275A (zh) * | 2016-05-26 | 2016-10-12 | 青岛海信移动通信技术股份有限公司 | 虹膜识别方法、装置及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
CN110088764A (zh) | 2019-08-02 |
EP3529748A4 (en) | 2019-10-30 |
US20180173949A1 (en) | 2018-06-21 |
EP3529748A1 (en) | 2019-08-28 |
WO2018117409A1 (en) | 2018-06-28 |
KR20180071589A (ko) | 2018-06-28 |
US10579870B2 (en) | 2020-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110088764B (zh) | 用于虹膜识别功能的操作方法及支持该方法的电子设备 | |
CN110024370B (zh) | 电子装置以及在电子装置中显示用于虹膜辨识的图像的方法 | |
US10715761B2 (en) | Method for providing video content and electronic device for supporting the same | |
CN108392182B (zh) | 提供皮肤信息的方法和支持所述方法的电子设备 | |
EP3382600A1 (en) | Method of recognition based on iris recognition and electronic device supporting the same | |
KR102328098B1 (ko) | 전자장치의 초점 검출 장치 및 방법 | |
US20160321494A1 (en) | Fingerprint information processing method and electronic device supporting the same | |
KR102488563B1 (ko) | 차등적 뷰티효과 처리 장치 및 방법 | |
US10319086B2 (en) | Method for processing image and electronic device supporting the same | |
CN110325993B (zh) | 通过使用多个生物特征传感器执行认证的电子设备及其操作方法 | |
KR20160072705A (ko) | 생채 특징 패턴을 업데이트하는 방법 및 이를 위한 전자 장치 | |
EP3367282B1 (en) | Electronic device for authenticating using biometric information and method of operating electronic device | |
US10705645B2 (en) | Method for protecting personal information and electronic device thereof | |
CN108427533B (zh) | 电子设备及用于确定电子设备的环境的方法 | |
US11423168B2 (en) | Electronic apparatus and method of transforming content thereof | |
EP3287924B1 (en) | Electronic device and method for measuring heart rate based on infrared rays sensor using the same | |
KR102437698B1 (ko) | 전자 장치 및 전자 장치의 이미지 인코딩 방법 | |
US10033921B2 (en) | Method for setting focus and electronic device thereof | |
US11132537B2 (en) | Electronic device for determining position of user based on image pixels, and method of controlling said device | |
US10091436B2 (en) | Electronic device for processing image and method for controlling the same | |
KR102457247B1 (ko) | 이미지를 처리하는 전자 장치 및 그 제어 방법 | |
US10691318B2 (en) | Electronic device and method for outputting thumbnail corresponding to user input | |
US10198828B2 (en) | Image processing method and electronic device supporting the same | |
KR20180106221A (ko) | 객체의 구성 정보에 대응하는 그래픽 효과를 제공하기 위한 방법 및 그 전자 장치 | |
US11210828B2 (en) | Method and electronic device for outputting guide |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |