CN110070054A - 用户终端设备及其虹膜识别方法 - Google Patents

用户终端设备及其虹膜识别方法 Download PDF

Info

Publication number
CN110070054A
CN110070054A CN201910336953.8A CN201910336953A CN110070054A CN 110070054 A CN110070054 A CN 110070054A CN 201910336953 A CN201910336953 A CN 201910336953A CN 110070054 A CN110070054 A CN 110070054A
Authority
CN
China
Prior art keywords
iris
user
terminal equipment
subscriber terminal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910336953.8A
Other languages
English (en)
Inventor
孙秉准
刘镇宇
白盛旭
赵显根
郭炳熏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150080137A external-priority patent/KR102438110B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN110070054A publication Critical patent/CN110070054A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

提供了一种用户终端设备及其虹膜识别方法。所述用户终端设备包括:成像单元,被配置为产生用户的图像;显示器,被配置为显示产生的图像;控制器,被配置为:从产生的图像检测用户眼睛,控制显示器在产生的图像中检测到的用户眼睛所位于的位置处显示引导图像,响应于包括在检测到的用户眼睛中的虹膜的尺寸和引导图像的尺寸之间的差在预设范围内,执行虹膜识别。

Description

用户终端设备及其虹膜识别方法
本申请是向中国国家知识产权局提交的申请日为2015年10月15日,申请号为“201510666512.6”,发明名称为“用户终端设备及其虹膜识别方法”的发明专利申请的分案申请。
技术领域
本公开涉及一种用户终端设备及其虹膜识别方法。更具体地说,本公开涉及一种显示用于对用户进行虹膜识别的引导图像的用户终端设备及其虹膜识别方法。
背景技术
由于个人信息和/或内容信息被存储在个人用户终端设备中,因此对安全的要求越来越高。在现有技术中,密码输入方法被用于用户终端设备的安全保护,但是近几年已引入了各种认证方法,诸如指纹识别、语音识别或虹膜识别。
在现有技术的用户终端设备中,用户通过盯着被称为冷光镜的镜式红外(IR)滤波器来尝试虹膜识别。在用户终端设备中可识别的虹膜的位置和尺寸被提出用于在用户终端设备中进行虹膜识别。然而,由于用户无法得知用户终端中可识别的虹膜的位置和尺寸,因此虹膜识别是困难的。例如,难以确定适合于在配备了没有自动聚焦功能的成像单元的用户终端设备中进行虹膜识别的距离。
为了在用户终端设备中进行虹膜识别,需要进行用于注册用户虹膜代码的处理。为了在注册用户虹膜代码时获得高质量的虹膜图像,获取多幅虹膜图像并对多幅虹膜图像进行分析,并且将多幅虹膜图像之中的被确定为高质量图像的一个或更多个虹膜图像存储在虹膜代码数据库中。即使响应于用户虹膜代码被存储在从多幅获取的虹膜图像中选择的虹膜图像中,由于虹膜的一部分被眼睑或睫毛覆盖而难以进行精确的虹膜识别。
上述信息仅作为背景信息而被呈现以帮助理解本公开。至于上述任何信息是否可应用为与本公开相关的现有技术,尚未做出确定也未做出声明。
发明内容
本公开的各方面在于至少解决以上提到的问题和/或缺点,并至少提供下述优点。因此,本公开的一方面在于提供一种能够使用户更方便地精确执行虹膜识别的用户终端设备及其虹膜识别方法。
根据本发明的一方面,提供了一种用户终端设备。所述用户终端设备包括:成像单元,被配置为产生用户的图像;显示器,被配置为显示产生的图像;控制器,被配置为:从产生的图像检测用户眼睛,控制显示器在产生的图像中检测到的用户眼睛所位于的位置处显示引导图像,响应于包括在检测到的用户眼睛中的虹膜的尺寸和引导图像的尺寸之间的差在预设范围内,执行虹膜识别。
根据本发明的另一方面,提供了一种用户终端设备识别用户的虹膜的方法。所述方法包括:产生用户的图像;显示产生的图像;从产生的图像检测用户眼睛;在产生的图像中检测到的用户眼睛所位于的位置处显示引导图像;响应于包括在检测到的用户眼睛中的虹膜的尺寸和引导图像的尺寸之间的差在预设范围内,执行虹膜识别。
根据本发明的另一方面,提供了一种用户终端设备。所述用户终端设备包括:存储单元,被配置为存储根据不同的成像条件获取的多个参考图像,成像单元,被配置为产生用户的图像,显示器,被配置为显示产生的图像,控制器,被配置为从产生的图像检测用户眼睛,通过将所述多个参考图像之中的成像条件与检测到的用户眼睛相应的参考图像与检测到的用户眼睛进行比较来执行虹膜识别。
根据本公开的各种实施例,用户可更方便且更精确地执行虹膜识别。
从下面结合显示了本公开的各种实施例的附图进行的详细描述,本公开的其它方面、优点和显著特征对于本领域的技术人员来说将变得明显。
附图说明
从下面结合附图进行描述中,本公开的特定实施例的上述和其它方面、特征和优点将会变得更明显,其中:
图1是示出根据本公开的实施例的用户终端设备的配置的示意性框图;
图2是示出根据本公开的实施例的用户终端设备的配置的详细框图;
图3A和图3B是示出根据本公开的各种实施例的用于虹膜识别的引导图像的示图;
图4A、图4B和图4C是示出根据本公开的各种实施例的考虑眼睑和睫毛而提取虹膜特征的方法的示图;
图5A、图5B和图5C是示出根据本公开的各种实施例的对成像的图像执行针对安全性的图像处理的处理的示图;
图6A和图6B是示出根据本公开的各种实施例的虹膜被睫毛或眼睑覆盖的示例的示图;
图7是示出根据本公开的实施例的产生虹膜代码的方法的示图;
图8A、图8B、图9A、图9B和图10是示出根据本公开的各种实施例的使虹膜区域归一化的方法的示图;
图11是示出根据本公开的实施例的更新虹膜代码的方法的示图;
图12是示出根据本公开的实施例的用户终端设备的虹膜识别方法的流程图;
图13是示出根据本公开的实施例的存储并更新用户终端设备的虹膜代码的方法的流程图;
图14A、图14B、图14C、图14D、图15A、图15B、图16A、图16B、图17A、图17B和图18是示出根据本公开的各种实施例的通过用户终端设备的虹膜识别进行的屏幕切换示例的示图;
图19A、图19B、图19C、图19D、图20A、图20B、图21和图22是示出根据本公开的各种实施例的通过眼形的固定用户界面(UI)执行虹膜识别的示例的示图;
图23、图24、图25、图26、图27A、图27B、图28A、图28B和图29是示出根据本公开的各种实施例的在用户终端设备中使用根据成像条件的多个参考图像执行虹膜识别的示例的示图。
贯穿附图,相同的标号将被解释为指示相同的部分、组件和结构。
具体实施方式
提供参照附图的以下描述以帮助全部理解由权利要求及其同等物限定的本公开的各种实施例。以下描述包括各种特定细节以帮助理解,但是这些特定细节将被视为仅是示例性的。因此,本领域的普通技术人员将认识到在不脱离本公开的范围和精神的情况下可对这里描述的各种实施例进行各种改变和修改。另外,为了清楚和简洁,可省略对公知功能和结构的描述。
在以下的描述和权利要求中使用术语和词语不限于字面含义,而是仅被发明者用来使得对本公开有清楚和一致的理解。因此,本领域的技术人员应该清楚的是:提供本公开的各种实施例的以下描述仅是为了说明的目的,而非限制由权利要求及其等同物限定的本公开的目的。
将理解,除非上下文清楚地指出另外的情况,否则单数形式包括复数指示物。因此,例如,涉及“组件表面”包括涉及一个或更多个这样的表面。
将理解,虽然这里可使用术语第一、第二等来提及本公开的元件,但是这样的元件应不被理解为受限于这些术语。这些术语仅被用于将一个元件与另一元件区分。
还将理解,当在这里使用术语“包括”和/或“包含”时,术语“包括”和/或“包含”指示存在陈述的特征、整体、操作、元件和/或组件,但不排除存在或添加一个或更多个其它特征、整体、操作、元件、组件和/或它们的组合。
在本公开的各种实施例中,“模块”或“单元”可执行至少一个功能或操作,并可使用硬件、软件或它们的组合来实现。“多个模块”或“多个单元”可使用至少一个处理器(未示出)通过与除了需要使用特定硬件来实现的“模块”或“单元”之外的至少一个模块集成来实现。
在本公开的各种实施例中,假设移动终端设备和固定的移动终端设备(诸如用户设备(UE)、移动站(MS)装置或先进MS(AMS)装置)都被称为用户终端设备。
以下,参照附图更详细地描述本公开的各种实施例。在下面的描述中,除非另有描述,否则相同的标号在不同的附图中被描述时也被用于相同的元件,并将省略对它们的重复描述。
具体地,在该专利文档中,以下讨论的图1至图29以及用于描述本公开的原理的各种实施例仅是说明的方式,而不应以任何方式被解释为限制本公开的范围。本领域的技术人员将理解,可在任何适当布置的通信系统中实现本公开的原理。用于描述各种实施例的术语是示例性的。应理解,提供这些术语仅用于帮助理解本说明书,这些术语的使用和定义不以任何方式限制本公开的范围。术语第一、第二等被用于在具有相同的术语的对象之间进行区分,并且除非明确地声明另外的情况,否则术语第一、第二等不以任何方式被用于表示先后顺序。集合被限定为包括至少一个元件的非空集合。
图1是示出根据本公开的实施例的用户终端设备的配置的示意性框图。
参照图1,示出了用户终端设备100,其中,用户终端设备100可包括成像单元110、显示器120和控制器130。
成像单元110可对用户进行成像。例如,成像单元110可对用户的面部区域进行成像以识别用户的虹膜。
显示器120可根据控制器130的控制来显示图像。例如,显示器120可显示通过成像单元110成像的图像。显示器120可在成像的图像中显示用于虹膜识别的引导图像。
控制器130可控制用户终端设备100的整体操作。例如,控制器130可从通过成像单元110成像的图像中检测用户眼睛,控制显示器120在成像的图像之中检测到的用户眼睛所位于的位置处显示引导图像,并响应于从用户眼睛检测到的虹膜的尺寸与引导图像的尺寸之间的差在预设值内,执行虹膜识别。
例如,控制器130可从检测到的用户眼睛检测虹膜边界,基于检测到的虹膜边界估计虹膜直径,并基于检测到的用户眼睛和虹膜直径控制显示器120在与用户眼睛和虹膜相应的位置处显示引导图像。引导图像可包括与用户眼睛相应的眼睛引导图像和与用户虹膜相应的虹膜引导图像。眼睛引导图像可被显示在与用户眼睛相应的位置处,虹膜引导图像可被显示在与用户虹膜相应的位置处。
在该示例中,引导图像可以是与位于与成像单元110的焦距匹配的位置处的用户眼睛和虹膜的尺寸相应的图像。也就是说,响应于用户位于比成像单元110的焦距更远的位置处,眼睛引导图像和虹膜引导图像可比实际的用户眼睛和虹膜大。响应于用户位于比成像单元110的焦距更近的位置处,眼睛引导图像和虹膜引导图像可比实际的用户眼睛和虹膜小。因此,用户可通过根据引导图像控制与成像单元110的距离来执行虹膜识别。
在另一示例中,控制器130可从成像的图像检测用户虹膜。响应于检测到的用户虹膜的尺寸和与虹膜相应的引导图像的尺寸之间的差小于或等于预设值,即,响应于用户位于可进行虹膜识别的距离内,控制器130可通过确定检测到的用户虹膜是否与预先注册的虹膜一致来对用户虹膜执行虹膜识别。在该示例中,控制器130可从检测到的用户虹膜检测虹膜代码,并通过与预先注册的虹膜代码进行比较来执行用户认证。
在另一示例中,控制器130可从成像的图像检测用户虹膜。响应于检测到的用户虹膜的尺寸和与虹膜相应的引导图像的尺寸之间的差小于或等于预设值,即,响应于用户位于可进行虹膜识别的距离内,控制器130可输出用于引导执行虹膜识别的反馈消息。该反馈消息可包括视觉反馈消息(例如,图像)、听觉反馈消息(例如,音频信号)和触觉反馈消息(例如,振动)。
在另一示例中,为了在虹膜识别期间增强安全性,控制器130可成像的图像进行处理以使得在执行虹膜处理期间无法确认用户虹膜的图案,并控制显示器120显示处理后的图像。
在另一示例中,控制器130可通过使检测到的虹膜区域归一化为矩形形状来产生虹膜代码。控制器130可通过掩盖归一化为矩形形状的虹膜代码中的被睫毛或眼睑覆盖的区域并将虹膜代码中的除了被掩盖的区域之外的剩余区域与预先注册的虹膜代码进行比较,来执行用户的虹膜识别。
在该示例中,响应于检测到的虹膜区域被识别为预先注册的用户,控制器可使用检测到的虹膜区域中的除被掩盖的部分之外的剩余部分来更新预先注册的用户的虹膜代码。
通过上述的用户终端设备100,用户可通过更精确且更方便地执行虹膜识别来执行用户认证。
以下,将参照图2至图7来描述本公开的各种实施例。
图2是示出根据本公开的实施例的用户终端设备的配置的详细框图。
参照图2,示出了用户终端设备200,其中,用户终端设备200可包括通信单元210、成像单元220、图像处理器230、显示器240、存储单元250、输入单元260和控制器270。
通信单元210可被配置为根据各种类型的通信方法与各种类型的外部设备执行通信。通信单元210可包括各种通信芯片,诸如Wi-Fi芯片、蓝牙芯片、近场通信(NFC)芯片、无线通信芯片和红外(IR)芯片。例如,Wi-Fi芯片、蓝牙芯片、NFC芯片和IR芯片可分别按照Wi-Fi方式、蓝牙方式、NFC方式和IR方式来执行通信。在通信芯片中,NFC芯片可以是被配置为使用各种射频识别(RF-ID)频带(诸如135kHz、13.56MHz、433MHz、860至960MHz和2.45GHz)中的13.56MHz频带,按照NFC方式进行操作的芯片。
响应于使用Wi-Fi方式或蓝牙方式,通信单元210可首先发送/接收各种连接信息(诸如服务集标识符(SSID)和会话密钥),使用连接信息执行通信连接,并发送/接收各种信息。无线通信芯片可以是被配置为根据各种通信标准(诸如电气和电子工程师协会(IEEE)、ZigBee、第3代(3G)、3G合作伙伴项目(3GPP)或长期演进(LTE))来执行通信的芯片。
成像单元220可执行成像操作。成像单元220可位于用户终端设备200的正面,并对用户进行成像。成像单元220可包括被称为冷光镜的镜式IR滤波器。
图像处理器230可对由成像单元220成像的图像进行处理。图像处理器230可对通过成像单元220成像的图像执行图像处理以增强安全性。
显示器240可显示从各种源输入的图像和用户界面(UI)。显示器240可显示通过成像单元220成像的图像,并可在成像的图像的与用户眼睛相应的位置处显示用于进行虹膜识别的引导图像。
存储单元250可存储用于驱动用户终端设备200的各种模块。例如,存储单元250可存储包括基本模块、感测模块、通信模块、呈现模块、web浏览器模块和服务模块的软件。
基本模块可指对从包括在用户终端设备200中的硬件发送的信号进行处理并将处理的信号发送到上层模块的基本模块。
感测模块可以是从各种传感器收集信息并对收集到的信息进行分析和管理的模块。感测模块可包括面部识别模块、语音识别模块、动作识别模块、NFC识别模块等。
呈现模块可以是形成显示屏幕的模块。呈现模块可包括再现多媒体内容并输出再现的内容的多媒体模块以及执行UI和图形处理的UI渲染模块。
通信模块可以是被配置为执行与外部设备的通信的模块。Web浏览模块可指执行web浏览并访问web服务器的模块。服务模块可以是包括用于提供各种服务的各种应用的模块。
如上所述,存储单元250可包括各种程序模块,但是根据用户终端设备200的类型和特性,程序模块可被部分省略或变形,或者根据用户终端设备200的类型和特征,其它程序模块可被添加。例如,响应于用平板个人计算机(PC)来实现用户终端设备200,基本模块还可包括被配置为确定基于全球定位系统(GPS)的位置的位置确定模块,感测模块还可包括被配置为检测用户的动作的感测模块。
存储单元250可存储与至少一个用户相应的虹膜代码。虹膜代码可以是用户的虹膜区域可被归一化为矩形形状的数据,并可被用作虹膜结构。响应于虹膜识别成功,可通过控制器270在存储单元250中更新用户的虹膜代码。
输入单元260可接收用于控制用户终端设备200的各种用户命令。可使用触摸屏来实现输入单元260。可使用各种类型的输入装置(例如,遥控器、键盘、鼠标、指向装置等)来实现输入单元260。
控制器270可使用存储在存储单元250中的各种程序来控制用户终端设备200的整体操作。
如图2所示,控制器270可包括随机存取存储器(RAM)271、只读存储器(ROM)272、图形处理器273、主中央处理器(CPU)274、第一接口275-1至第n接口275-n、以及总线276。RAM271、ROM 272、图形处理器273、主CPU 274、第一接口275-1至第n接口275-n等可通过总线276电连接。
用于系统启动的命令集等被存储在ROM 272中。响应于开启命令被输入到电源,主CPU 274可根据存储在ROM 272中的命令将存储在存储单元250中的操作系统(O/S)复制到ROM 271。响应于启动完成,主CPU 274可将存储在存储单元250中的各种应用程序复制到RAM 271,运行被复制到RAM 271的应用程序以执行各种操作。
图形处理器273可被配置为使用操作单元(未示出)和渲染单元(未示出)来产生包括各种对象(诸如图标、图像、文本等)的屏幕。操作单元(未示出)可计算诸如坐标值的属性值,其中,基于从输入单元260输入的控制命令根据屏幕的布局、形状、尺寸和颜色按照所述属性值来显示对象。渲染单元(未示出)可基于操作单元中计算出的属性值来产生具有包括对象的各种布局的屏幕。在渲染单元中产生的屏幕被显示在显示器240的显示区域。
主CPU 274访问存储单元250以使用存储在存储单元250中的O/S来执行启动。主CPU 274使用存储在存储单元250中的各种程序、内容、数据等执行各种操作。
第一接口275-1至第n接口275-n被连接到上述组件。这些接口中的一个接口可以是通过网络连接到外部设备的网络接口。
控制器270可从通过成像单元220成像的图像检测用户眼睛,控制显示器240在成像的图像中用户眼睛所位于的位置处显示引导图像。
例如,控制器270可从通过成像单元220成像的图像检测用户眼睛,并基于检测到的眼睛位置来检测虹膜边界。
在该示例中,控制器270可从检测到的眼睛区域计算眼睛的中心坐标(x,y)。例如,控制器270可计算被估计为眼睛区域的区域的中心坐标,作为眼睛的中心坐标。在另一示例中,控制器270可计算在眼睛区域的瞳孔区域中形成的照明反射光(即,闪光),作为眼睛的中心坐标。
控制器270可通过基于眼睛中心点分析像素值的改变度来检测虹膜边界。可使用相邻像素之间的亮度差来简单地分析像素值的改变度,或者可使用一阶差分值或二阶差分值来分析像素值的改变度。
作为检测虹膜边界的示例,控制器270可基于眼睛中心坐标执行在被预先确定为检测虹膜边界的特定方向上的搜索。控制器270可在搜索处理中使用估计与通过分析像素值的改变度获得的特征点接近的圆的方法。在通过分析像素值的改变度确定特征点的方法中,像素值的改变度突然增大或减小的部分可被确定为特征点的位置。作为另一检测虹膜边界的示例,控制器270可通过以下方法来检测虹膜中心和虹膜边界:基于眼睛中心坐标搜索在改变圆的中心点和尺寸的时圆的内侧和外侧的像素值的改变度为最大的圆。即使响应于使用椭圆而不是使用圆,控制器270也可通过使用以下方法来检测虹膜中心和虹膜边界:基于眼睛中心坐标搜索在改变椭圆的中心点、长轴和短轴的时椭圆的内侧和外侧像素值的改变度为最大的椭圆。
控制器270可基于检测到的虹膜边界来估计虹膜直径。
控制器270可基于识别出的用户眼睛和虹膜直径来控制显示器240在与用户眼睛和虹膜相应的位置处显示引导图像。引导图像可以是与位于与成像单元220的焦距匹配的位置处的用户眼睛和虹膜的尺寸相应的图像。引导图像可包括与用户眼睛相应的眼睛引导图像和与用户虹膜相应的虹膜引导图像等。响应于用户位于与成像单元220的焦距匹配的位置处,眼睛引导图像和虹膜引导图像可具有用户眼睛和虹膜的统计尺寸。
图3A和图3B是示出根据本公开的各种实施例的用于虹膜识别的引导图像的示图。
参照图3A,示出了眼睛引导图像310、虹膜引导图像320和虹膜线330,其中,如图2所示的控制器270可控制如图2所示的显示器240在检测到的用户眼睛周围显示眼睛引导图像310,并控制显示器240在用户虹膜周围显示虹膜引导图像320。控制器270可控制显示器240将实际检测到的用户的虹膜线330与引导图像310和320一起显示,以确认用户进行眼睛接触的位置和距离。
在该示例中,用户可确认虹膜线330比虹膜引导图像320更小。因此,用户可基于引导图像310和320以及虹膜线330确认用户位于距离用户终端设备200较远处,并将用户终端设备200向靠近用户终端设备200的方向移动。
参照图3B,示出了眼睛引导图像310、虹膜引导图像320和虹膜线330,其中,控制器270可控制显示器240在检测到的用户眼睛周围显示眼睛引导图像310,并控制显示器240在用户虹膜周围显示虹膜引导图像320。控制器270可控制显示器240将实际检测到的用户的虹膜线330与引导图像310和320一起显示,以确认用户进行眼睛接触的位置和距离。
在该示例中,用户可确认虹膜线330比虹膜引导图像320更大。因此,用户可基于引导图像310和320以及虹膜线330确认用户位于距离如图2所示的用户终端设备200较近处,并将用户终端设备200向远离用户终端设备200的方向移动。
然而,即使响应于虹膜区域被检测,也会因此眼睑或睫毛而无法精确地执行虹膜识别。
图4A、图4B和图4C是示出根据本公开的各种实施例的考虑眼睑和睫毛而提取虹膜特征的方法的示图。
参照图4A示出的流程图,其中,流程图描述了根据本公开的考虑睫毛和眼睑而提取虹膜特征的方法。
参照图4A,在操作S410,如图2所示的控制器270可从检测到的图像检测虹膜区域。在操作S420,控制器270可从检测到的图像检测眼睑。在操作S430,控制器270可确定眼睑在虹膜区域中所占据的眼睑比率是否大于或等于第一值(例如,5%)。响应于在操作S430眼睑比率小于第一值,在操作S440,控制器270可从检测到的图像检测睫毛。在操作S450,控制器270可确定睫毛在虹膜区域中所占据的睫毛比率是否大于或等于第二值。响应于在操作S450的否,睫毛比率小于第二值,在操作S470,控制器270可检测用于虹膜识别的虹膜特征。也就是说,控制器270可仅响应于眼睑比率和睫毛比率都小于或等于预设值来执行虹膜识别。
响应于在操作S430眼睑比率大于或等于第一值,或者响应于在操作S450睫毛比率大于或等于第二值,在操作S460,如图2所示的显示器240可显示用于顺利进行虹膜识别的引导UI。
参照图4B,示出了引导UI 480,其中,如图2所示的显示器240可显示包括引导消息“睁大你的眼睛”的引导消息。也就是说,响应于由于没有睁大他/她的眼睛的用户的眼睑或睫毛而无法顺利地执行虹膜识别,如图2所示的控制器270可显示用于虹膜识别的引导UI480。
参照图4C,提供了这样的示例:响应于成像的用户的虹膜区域被部分成像,如图2所示的控制器270可不显示用于执行虹膜识别的引导图像。
作为用户的个人信息的虹膜图像的安全性是非常重要的。响应于虹膜图像被完整地显示,通过捕捉显示的图像或拍摄显示图像的方法,作为用户的个人信息的虹膜信息可能会被泄露到外面。因此,控制器270可控制如图2所示的图像处理器230以这样的方式来处理成像的图像:成像的虹膜图像不被完整地显示,用户虹膜信息可不通过各种方法被确认,并且控制器270可控制显示器240显示通过图像处理器230处理的图像。
图5A、图5B和图5C是示出根据本公开的各种实施例的对成像的图像执行针对安全性的图像处理的处理的示图。
参照图5A,示出了虚拟虹膜图像510,其中,如图2所示的控制器270可控制如图2所示的图像处理器230和如图2所示的显示器240完整地显示成像的图像中的除了虹膜区域之外的剩余部分,并在虹膜区域中显示虚拟虹膜图像510。
参照图5B,提供了这样的示例:如图2所示的控制器270可检测眼睛区域和虹膜区域,控制如图2所示的图像处理器230和如图2所示的显示器240显示检测到的眼睛区域和虹膜区域作为边缘信息,并用黑白图像显示剩余区域。
参照图5C,示出了引导图像540和550以及虹膜线560,其中,如图2所示的控制器270可控制图像处理器230和显示器240不完整地显示成像的图像,而仅将与用户的实际虹膜区域相应的虹膜线560与引导图像540和550一起显示。在该示例中,如图5C所示,可用实线显示引导图像540和550,可用虚线显示虹膜线560。
响应于指示当前虹膜尺寸的虹膜图像被呈现,根据如图2所示的用户终端设备200的性能,每秒帧数(FPS)可减小。根据用户终端设备200的移动,可能发生在指示用户的当前虹膜尺寸的虹膜图像中的突然改变(诸如急剧增大或急剧减小)。为了减轻该现象,可通过反映用于先前帧的虹膜尺寸的信息,基于以下等式1来确定当前帧的虹膜尺寸。
这里,Iris_DiameterF是虹膜图像的直径,Iris_DiameterC是在当前帧中估计的虹膜的直径,Iris_DiameterP是在先前帧中估计的虹膜的直径。a是被分配给当前帧的权重,并具有0(零)到1之间的值。
本公开的实施例已示出了引导图像是圆或椭圆。可用诸如四边形或三角形的各种图案来呈现引导图像。
响应于用户位于成像单元220的适合于执行虹膜识别的焦点位置处,即,检测到的用户虹膜的尺寸和虹膜引导图像的尺寸之间的差小于或等于预设值,控制器270可输出用于引导虹膜识别的执行的反馈图像。例如,响应于检测到的用户虹膜的尺寸和虹膜引导图像的尺寸之间的差在用户的虹膜尺寸的2%内,控制器270可输出用于引导虹膜识别的执行的反馈消息以执行虹膜识别。
例如,控制器270可输出视觉反馈消息。在该示例中,响应于如图3A所示的虹膜引导图像的尺寸和如图3A所示的虹膜线330的尺寸之间的差小于或等于预设值,控制器270可控制显示器240来改变虹膜线330的颜色或控制显示器240使虹膜线330闪烁。控制器270可控制显示器240使整个屏幕闪烁或控制显示器240显示用于引导虹膜识别的执行的单独的UI。
在另一示例中,控制器270可输出听觉反馈消息。在该示例中,响应于虹膜引导图像320的尺寸和虹膜线330的尺寸之间的差小于或等于预设值,控制器270可输出警报声音或输出用于引导虹膜识别的执行的听觉UI(AUI)。
在另一示例中,控制器270可输出触觉反馈消息(诸如振动)。
响应于用户位于如图2所示的成像单元200的适合于执行虹膜识别的焦点位置处,即,检测到的用户虹膜的尺寸和虹膜引导图像的尺寸之间的差小于或等于预设值,控制器279可通过确定检测到的用户虹膜是否与在存储单元250中预先注册的虹膜一致,来执行虹膜识别。
图6A和图6B是示出根据本公开的各种实施例的虹膜被睫毛或眼睑覆盖的示例的示图。
在通过如图2所示的控制器270执行虹膜识别时,如图6A所示虹膜可被完全成像,或者如图6B所示虹膜的一部分可被眼睑或睫毛覆盖。
参照图6A,提供了这样的示例:响应于虹膜被完全暴露,可正常地执行虹膜识别。然而,参照图6B,提供了这样的示例:响应于虹膜被眼睑或睫毛覆盖,虹膜识别的成功率会因为眼睑或睫毛而降低。
为了防止成功率降低,控制器270可如图7所示通过将检测到的虹膜区域归一化为矩形形状来产生虹膜代码。
图7是示出根据本公开的实施例的产生虹膜代码的方法的示图。
参照图7,示出了区域710、720和730以及检测到的虹膜区域700,其中,如图2所示的控制器270可对被归一化为矩形形状的虹膜代码中的被眼睑或睫毛覆盖的区域710、720和730执行掩盖。
以下,将参照图8A至图10描述通过使虹膜区域归一化来产生虹膜代码的方法。
图8A至图10是示出根据本公开的实施例的通过提取眼睛的内角和眼睛的外角来使虹膜区域归一化的方法的示图。
图8A是示出根据本公开的实施例的通过提取眼睛的内角和眼睛的外角来使虹膜区域归一化的方法的流程图。
参照图8A,示出了流程图,其中,在操作S810,如图2所示的控制器270可从成像的图像的眼睛区域检测虹膜边界。
在操作S820,控制器270可计算虹膜中心点P的坐标。
参照图8A和图8B,在操作S830,控制器270可检测眼睛的内角880和眼睛的外角870。
在操作S840,控制器270可计算连接眼睛的内角880和眼睛的外角870的直线L890,如图8B所示。
在操作S850,控制器270可计算经过虹膜中心点P并与直线L垂直的直线S 895。
在操作S860,控制器270可通过基于参考线S对虹膜区域执行极坐标转换来执行归一化。
图9A是示出根据本公开的实施例的通过提取眼睑轮廓来使虹膜区域归一化的方法的流程图。
参照图9A,示出了流程图,其中,在操作S910,如图2所示的控制器270可从成像的用户的眼睛区域检测虹膜边界。在操作S920,控制器270可计算虹膜中心点P的坐标。
参照图9A和图9B,在操作S930,控制器270可检测眼睑的轮廓970-1和970-2。
在操作S940,控制器270可测量从虹膜中心点P到眼睑的距离。
在操作S950,控制器270可选择从虹膜中心点P到眼睑的距离最短的直线。
在操作S960,控制器270可通过基于参考线S 980对虹膜区域执行极坐标转换来执行归一化。
图10是示出根据本公开的实施例的使用在图8A和图9A中检测到的两条参考线来使虹膜区域归一化的方法的流程图。
参照图10,示出了流程图,其中,在操作S1010,如图2所示的控制器270可如图8A所述使用眼睛的内角和眼睛的外角计算参考线S1。
在操作S1020,控制器270可如图9A所述使用眼睑计算参考线S2。
在操作S1030,控制器270可使用参考线S1和参考线S2来计算最终参考线S。例如,控制器270可使用参考线S1和参考线S2的平均来计算最终参考线S,或者控制器270可通过向参考线S1和参考线S2中的特定的一个参考线分配权重来计算最终参考线S。
在操作S1040,控制器270可通过基于最终参考线S对虹膜区域执行极坐标转换来执行归一化。
返回参照图7,如图2所示的控制器270可通过将归一化的虹膜代码中的除被掩盖的区域710、720和730之外的剩余区域与预先注册的虹膜代码进行比较来记录匹配分数,并通过确定是否存在匹配分数大于或等于预设值(例如,97%)的预先注册的虹膜代码来执行用户的虹膜识别。响应于存在具有大于或等于预设值的匹配分数的预先注册的虹膜代码,控制器270可将通过如图2所示的成像单元220成像的用户认证为是与具有大于或等于预设值的匹配分数的预先注册的虹膜代码相应的用户。例如,响应于作为将除了被掩盖的区域之外的剩余区域与预先注册的第一用户的虹膜代码进行比较的结果,匹配分数为98%,作为将除了被掩盖的区域之外的剩余区域与预先注册的第二用户的虹膜代码进行比较的结果,匹配分数为33%,并且作为将除了被掩盖的区域之外的剩余区域与预先注册的第三用户的虹膜代码进行比较的结果,匹配分数为17%,作为虹膜识别结果,控制器270可将成像的用户认证为第一用户。
图11是示出根据本公开的实施例的更新虹膜代码的方法的示图。
响应于虹膜识别成功,如图2所示的控制器270可对预先注册的虹膜代码的被掩盖的区域和在认证中使用的虹膜代码的被掩盖的区域进行分析。在分析处理中,响应于预先注册的虹膜代码的被掩盖的部分在认证中使用的虹膜代码中没有被掩盖,控制器270可使用在认证中使用的虹膜代码的除了被掩盖的区域之外的剩余区域的信息来更新预先注册的虹膜代码的被掩盖的部分。
参照图11,示出了虹膜代码1120的非掩盖区域(阴影区域)1140,其中,已经在认证中成功的虹膜代码1120出现在预先注册的虹膜代码1110的被掩盖的区域中,控制器270可更新并存储在认证中成功的虹膜代码的非掩盖区域1140。
如上所述,通过虹膜识别的重复执行,在存储单元250中注册的虹膜代码的被掩盖的区域可被逐渐减小,在认证中可匹配的虹膜代码部分可增加。因此,可通过重复的虹膜识别来更新存储单元250中注册的虹膜代码,并且由于虹膜识别性能的提高,用户的可靠性可增加。
以下,将参照图12和图13描述用户终端设备的虹膜识别方法和虹膜代码更新方法。
图12是示出根据本公开的实施例的用户终端设备的虹膜识别方法的流程图。
参照图12,示出了流程图,其中,在操作S1210,如图2所示的用户终端设备200可对用户成像,在操作S1220,用户终端设备200可显示成像的图像。
在操作S1230,用户终端设备200可从成像的图像检测用户眼睛。用户终端设备200可从检测的用户眼睛检测用户虹膜。
在操作S1240,用户终端设备200可在与检测到的用户眼睛相应的位置处显示引导图像。用户终端设备200可在与用户眼睛相应的位置处显示眼睛引导图像,在与用户虹膜相应的位置处显示虹膜引导图像。
在操作S1250,用户终端设备200可执行虹膜识别。响应于用户位于适于通过虹膜引导图像进行虹膜识别的距离处,即,响应于在检测到的用户眼睛中包括的虹膜的尺寸和引导图像的尺寸之间的差在预设范围内,用户终端设备200可执行虹膜识别。
如上所述,通过在检测到的眼睛位置处显示引导图像,用户可更方便地执行虹膜识别。
图13是示出根据本公开的实施例的用户终端设备的虹膜代码存储和更新方法的流程图。
参照图13,示出了流程图,其中,在操作S1310,如图2所示的用户终端设备200可对用户进行成像。
在操作S1320,用户终端设备200可确定当前模式是虹膜代码注册模式还是虹膜认证模式。
在虹膜代码注册模式下,在操作S1330,用户终端设备200可从成像的图像产生虹膜代码。例如,用户终端设备200可从成像的图像检测虹膜区域,将检测到的虹膜区域归一化为矩形形状,并通过掩盖归一化的虹膜区域中的诸如眼睑或睫毛的区域来产生虹膜代码。
在操作S1340,用户终端设备200可将产生的虹膜代码存储在数据库DB中。
在虹膜认证模式下,在操作S1350,用户终端设备200可产生虹膜代码,对认证所不必要的部分(诸如眼睑或睫毛)执行掩盖工作。
在操作S1360,用户终端设备200可确定对于执行了掩盖工作的虹膜代码的认证是否成功。例如,用户终端设备200可通过将预先存储在数据库DB中的虹膜代码与执行了掩盖工作的虹膜代码进行比较来确定认证是否成功。
响应于在操作S1360认证成功,在操作S1370,用户终端设备200可使用在认证中使用的虹膜代码来更新预先注册的虹膜代码。例如,响应于预先注册的虹膜代码的被掩盖的部分在认证中使用的虹膜代码中未被掩盖,用户终端设备200可使用在认证中使用的用户虹膜代码中的除了被掩盖的区域之外的剩余区域的信息,来更新预先注册在数据库DB中的虹膜代码中的被掩盖的部分。
响应于在操作S1360认证未成功,方法结束。
如上所述,预先注册的虹膜代码可在虹膜认证成功时被更新,因此由于虹膜认证性能的提高,用户的可靠性可增加。
以下,将参照图14A至图18来描述通过虹膜认证切换屏幕的示例。
图14A至图18是示出根据本公开的各种实施例的通过用户终端设备的虹膜识别进行的屏幕切换示例的示图。
如图2所示的控制器270可控制如图2所示的显示器240在需要用户认证的各种屏幕中显示固定UI和引导图像。响应于通过固定UI和引导图像执行了虹膜识别,控制器270可控制显示器240将需要用户认证的屏幕切换到另一屏幕。控制器270可控制显示器240通过放大固定UI来将需要用户认证的屏幕切换到另一屏幕。
参照图14A,示出了主屏幕1400,其中,如图2所示的控制器270可控制如图2所示的显示器240显示主屏幕1400。
主屏幕1400可包括固定UI 1410和引导图像1420。固定UI 1410可以是用于指示用户注视的点的UI,引导图像1420可以是用于通过与固定UI 1410的相对位置和尺寸来指示用户注视的眼睛的位置和尺寸的图像。
参照图15A,示出了主屏幕1500、固定UI 1510和引导图像1520,其中,可以看出引导图像1520大于固定UI 1510,并且位于固定UI 1510的右侧。在该示例中,引导图像可指示用户的面部太靠近用户终端设备200并位于用户终端设备200的右侧。响应于用户的面部远离用户终端设备200并且向用户终端设备200的左侧移动,如图15B所示,控制器270可对主屏幕1500的固定UI 1510和引导图像1520的尺寸进行匹配。
参照图14B,示出了主屏幕1400、固定UI 1410和引导图像1420,响应于固定UI1410的位置和尺寸与引导图像1420的位置和尺寸相应,如图2所示的控制器270可通过改变引导图像1420的类型(例如,颜色、闪烁、透明度等)来引导虹膜认证开始执行。
响应于通过虹膜识别执行了用户认证,参照图14C,主屏幕1400被示出,这是因为控制器270可控制显示器240通过逐渐放大如图14B所示的固定UI 1410来显示开始屏幕1430的一部分。
参照图14D,示出了整个屏幕1440,这是因为如图2所示的控制器270可控制如图2所示的显示器240通过进一步放大如图14B所示的固定UI 1410来将开始屏幕显示为整个屏幕1440。
参照图16A,示出了开始屏幕1600、固定UI 1610和引导图像1620,这是因为如图2所示的控制器270可控制如图2所示的显示器240在需要登录的特定应用的开始屏幕1600中显示固定UI 1610和引导图像1620。
响应于通过固定UI 1610和引导图像1620执行虹膜识别使得用户认证成功,参照图16B,控制器270可控制显示器240通过放大固定UI 1610来将开始屏幕1600切换为登录了特定应用之后的屏幕1630。
参照图17A,示出了结账屏幕1700、固定UI 1710和引导图像1720,这是因为如图2所示的控制器270可控制如图2所示的显示器240在结账屏幕1700中显示固定UI 1710和引导图像1720。响应于通过固定UI 1710和引导图像1720执行虹膜认识使得用户认证成功,参照图17B,控制器270可控制显示器240通过放大固定UI 1710来将结账屏幕1700切换为认证成功屏幕1730。
图18是示出根据本公开的实施例的用户终端设备的虹膜识别方法的流程图。
参照图18,示出了流程图,其中,在操作S1810,如图2所示的用户终端设备200可在第一屏幕显示固定UI和引导图像。第一屏幕可以是需要用户认证的屏幕,并可包括主屏幕、登录屏幕、结账屏幕等。固定UI可以是用于指示用户注视的点的UI。引导图像可以是用于通过与固定UI的相对位置和尺寸来指示用户注视的眼睛的位置和尺寸的图像。
在操作S1820,用户终端设备200可使用固定UI和引导图像来执行虹膜识别。
在操作S1830,用户终端设备200可确定使用虹膜识别的用户认证是否已成功。
响应于在操作S1830用户认证已成功,在操作S1840,用户终端设备200可通过放大固定UI将第一屏幕切换为第二屏幕。第二屏幕可以是在用户认证之后的屏幕,并可包括开始屏幕、登录之后的屏幕、认证成功屏幕等。
响应于在操作S1830用户认证已失败,在操作S1850,用户终端设备200可输出认证失败消息。
如上所述,可通过固定UI和引导图像来更方便地执行虹膜识别,并可提供通过屏幕固定切换到另一屏幕的新的用户体验。
以下,将参照图19A至图22来描述通过人眼形状的固定UI执行虹膜识别的示例。
图19A至图22是示出根据本公开的各种实施例的通过眼形固定UI执行虹膜识别的示例的示图。
用户必须长时间睁大眼睛注视以增大虹膜识别的成功率。然而,该动作对于用户来说可能是有些不正常的动作。因此,在本公开的实施例中,如图2所示的用户终端设备200可显示眼形固定UI,可通过使用户与虚拟人进行注视匹配来促使用户长时间睁大他/她的眼睛。
参照图19A,示出了眼形固定UI 1910,其中,如图2所示的控制器270可控制如图2所示的显示器240在显示屏幕中显示人眼形状的固定UI 1910。控制器270可通过按照宽和窄的配置重复地张开包括在眼形固定UI中的人眼,来促使用户进行注视匹配。
参照图19B,响应于执行虹膜识别,控制器270可改变眼形固定UI 1910的颜色,参照图19C,控制器270可控制显示器240在眼形固定UI 1910中显示用于指示虹膜识别进度的UI 1920。
参照图19D,响应于执行虹膜识别,控制器270可控制眼形固定UI 1930闭上眼睛,控制显示器240显示虹膜识别成功消息1940。可将虹膜识别成功消息1940显示为虚拟类型。虹膜识别成功消息1940可被表现为听觉类型或振动类型。
响应于用户终端设备200被多个人使用,控制器270可优先确定期望控制用户终端设备200的人,并随后执行虹膜识别。
参照图20A,提供了如图2所示的用户终端设备200的相机2010的示例,其中,相机2010被配置为同时识别虹膜和手势。
参照图20B,响应于如图2所示的用户终端设备200被多个用户使用(例如,响应于多个用户同时观看电影或web页面),如图2所示的控制器270可优先检测用户的面部移动,并检测注视显示屏幕的用户。控制器270可通过上述各种方法执行虹膜识别,将用户终端设备200的交互优先级给予检测到的用户。
图21是示出根据本公开的实施例的用户终端设备的虹膜识别方法的流程图。
参照图21,示出了流程图,其中,在操作S2110,如图2所示的用户终端设备200可在显示屏幕中显示人眼形状的固定UI。如图2所示的控制器270可通过按照宽和窄的配置重复地张开包括在如图19A所示的人眼形状的固定UI 1910中的人眼,促使用户进行注视匹配。
在操作S2120,用户终端设备200可确定是否开始虹膜认识。
响应于在操作S2120虹膜识别开始,在操作S2130,用户终端设备200可改变眼形固定UI的颜色或显示虹膜识别进度来指示正在执行虹膜识别。
在操作S2140,用户终端设备200可执行虹膜识别。
响应于在操作S2120虹膜识别未开始,用户终端设备200可结束虹膜识别方法。
图22是示出根据本公开的实施例的用户终端设备200的虹膜识别方法的流程图。
参照图22,示出了流程图,其中,在操作S2210,如图2所示的用户终端设备200可对多个用户进行成像。
在操作S2220,用户终端设备200可检测多个用户的面部移动。例如,用户终端设备200可确定多个用户的面部移动的方向是否朝向用户终端设备200。在另一示例中,用户终端设备200可检测位于用户终端设备200正面的用户。
在操作S2230,用户终端设备200可基于检测到的用户的面部移动确定多个用户之中的交互优先者。例如,用户终端设备200可确定注视用户终端设备200的用户。
在操作S2240,用户终端设备200可对交互优先者执行虹膜识别。
响应于通过执行虹膜识别使得用户认证成功,在操作S2250,用户终端设备200可将交互优先级给予交互优先者。例如,除了用户终端设备200的功能,用户终端设备200还可基于由交互优先者输入的语音、动作等,忽略其他用户输入的语音、动作等。
根据本公开的实施例,用户终端设备200可根据成像条件获得多个参考图像,并可使用获得的多个参考图像执行虹膜识别。例如,参照图2所示的控制器270可根据成像条件来获得多个参考图像。成像条件可包括用户终端设备200和用户之间的距离、分辨率、照度、焦点状态、IR光反射等中的至少一个。响应于对用户进行成像以执行虹膜识别,控制器270可从成像的图像检测用户眼睛,并通过将成像条件与检测到的眼睛相应的参考图像与用户眼睛进行比较来执行虹膜识别。
例如,响应于多个参考图像被注册,控制器270可将多个参考图像转换为虹膜代码,并将转换后的虹膜代码存储在存储单元250中。然而,控制器270可将多个参考图像的原始数据存储在如图2所示的存储单元250中。
在另一示例中,响应于多个参考图像被注册,控制器270可将与多个参考图像相应的用户的成像条件信息(例如,距离信息)以及多个参考图像一起注册并存储。响应于虹膜识别被执行,控制器270可获得通过检测器(未示出)检测到的用户的成像条件信息,基于获得的成像条件和存储在多个参考图像中的成像条件信息,在多个参考图像之中选择用于执行虹膜识别的参考图像。控制器270可通过将选择的参考图像与检测到的用户眼睛进行比较来执行虹膜识别。
控制器270可响应于多个参考图像被产生,获得根据成像条件的多个参考图像。控制器270可通过图像尺寸调整或噪声添加来获得多个参考图像。例如,控制器270可通过成像单元220获得第一参考图像,通过对第一参考图像执行图像尺寸调整或噪声添加来产生根据成像条件的多个参考图像,并将多个参考图像存储在存储单元250。
图23至图29是示出根据本公开的各种实施例的在用户终端设备中使用根据成像条件的多个参考图像执行虹膜识别的示例的示图。
图23是示出根据本公开的实施例的使用根据成像条件获得的多个参考图像执行虹膜识别的方法的流程图。
参照图23,示出了流程图,其中,在操作S2310,如图2所示的用户终端设备200可注册根据成像条件的多个参考图像。用户终端设备200可获得根据成像条件的多个参考图像。例如,用户终端设备200可获得根据用户终端设备200和用户之间的距离的多个参考图像。在另一示例中,用户终端设备200可获得根据分辨率的多个参考图像。在另一示例中,用户终端设备200可获得根据周围照度的多个参考图像。在另一示例中,用户终端设备200可获得根据焦点状态的多个参考图像。在另一示例中,用户终端设备200可获得根据引起IR光反射的点的多个参考图像。在示例中,用户终端设备200可注册并存储成像条件信息以及与成像条件信息相应的多个参考图像。用户终端设备200可通过根据成像条件对多个参考图像进行成像来获得多个参考图像。用户终端设备200可通过对一帧参考图像进行成像尺寸调整或噪声添加来产生根据成像条件的多个参考图像。
在操作S2320,用户终端设备200可对用户眼睛进行成像以用于用户认证。
在操作S2330,用户终端设备200可从成像的图像检测用户眼睛,并检测成像条件。例如,用户终端设备200可通过从成像的图像检测虹膜的内侧边界和外侧边界来检测用户眼睛(具体地,虹膜)。用户终端设备200可检测成像条件(例如,用户终端设备200和用户之间的距离等)。用户终端设备200可通过距离检测器检测用户终端设备200和用户之间的距离。
在操作S2340,用户终端设备200可通过将检测到的眼睛与参考图像进行比较来执行用户认证。例如,用户终端设备200可在多个参考图像中选择成像条件与检测到的成像条件相应的的参考图像。用户终端设备200可通过将成像条件与检测到的成像条件相应的参考图像与检测到的眼睛进行比较来执行用户认证。
如上所述,可使用根据成像条件获得的多个参考图像来执行虹膜识别,因此,即使响应于通过各种成像条件对用户眼睛进行成像,也能够更快速地执行精确的虹膜识别。
图24是示出根据本公开的实施例的注册多个图像并使用多个参考图像执行用户认证的方法的示图。
参照图24,示出了流程图,其中,在操作S2410,如图2所示的用户终端设备200可获得成像条件信息和虹膜图像。例如,用户终端设备200可通过对包括用户的图像进行成像来获得虹膜图像,并通过各种传感器(例如,距离检测传感器、照度传感器等)来获得成像条件信息。
在操作S2420,用户终端设备200可检测内侧虹膜边界和外侧虹膜边界。也就是说,用户终端设备200可通过从虹膜图像检测内侧虹膜边界和外侧虹膜边界来检测用户虹膜。
在操作S2430,用户终端设备200可确定当前阶段是注册阶段还是认证阶段。
响应于当前阶段是注册阶段,在操作S2440,用户终端设备200可产生参考图像。例如,用户终端设备200可通过将获得的用户虹膜与检测到的成像条件信息一起存储来产生参考图像。
在操作S2450,用户终端设备200可使用参考图像来产生虹膜代码。产生虹膜代码的方法已被描述,因此将省略对其的详细描述。
在操作S2460,用户终端设备200可将虹膜代码存储在数据库中。也就是说,用户终端设备200可不将用户虹膜图像存储在数据库中,而是可将虹膜代码存储在数据库中。
响应于当前阶段是认证阶段,在操作S2470,用户终端设备200可产生虹膜代码。也就是说,用户终端设备200可通过检测到的用户虹膜产生虹膜代码。
在操作S2480,用户终端设备200可将存储在数据库中的虹膜代码与产生的虹膜代码进行比较。例如,用户终端设备200可在存储在数据库中的虹膜代码中搜索成像条件信息与在操作S2410获得的成像条件信息相应的虹膜代码。
在操作S2490,用户终端设备200可基于在操作S2480的比较结果来执行用户认证。例如,响应于作为在数据库中搜索到的虹膜代码和产生的虹膜代码之间的比较结果,相似度大于或等于预设值,用户终端设备200可执行用户认证。响应于相似度小于预设值,用户终端设备200可输出用户认证失败消息。
如图24所示,由于在参考图像注册时,虹膜代码被存储,而不是参考图像本身被存储,因此,可不在每次执行认证时都执行将参考图像转换为虹膜代码的操作。由于虹膜代码而不是存储参考图像本身可被存储,因此即使数据库被非法入侵时也可保护用户个人信息。
图25是示出根据本公开的实施例的注册多个图像并使用多个参考图像执行用户认证的方法的示图。
参照图25,示出了流程图,其中,在操作S2510,用户终端设备200可获得成像条件信息和虹膜图像。例如,用户终端设备200可通过对包括用户的图像进行成像来获得虹膜图像,并通过各种传感器(例如,距离检测传感器、照明传感器等)来获得成像条件信息。
在操作S2520,用户终端设备200可检测内侧边界和外侧边界。也就是说,用户终端设备200可使用内侧虹膜边界和外侧虹膜边界从虹膜图像检测用户虹膜。
在操作S2530,用户终端设备200可确定当前阶段是注册阶段还是认证阶段。
响应于当前阶段是注册阶段,在操作S2540,用户终端设备200可产生参考图像。例如,用户终端设备200可通过将获得的用户虹膜与检测到的成像条件信息一起存储来产生参考图像。
在操作S2550,用户终端设备200可将产生的参考图像存储在数据库中。也就是说,用户终端设备200可不将虹膜代码存储在数据库中,而是可将参考图像本身存储在数据库中。
响应于当前阶段是认证阶段,在操作S2560,用户终端设备200可产生第一虹膜代码。也就是说,用户终端设备200可通过检测到的用户虹膜来产生第一虹膜代码。
在操作S2570,用户终端设备200可针对成像条件与检测到的成像条件相同的参考图像产生第二虹膜代码。例如,用户终端设备200可搜索成像条件与检测到的参考条件相应的参考图像。用户终端设备200可使用搜索到的参考图像来产生第二虹膜代码。
在操作S2580,用户终端设备200可将第一虹膜代码与第二虹膜代码进行比较。
在操作S2590,用户终端设备200可基于操作S2580的比较结果来执行用户认证。例如,响应于作为第一虹膜代码和第二虹膜代码之间的比较结果,确定相似度大于或等于预设值,用户终端设备200可执行用户认证。响应于确定相似度小于预设值,用户终端设备200可输出用户认证失败消息。
如图25所示,在参考图像注册时,参考图像本身被注册,因此,可减小存储的数据量。
将参照图26至图28B来描述根据本公开的实施例的通过对至少一个参考图像进行图像尺寸调整来产生多个参考图像的方法。
参照图26,示出了流程图,其中,在操作S2610,如图2所示的用户终端设备200可获得成像条件信息和虹膜图像。
在操作S2620,用户终端设备200可检测内侧虹膜边界和外侧虹膜边界。
在操作S2630,用户终端设备200可将检测到的用户虹膜注册为参考图像。
在操作S2640,用户终端设备200可确定参考图像是一个还是多个。
响应于在操作S2640参考图像多于一个,在操作S2650,用户终端设备200可存储多个参考图像。
响应于在操作S2640参考图像是一个,则在操作S2660,用户终端设备200可存储一个参考图像。
在操作S2670,用户终端设备200可使用存储的多个参考图像或存储的一个参考图像,根据成像条件执行图像尺寸调整。
例如,参照图27A和图27B,响应于在用户终端设备200和用户之间的距离为20cm的状态下获得第一参考图像2710,用户终端设备200可对第一参考图像2710执行成像尺寸调整,并可获得第二参考图像2720-1、第三参考图像2720-2和第四参考图像2720-3,其中,第二参考图像2720-1是在50cm的用户终端设备200和用户之间的距离下成像的图像,第三参考图像2720-2是在40cm的用户终端设备200和用户之间的距离下成像的图像,第四参考图像2720-3是在30cm的用户终端设备200和用户之间的距离下成像的图像。本公开的实施例已公开了以10cm为单位来对图像进行尺寸调整。可以以除了10cm之外的特定距离单位(例如,5cm等)来对图像进行尺寸调整。
参照图28A和图28B,响应于获得根据用户终端设备200和用户之间的距离的第一图像2810-1、第二图像2810-2、第三图像2810-3和第四图像2810-4(例如,距离50cm、40cm、30cm和20cm),用户终端设备200可对第一参考图像2810-1执行尺寸调整,并产生第五图像2820-1,其中,第五图像2820-1是在45cm的用户终端设备200和用户之间的距离下成像的图像。类似地,用户终端设备200可对第二参考图像2810-2执行尺寸调整,并产生第六图像2820-2,其中,第六图像2820-2是在35cm的用户终端设备200和用户之间的距离下成像的图像。
本公开的实施例已公开了成像条件是用户终端设备200和用户之间距离。用户终端设备200可通过根据分辨率对图像执行尺寸调整来产生多个参考图像。
返回参照图26,在操作S2680,用户终端设备200可使用产生的多个参考图像来产生多个虹膜代码。此外,在操作S2690,用户终端设备200可将产生的虹膜代码存储在数据库中。
将参照图29描述根据本公开的实施例的通过对至少一个参考图像进行噪声添加来产生多个参考图像的方法。
参照图29,示出了流程图,其中,在操作S2910,如图2所示的用户终端设备200可获得成像条件信息和虹膜图像。
在操作S2920,用户终端设备200可检测内侧虹膜边界和外侧虹膜边界。
在操作S2930,用户终端设备200可将检测到的用户虹膜注册为参考图像。
在操作S2940,用户终端设备200可确定参考图像是一个还是多个。
响应于在操作S2940参考图像多于一个,在操作S2950,用户终端设备200可存储多个参考图像。
响应于在操作S2940参考图像为一个,在操作S2960,用户终端设备200可存储一个参考图像。
在操作S2970,用户终端设备200可使用存储的多个参考图像或存储的一个参考图像,根据成像条件来执行噪声添加。例如,响应于在第一照度值下获得第一参考图像,用户终端设备200可对第一参考图像执行噪声添加(例如,亮度调整),并获得第二参考图像、第三参考图像和第四参考图像,其中,第二参考图像是在第二照度值下成像的图像,第三参考图像是在第三照度值下成像的图像,第四参考图像是在第四照度值下成像的图像。响应于多个参考图像被获得,还可通过噪声添加来获得更多参考图像。
本公开的实施例已公开了成像条件是照度。可通过增加IR光反射的噪声添加来产生多个参考图像。
在操作S2980,用户终端设备200可使用产生的多个参考图像来产生多个虹膜代码。
在操作S2990,用户终端设备200可将产生的虹膜代码存储在数据库中。
如图26至图29所述,可通过图像尺寸调整或噪声添加来获得根据成像条件的多个参考图像,因此即使响应于执行了较少次数的虹膜注册,也可使虹膜识别更精确。
根据本公开的各种实施例的设备可包括处理器、被配置为存储并执行程序数据的存储器、诸如磁盘驱动器的永久存储器、与外部设备通信的通信端口、诸如触摸面板、键、按钮等的UI设备。用软件模块或算法实现的方法可被存储在非暂时性计算机可读记录介质中,作为可在处理器上执行的计算机可读代码或程序命令。非暂时性计算机可读记录介质可包括磁存储介质(例如,ROM、RAM、软盘、硬盘等)和光可读介质(致密盘(CD)、数字通用盘(DVD)等)。非暂时性计算机可读介质被分布在通过网络连接的计算机系统中,并可以以分布式方式来存储和执行计算机可读代码。介质可由计算机读取,可存储在存储器中,并可由处理器运行。
可用功能块配置和各种处理操作来实现本公开的各种实施例。可用各种硬件和/或软件配置来实现功能块。例如,本公开的各种实施例可采用可通过控制一个或更多个微处理器或其它控制设备来执行各种功能的直接电路结构(诸如存储器、处理、逻辑和查找表)。按照可通过软件编程或软件元件来运行结构组件的相似方式,可用包括各种算法的编码语言或脚本语言(诸如C、C++、Java或汇编语言)来实现本公开的各种实施例,其中,用数据结构、例程和其它编程结构的组合来实现各种算法。可用在一个或更多个处理器中执行的算法来实现各功能方面。对于电子环境设置、信号处理和/或数据处理等,本公开的各种实施例可采用现有技术。诸如“机制”、“元件”、“单元”和“配置”的术语可被广泛使用,并且不限于机械和物理配置。这些术语可指与处理器等结合的一系列软件例程。
在本公开的各种实施例中描述的特定执行是示例性的,即使在任何方法中可限制技术范围。为了清楚,可省略对现有技术中的电子构造、控制系统和软件以及系统的其它功能方面的描述。在附图中示出的组件之间的连接或连接线的数量示例性地示出功能连接和/或物理或电路连接,并可用在实际设备中可代替或可添加的各种功能连接、物理连接或电路连接来呈现。
在说明书中(尤其是在权利要求中),术语“所述”及类似的指示术语可包括单独形式和复数形式。这里描述的范围可包括在该范围中包括的单个值(除非上下文明确地示出相反的情况),并且意图在说明书中描述构成该范围的单个值。除非明确地描述了构成方法的操作的顺序或限定了其它顺序,否则可以以适当的顺序来执行操作。这不限于操作的描述顺序。
本公开的各方面还可被实现为非暂时性计算机可读记录介质上的计算机可读代码。非暂时性计算机可读记录介质是可存储之后可由计算机系统读取的数据的任何数据存储装置。非暂时性计算机可读记录介质包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光学数据存储装置。非暂时性计算机可读记录介质可被分布在联网的计算机系统上,从而计算机可读代码可以以分布式方式被存储和执行。此外,本公开所属领域的编程技术人员可容易地解释用于实现本公开的功能程序、代码和代码段。
此时,应注意:如上所述的本公开的各种实施例通常在一定程度上涉及输入数据的处理和输出数据的产生。该输入数据处理和输出数据产生可在硬件或与硬件结合的软件中实现。例如,可在移动装置或用于实现与如上所述的本公开的各种实施例关联的功能的相似或相关电路中采用特定电子组件。可选地,根据存储的指令操作的一个或更多个处理器可实现与如上所述的本公开的各种实施例关联的功能。如果情况是这样,则这样的指令可被存储在一个或更多个非暂时性处理器记录介质上是在本公开的范围内。处理器可读介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光学数据存储装置。处理器可读介质也可被分布在联网的计算机系统上,从而可以以分布式方式来存储和执行指令。此外,本公开所属领域的编程技术人员可容易地解释用于实现本公开的功能程序、代码和代码段。
虽然参照本公开的各种实施例显示和描述了本公开,但是本领域的技术人员将理解,在不脱离由权利要求及其等同物限定的本公开的精神和范围的情况下,可对其进行形式和细节上的各种改变。

Claims (14)

1.一种用户终端设备,包括:
相机;
显示器;
至少一个处理器;
至少一个存储器,被配置为存储被配置为由所述至少一个处理器执行的一个或更多个计算机程序,其中,所述一个或更多个计算机程序包括用于所述至少一个处理器执行以下操作的指令:
控制显示器显示用于提供支付屏幕的用户界面UI;
响应于用于执行支付的用户命令通过所述UI被接收,控制显示器在所述UI上显示引导图像,其中,引导图像包括与用户的虹膜相应的形状;
通过相机获得用户的图像;
控制显示器在所述UI的显示引导图像的区域上显示用户的图像;
响应于包括在用户的图像中的虹膜的尺寸与引导图像的尺寸之间的差在预设范围内,执行虹膜识别。
2.如权利要求1所述的用户终端设备,其中,引导图像位于与相机的焦距匹配的位置。
3.如权利要求2所述的用户终端设备,其中,所述至少一个处理器还被配置为:响应于包括在用户的图像中的虹膜的尺寸与引导图像的尺寸之间的差小于或等于预设值,执行虹膜识别。
4.如权利要求3所述的用户终端设备,其中,所述至少一个处理器还被配置为:响应于包括在用户的图像中的虹膜的尺寸与引导图像的尺寸之间的差小于或等于预设值,控制显示器显示用于通知执行虹膜识别的反馈消息。
5.如权利要求1所述的用户终端设备,其中,所述至少一个处理器还被配置为:在执行虹膜识别期间控制显示器显示虚拟虹膜图像,使得用户的虹膜的实际图案不被显示。
6.如权利要求1所述的用户终端设备,其中,所述至少一个处理器还被配置为:控制显示器在所述UI的显示引导图像的区域上显示用于引导用户注视的点的固定UI。
7.如权利要求6所述的用户终端设备,其中,所述至少一个处理器还被配置为:响应于通过经由固定UI和引导图像执行虹膜识别而用户认证成功,控制显示器通过放大固定UI来显示认证成功UI。
8.一种用户终端设备的方法,包括:
显示用于提供支付屏幕的用户界面UI;
响应于用于执行支付的用户命令通过所述UI被接收,在所述UI上显示引导图像,其中,引导图像包括与用户的虹膜相应的形状;
通过用户终端设备的相机获得用户的图像;
在所述UI的显示引导图像的区域上显示用户的图像;
响应于包括在用户的图像中的虹膜的尺寸与引导图像的尺寸之间的差在预设范围内,执行虹膜识别。
9.如权利要求8所述的方法,其中,引导图像位于与相机的焦距匹配的位置。
10.如权利要求9所述的方法,其中,执行虹膜识别的步骤包括:响应于包括在用户的图像中的虹膜的尺寸与引导图像的尺寸之间的差小于或等于预设值,执行虹膜识别。
11.如权利要求10所述的方法,其中,所述方法还包括:响应于包括在用户的图像中的虹膜的尺寸与引导图像的尺寸之间的差小于或等于预设值,显示用于通知执行虹膜识别的反馈消息。
12.如权利要求8所述的方法,其中,显示引导图像的步骤包括:在执行虹膜识别期间显示虚拟虹膜图像,使得用户的虹膜的实际图案不被显示。
13.如权利要求8所述的方法,其中,所述方法还包括:在所述UI的显示引导图像的区域上显示用于引导用户注视的点的固定UI。
14.如权利要求13所述的方法,其中,所述方法还包括:响应于通过经由固定UI和引导图像执行虹膜识别而用户认证成功,通过放大固定UI来显示认证成功UI。
CN201910336953.8A 2014-10-15 2015-10-15 用户终端设备及其虹膜识别方法 Pending CN110070054A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20140139306 2014-10-15
KR10-2014-0139306 2014-10-15
KR1020150080137A KR102438110B1 (ko) 2014-10-15 2015-06-05 사용자 단말 장치 및 이의 홍채 인식 방법
KR10-2015-0080137 2015-06-05
CN201510666512.6A CN105528573B (zh) 2014-10-15 2015-10-15 用户终端设备及其虹膜识别方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201510666512.6A Division CN105528573B (zh) 2014-10-15 2015-10-15 用户终端设备及其虹膜识别方法

Publications (1)

Publication Number Publication Date
CN110070054A true CN110070054A (zh) 2019-07-30

Family

ID=54359756

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201510666512.6A Expired - Fee Related CN105528573B (zh) 2014-10-15 2015-10-15 用户终端设备及其虹膜识别方法
CN201910336953.8A Pending CN110070054A (zh) 2014-10-15 2015-10-15 用户终端设备及其虹膜识别方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201510666512.6A Expired - Fee Related CN105528573B (zh) 2014-10-15 2015-10-15 用户终端设备及其虹膜识别方法

Country Status (4)

Country Link
US (3) US9928422B2 (zh)
EP (2) EP3885986B1 (zh)
CN (2) CN105528573B (zh)
WO (1) WO2016060486A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112395934A (zh) * 2019-08-13 2021-02-23 本田技研工业株式会社 认证装置

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018000184A1 (en) * 2016-06-28 2018-01-04 Intel Corporation Iris or other body part identification on a computing device
WO2018008934A2 (en) 2016-07-07 2018-01-11 Samsung Electronics Co., Ltd. Adaptive quantization method for iris image encoding
CN106326864A (zh) * 2016-08-24 2017-01-11 北京小米移动软件有限公司 虹膜识别图像质量指示方法及装置
CN106446827B (zh) * 2016-09-21 2023-11-24 北京小米移动软件有限公司 虹膜识别功能检测方法和装置
US20190332877A1 (en) * 2016-11-18 2019-10-31 Sharp Kabushiki Kaisha Biometric authentication device and recording medium
KR102627244B1 (ko) * 2016-11-30 2024-01-22 삼성전자주식회사 전자 장치 및 전자 장치에서 홍채 인식을 위한 이미지 표시 방법
US10872272B2 (en) * 2017-04-13 2020-12-22 L'oreal System and method using machine learning for iris tracking, measurement, and simulation
JP6550094B2 (ja) * 2017-06-08 2019-07-24 シャープ株式会社 認証装置および認証方法
CN107291238B (zh) * 2017-06-29 2021-03-05 南京粤讯电子科技有限公司 一种数据处理方法与装置
CN107451546A (zh) 2017-07-14 2017-12-08 广东欧珀移动通信有限公司 虹膜识别方法及相关产品
CN107403149A (zh) * 2017-07-17 2017-11-28 广东欧珀移动通信有限公司 虹膜识别方法及相关产品
CN109426767A (zh) * 2017-08-24 2019-03-05 丽宝大数据股份有限公司 眼线描绘指引装置及其方法
CN107743156B (zh) * 2017-09-29 2021-05-21 努比亚技术有限公司 移动终端、移动终端的控制方法及计算机可读存储介质
RU2670798C9 (ru) * 2017-11-24 2018-11-26 Самсунг Электроникс Ко., Лтд. Способ аутентификации пользователя по радужной оболочке глаз и соответствующее устройство
WO2020036238A1 (ko) 2018-08-16 2020-02-20 삼성전자(주) 전자 장치 및 그 동작방법
CN110956054B (zh) * 2018-09-26 2023-07-14 北京中科虹星科技有限公司 一种虹膜图像采集方法及终端
CN110175848A (zh) * 2018-10-31 2019-08-27 广东小天才科技有限公司 一种基于可穿戴设备的支付控制方法及可穿戴设备
EP3879419A4 (en) * 2018-11-05 2021-11-03 NEC Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
EP3929868A4 (en) * 2019-02-19 2022-04-13 Sony Group Corporation AUTHENTICATION DEVICE, AUTHENTICATION METHOD AND PROGRAM
CN110334579B (zh) * 2019-05-06 2021-08-03 北京七鑫易维信息技术有限公司 一种虹膜识别图像确定方法、装置、终端设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1439998A (zh) * 2002-02-21 2003-09-03 Lg电子株式会社 虹膜识别系统
US20050270386A1 (en) * 2004-05-28 2005-12-08 Hirofumi Saitoh Method and apparatus for authentication utilizing iris
US20060120707A1 (en) * 2003-03-27 2006-06-08 Matsushita Electric Industrial Co., Ltd. Eye image pickup apparatus, iris authentication apparatus and portable terminal device having iris authentication function
JP2006201920A (ja) * 2005-01-19 2006-08-03 Oki Electric Ind Co Ltd 本人認証システム
CN101051349A (zh) * 2007-05-18 2007-10-10 北京中科虹霸科技有限公司 采用主动视觉反馈的多目虹膜采集设备
CN103106401A (zh) * 2013-02-06 2013-05-15 北京中科虹霸科技有限公司 具有人机交互机制的移动终端虹膜识别装置和方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) * 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
KR100374707B1 (ko) * 2001-03-06 2003-03-04 에버미디어 주식회사 도비치스 웨이블렛 변환을 이용한 홍채인식방법
US7271839B2 (en) 2001-03-15 2007-09-18 Lg Electronics Inc. Display device of focal angle and focal distance in iris recognition system
JP2003108983A (ja) 2001-09-28 2003-04-11 Matsushita Electric Ind Co Ltd 目画像撮像装置及び虹彩認証装置並びに虹彩認証機能付き携帯端末装置
KR100464081B1 (ko) 2001-12-20 2004-12-30 엘지전자 주식회사 홍채 인식 시스템의 아이리스 코드 데이터베이스 자동업그레이드 방법
JP4399704B2 (ja) * 2003-03-27 2010-01-20 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
US7756301B2 (en) * 2005-01-26 2010-07-13 Honeywell International Inc. Iris recognition system and method
US8098901B2 (en) * 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
JP3945474B2 (ja) 2003-11-28 2007-07-18 松下電器産業株式会社 眼画像入力装置および認証装置ならびに画像処理方法
KR100634666B1 (ko) 2005-01-04 2006-10-13 삼성테크윈 주식회사 홍채 인식 카메라 폰
US8235725B1 (en) * 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
KR100673427B1 (ko) 2005-05-18 2007-01-24 학교법인연세대학교 홍채 인식 기능을 구비한 휴대용 통신 단말기
US8260008B2 (en) * 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US7801335B2 (en) * 2005-11-11 2010-09-21 Global Rainmakers Inc. Apparatus and methods for detecting the presence of a human eye
US7410256B2 (en) * 2006-03-21 2008-08-12 Optictools, Llc Method and apparatus for marking eyeglass lens for placement of reading segment
KR100826876B1 (ko) * 2006-09-18 2008-05-06 한국전자통신연구원 홍채 검출 방법 및 이를 위한 장치
KR100783113B1 (ko) * 2006-09-18 2007-12-07 삼성전자주식회사 이동 통신 단말기의 음악 파일 단축 저장 방법
US7621638B2 (en) * 2006-11-29 2009-11-24 Clarity Medical Systems, Inc. Delivering a short Arc lamp light for eye imaging
US7621636B2 (en) * 2007-01-10 2009-11-24 Clarity Medical Systems, Inc. Working distance and alignment sensor for a fundus camera
US9002073B2 (en) 2007-09-01 2015-04-07 Eyelock, Inc. Mobile identity platform
US9117119B2 (en) * 2007-09-01 2015-08-25 Eyelock, Inc. Mobile identity platform
KR100936880B1 (ko) 2007-09-07 2010-01-14 아이리텍 잉크 홍채 이미지 저장방법 및 복원 방법
JP2009080706A (ja) 2007-09-26 2009-04-16 Honda Motor Co Ltd 個人認証装置
FR2924247B1 (fr) * 2007-11-22 2009-11-13 Sagem Securite Procede d'identification d'une personne par son iris.
US8320871B2 (en) * 2008-07-03 2012-11-27 Centurylink Intellectual Property Llc Emergency data message router database
US8374404B2 (en) 2009-02-13 2013-02-12 Raytheon Company Iris recognition using hyper-spectral signatures
US20100321482A1 (en) * 2009-06-17 2010-12-23 Lc Technologies Inc. Eye/head controls for camera pointing
US9087238B2 (en) 2010-01-22 2015-07-21 Iritech Inc. Device and method for iris recognition using a plurality of iris images having different iris sizes
US8459792B2 (en) * 2010-04-26 2013-06-11 Hal E. Wilson Method and systems for measuring interpupillary distance
KR101160681B1 (ko) * 2011-10-19 2012-06-28 배경덕 이동 통신 단말기의 활성화 시에 특정 동작이 수행되도록 하기 위한 방법, 이동 통신 단말기 및 컴퓨터 판독 가능 기록 매체
US8542879B1 (en) 2012-06-26 2013-09-24 Google Inc. Facial recognition
KR101995566B1 (ko) * 2012-08-31 2019-07-03 주식회사 이리언스 안구 위치 유도를 위한 가이드를 구비한 홍채 인증 시스템
US8850597B1 (en) * 2013-03-14 2014-09-30 Ca, Inc. Automated message transmission prevention based on environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1439998A (zh) * 2002-02-21 2003-09-03 Lg电子株式会社 虹膜识别系统
US20060120707A1 (en) * 2003-03-27 2006-06-08 Matsushita Electric Industrial Co., Ltd. Eye image pickup apparatus, iris authentication apparatus and portable terminal device having iris authentication function
US20050270386A1 (en) * 2004-05-28 2005-12-08 Hirofumi Saitoh Method and apparatus for authentication utilizing iris
JP2006201920A (ja) * 2005-01-19 2006-08-03 Oki Electric Ind Co Ltd 本人認証システム
CN101051349A (zh) * 2007-05-18 2007-10-10 北京中科虹霸科技有限公司 采用主动视觉反馈的多目虹膜采集设备
CN103106401A (zh) * 2013-02-06 2013-05-15 北京中科虹霸科技有限公司 具有人机交互机制的移动终端虹膜识别装置和方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112395934A (zh) * 2019-08-13 2021-02-23 本田技研工业株式会社 认证装置

Also Published As

Publication number Publication date
EP3885986B1 (en) 2024-05-01
EP3885986A1 (en) 2021-09-29
WO2016060486A1 (en) 2016-04-21
EP3009960B1 (en) 2021-06-16
US20190220663A1 (en) 2019-07-18
CN105528573A (zh) 2016-04-27
US20180173952A1 (en) 2018-06-21
CN105528573B (zh) 2019-05-17
EP3885986C0 (en) 2024-05-01
US9928422B2 (en) 2018-03-27
US10262204B2 (en) 2019-04-16
EP3009960A1 (en) 2016-04-20
US20160110601A1 (en) 2016-04-21
US10628670B2 (en) 2020-04-21

Similar Documents

Publication Publication Date Title
CN105528573B (zh) 用户终端设备及其虹膜识别方法
KR102438110B1 (ko) 사용자 단말 장치 및 이의 홍채 인식 방법
KR20220122955A (ko) 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치
KR102103286B1 (ko) 사용자 단말 및 이의 제공 방법
EP2787463B1 (en) Display apparatus for performing user certification and method thereof
JP2015170099A (ja) 情報処理装置、情報処理方法、アイウェア端末および認証システム
US20160155009A1 (en) Display apparatus and image processing method thereby
CN108399349A (zh) 图像识别方法及装置
KR102437104B1 (ko) 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치
US10931836B2 (en) Communication system, image processing method, and recording medium
US9928399B2 (en) Non-contact palmprint authentication method, device and mobile terminal
WO2017181842A1 (zh) 电子镜图像处理方法、装置和存储介质
JP2014038557A (ja) 認証装置、認証方法、およびプログラム
CN111310608A (zh) 用户识别方法、用户识别装置、存储介质与头戴式设备
JP2024045460A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
WO2013145874A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2016081428A (ja) 情報端末、情報処理装置、およびプログラム
WO2013145639A1 (en) Information processing device, information processing method and program
JP6064995B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN106327457A (zh) 一种图片处理方法、装置及设备
KR20210050649A (ko) 모바일 기기의 페이스 인증 방법
JP2014099175A (ja) ディスプレイ装置およびそのメッセージ伝達方法
KR20170039518A (ko) 훼이크 페이스 감지를 통한 전자기기의 사용 제어 장치 및 그 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190730