CN106663157A - 用户认证方法、执行该方法的装置及存储该方法的记录介质 - Google Patents

用户认证方法、执行该方法的装置及存储该方法的记录介质 Download PDF

Info

Publication number
CN106663157A
CN106663157A CN201580025201.XA CN201580025201A CN106663157A CN 106663157 A CN106663157 A CN 106663157A CN 201580025201 A CN201580025201 A CN 201580025201A CN 106663157 A CN106663157 A CN 106663157A
Authority
CN
China
Prior art keywords
field picture
face
face area
user
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580025201.XA
Other languages
English (en)
Other versions
CN106663157B (zh
Inventor
金�镐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Jingshi Guangying Information Technology Co.,Ltd.
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN106663157A publication Critical patent/CN106663157A/zh
Application granted granted Critical
Publication of CN106663157B publication Critical patent/CN106663157B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种用户认证方法、执行该方法的装置及存储该方法的记录介质。本发明一实施例的在用户认证装置中执行的用户认证方法,包括如下步骤:当从图像拍摄设备接收用户的图像数据时,利用所述图像数据的各个帧图像来检测脸部区域和脸部特征点;通过匹配所述脸部区域与特定脸部模板来执行脸部认证;根据利用所述脸部特征点提取的眼区域的图形来检测是否眨眼,根据预设的基准,并基于所述眨眼状态来识别密码,确认已识别的所述密码与预设的密码是否一致,由此执行密码的认证;以及根据所述脸部认证的结果及所述密码认证的结果来判断所述用户认证成功。

Description

用户认证方法、执行该方法的装置及存储该方法的记录介质
技术领域
本发明的实施例涉及一种用户认证方法、执行该方法的装置及存储该方法的记录介质。
背景技术
脸部识别技术不同于其他生物识别,具有如下优点:用户无需进行特别动作或行为,能够以非接触式、不引起用户反感且自然地执行识别,因此从用户的立场来看,可以说是最卓越的生物识别技术。
这种脸部识别技术的应用范围开始扩展到多种领域,作为一例,在安全认证领域备受瞩目。
若将脸部识别适用到安全认证,则无需输入密码或使用其他附加的认证介质,仅凝视摄像头就可完成自动认证,能够防止因密码或认证介质的伪造、被盗、遗失等导致的用户个人信息的非法泄露。
例如,存在如下益处:能够防止登录网络时,用户无限共享帐号及密码的现象,从网络管理员的立场上看,能够将损失最小化等。除此之外,还可适用于登录个人电脑(PC)、智能手机的解锁、在线学习(E-Learning)等多种认证领域。
但是,因脸部的转动、表情、照明、老化等导致的识别率的变化是脸部识别技术中普遍存在的弱点,由此导致的错误率的最小化成为一个问题。
尤其,减少脸部识别的错误接受率(FAR:False Accept Rate)成为将脸部识别适用到认证领域的最重要的问题之一。
作为对此的解决方案,可采用持续提高脸部识别性能的同时,结合脸部识别与其他不同认证方式的方案。据此,即使因识别错误而接受他人并通过脸部识别认证,但因采用双重安全认证,能够实现趋于完美的安全认证。
若结合脸部识别与现有的认证方式(密码、USB认证),虽能提高安全强度,但从用户的立场来看,仍存在现有认证方式的局限性,因此无法充分发挥脸部识别的优势。
因此,需要开发一种能够发挥脸部识别的优势并与脸部识别相结合而使得认证错误率最小化的技术。
发明内容
(一)要解决的技术问题
本发明的目的在于,提供一种用户认证方法、执行该方法的装置及存储该方法的记录介质,通过结合基于包括在已输入图像中的用户脸部的认证与根据脸部区域中包括的眨眼状态识别的密码认证,能够同时提供用户认证的便利性及准确性。
本发明的目的在于,提供一种用户认证方法、执行该方法的装置及存储该方法的记录介质,利用帧图像之间的差异提取帧图像之间的变化区域,仅在变化区域进行脸部检测,从而针对各个帧图像,无需在整体区域进行脸部检测运算,能够提高对各个帧图像的脸部检测速度。
并且,本发明的目的在于,提供一种用户认证方法、执行该方法的装置及存储该方法的记录介质,构成变化区域的图形金字塔之后,对图形金字塔上的各个图形进行分布式处理而分别检测脸部区域并综合其结果而最终检测脸部区域,从而能够提高脸部区域检测的准确性。
本发明要解决的技术问题并不限定于以上涉及的(多个)技术问题,本领域的技术人员可通过以下记载明确理解未涉及的其他(多个)技术问题。
(二)技术方案
在实施例中,在用户认证装置中执行的用户认证方法,包括如下步骤:当从图像拍摄设备接收用户的图像数据时,利用所述图像数据的各个帧图像来检测脸部区域和脸部特征点;通过匹配所述脸部区域与特定脸部模板来执行脸部认证;根据利用所述脸部特征点提取的眼区域的图形来检测是否眨眼,根据预设的基准,并基于所述眨眼状态来识别密码,确认已识别的所述密码与预设的密码是否一致,由此执行密码的认证;以及根据所述脸部认证的结果和所述密码认证的结果来判断所述用户认证成功。
在实施例中,用户认证装置,包括:脸部区域检测部,当从图像拍摄设备接收用户图像数据时,利用所述图像数据的各个帧图像来检测脸部区域和脸部特征点;第一认证部,通过匹配所述脸部区域和特定脸部模板来执行脸部认证;第二认证部,根据利用所述脸部特征点提取的眼区域的图形来检测是否眨眼,根据预设的基准,并基于所述眨眼状态来识别密码,确认已识别的所述密码与预设的密码是否一致;以及判断部,根据所述第一认证部的认证结果和所述第二认证部的认证结果来判断所述用户认证成功。
在实施例中,存储用于运行在用户认证装置中执行的用户认证方法的计算机程序的记录介质,包括如下功能:当从图像拍摄设备接收用户图像数据时,利用所述图像数据的各个帧图像来检测脸部区域和脸部特征点;通过匹配所述脸部区域和特定脸部模板来执行脸部认证;根据利用所述脸部特征点提取的眼区域的图形来检测是否眨眼,根据预设的基准,并基于所述眨眼状态来识别密码,确认已识别的所述密码与预设的密码是否一致,由此执行密码的认证;以及根据所述脸部认证的结果和所述密码认证的结果来判断所述用户认证成功。
其他实施例的具体内容已包括在详细说明及附图中。
通过参照附图及详细说明的多个实施例,可明确理解本发明的优点及/或特征,以及达成这些的方法。但是,本发明并不限定于以下公开的实施例,而是能够体现为多种不同的形态,这些实施例的目的仅在于完整地公开本发明,向本发明所属技术领域的普通技术人员完整地告知本发明的范畴,因此应根据权利要求的范围而定义本发明。整个说明书中,同一参照符号表示同一构成要素。
(三)有益效果
本发明有如下优点:通过结合基于包括在已输入图像中的用户脸部的认证与根据脸部区域中包括的眨眼状态识别的密码认证,同时提供用户认证的便利性及准确性。
并且,本发明还具有如下效果:利用帧图像之间的差异提取帧图像之间的变化区域,仅在变化区域进行脸部检测,从而针对各个帧图像,无需在整体区域进行脸部检测运算,能够提高对各个帧图像的脸部检测速度。这种检测速度的提高特别适合移动设备等具有限制性计算资源的终端。
并且,本发明还具有如下效果:构成对变化区域的图形金字塔后,对图形金字塔上的各个图形进行分布式处理而分别检测脸部区域,综合其结果而最终检测脸部区域,从而能够提高脸部区域检测的准确性。
附图说明
图1是用于说明本发明一实施例的用户认证装置的框图。
图2是用于说明本发明的用户认证方法的一实施例的流程图。
图3是用于说明本发明的用户认证方法的另一实施例的流程图。
图4是用于说明本发明的用户认证方法的又一实施例的流程图。
图5是用于说明本发明的用户认证方法的又一实施例的流程图。
图6是用于说明利用关键帧图像而从一般帧图像中检测脸部区域的过程的参照图。
图7是用于说明通过构成对帧图像的图形金字塔而检测脸部区域的过程的参照图。
图8是表示用于检测脸部区域的矩形特征(对称型、非对称型)的图。
图9是用于说明利用图8的矩形特征而检测脸部区域的过程的参照图。
图10是用于说明从脸部区域中检测眨眼的过程的参照图。
具体实施方式
以下参照附图详细说明本发明的实施例。
图1是用于说明本发明一实施例的用户认证装置的框图。
参照图1,用户认证装置100包括脸部区域检测部110、第一认证部120、第二认证部130及判断部140。
脸部区域检测部110从图像拍摄设备接收用户图像数据后,利用所述图像数据的各个帧图像检测脸部区域及脸部特征点。脸部区域检测部110将有关脸部区域及脸部特征点的信息分别提供给第一认证部120及/或第二认证部130。
脸部区域检测部110从图像拍摄设备接收到帧图像后,从帧图像中检测脸部区域,将特定帧图像定义为关键帧图像。
首先,脸部区域检测部110针对帧图像的各个像素,将通过其周边像素的亮度比值与多个过滤系数线性组合而获取的值设定为相应像素的亮度比值,从而消除包括在帧图像中的噪声。
然后,脸部区域检测部110通过缩小帧图像的尺寸而生成不同大小的多个图形,从多个图形中分别检测候选脸部区域,利用候选脸部区域中的共同区域,从相应帧图像中检测脸部区域。
例如,脸部区域检测部110可以从原来的帧图像中检测脸部区域,从已转换成小于原来帧图像的帧图像中检测脸部区域,又从比其转换的帧图像大小更小的帧图像中检测脸部区域后,将从各不同尺度的帧图像中检测的脸部区域的共同区域检测为相应帧中的脸部区域。这种方式可理解为图形金字塔技法。
在此,脸部区域检测部110可利用矩形特征(或四角特征点模型),分别从帧图像的多个图形中检测脸部区域及脸部特征点(例如,眼)。对于利用矩形特征(或四角特征点模型)的脸部区域及脸部特征点(例如,眼)的详细内容,将参照以下的图8及图9进行更具体的说明。
若帧图像的帧编号除以特定数字而没有余数,则脸部区域检测部110可将该帧图像定义为关键帧图像。例如,脸部区域检测部110为了每15次更新关键帧,当将帧编号除以15而没有余数时,可将该帧图像定义为关键帧图像。
脸部区域检测部110定义关键帧之后,接收一般帧图像,以关键帧图像为基准从一般帧图像中提取变化区域,利用变化区域从一般帧图像中检测脸部区域。
首先,脸部区域检测部110比较关键帧图像与一般帧图像而生成包括帧间差信息的帧差图像,对帧差图像执行二值化及滤波处理,以生成帧差图像的二值帧图像。
更具体而言,脸部区域检测部110针对帧差图像的各个像素,比较像素的亮度比值和阈值,若像素的亮度比值为阈值以上,则将相应像素转换成255,即白色,若像素的亮度比值为阈值以下,则将相应像素转换成0,即黑色,由此生成二值帧图像。所述阈值可被预先存储在用户认证装置100中。
并且,脸部区域检测部110将滤波器适用到二值帧图像来消除噪声。例如,脸部区域检测部110通过将对应二值帧图像噪声的像素的亮度比值置换为周边像素的中值来消除噪声。这种滤波器可以理解为一种中值(Median)滤波器。
随后,脸部区域检测部110利用二值帧图像从一般帧图像中确定脸部检测区域。更具体而言,脸部区域检测部110从所述二值帧图像中提取包括白色像素的矩形区域,将包括所述各个矩形区域的最终矩形区域确定为脸部检测区域。从另一种观点来看,可将“脸部检测区域”理解为一种用于脸部检测的帧间“变化区域”的概念。
最后,脸部区域检测部110从脸部检测区域中检测脸部区域。更具体而言,脸部区域检测部110通过缩小脸部检测区域而生成具有不同大小的多个图形,分别从多个图形中检测候选脸部区域后,利用候选脸部区域的共同区域从相应帧图像中检测脸部区域。
在此,脸部区域检测部110可利用矩形特征分别从帧图像的多个图形中检测脸部区域及脸部特征点(例如,眼、鼻、嘴等)。对于利用矩形特征检测脸部区域及脸部特征点的具体内容,将参照图8及图9进行更具体的说明。
第一认证部120通过匹配脸部区域与特定脸部模板执行脸部认证。一实施例中,第一认证部120比较脸部区域的二元特征量与已存储的特定脸部模板的二元特征量来算出相似度,根据算出的相似度来向判断部140提供所述脸部认证的结果。已存储的特定脸部模板是需要认证的用户脸部模板,可以是预先存储到用户认证装置100中的脸部模板。可将脸部区域与特定脸部模板的“匹配”理解为比较上述脸部区域的二元特征量与已存储的特定脸部模板的二元特征量来计算相似度。
第二认证部130利用脸部区域中的眼区域来检测是否眨眼,确认根据眨眼状态识别的密码与预设的密码是否一致。第二认证部130将根据眨眼状态而识别的密码与预设的密码是否一致的结果提供给判断部140。
第二认证部130可利用脸部特征点从所述脸部区域提取眼区域,利用所述眼区域的像素值生成特定维的像素矢量,通过适用主成分分析(PCA:Principal ComponentAnalysis)来缩小所述像素矢量的维数,并通过将支持向量机(SVM:Support VectorMachine)适用到所述已缩小的维数的像素矢量来检测是否眨眼。
第二认证部130提取根据眨眼状态识别的密码。例如,第二认证部130可根据预设的识别基准,提取通过图像输入的密码后,判断所述密码是否与预设并存储在用户认证装置100中的密码一致,其中,所述预设的识别基准为:当只眨左眼时被识别为0,只眨右眼时被识别为1,同时眨两眼时被识别为2。
判断部140可根据第一认证部120的认证结果及第二认证部130的认证结果来判断用户认证成功。例如,所述脸部认证的结果及所述密码认证的结果皆被判断为认证成功时,可判断用户认证成功。
下面参照图2至图5来说明用户认证方法。后述的用户认证方法通过前述的用户认证装置100执行,因此,对相应的内容不做重复说明,但本发明所属领域的普通技术人员能够通过前述的记载内容理解本发明的用户认证方法的一实施例。
图2是用于说明本发明的用户认证方法的一实施例的流程图。图2中公开的一实施例涉及接收用户的图像数据并通过脸部认证及密码认证来执行用户认证的实施例。
参照图2,用户认证装置100从图像拍摄设备接收用户的图像数据(步骤S210)。用户认证装置100利用帧图像中的关键帧图像及一般帧图像来检测脸部区域(步骤S220)。
用户认证装置100利用脸部区域中的眼区域来检测是否眨眼,确认根据眨眼状态识别的密码与预设的密码是否一致(步骤S230)。
在步骤S230的一实施例中,用户认证装置100利用脸部特征点来从所述脸部区域中检测眼区域,利用眼区域的像素值而生成特定维的像素矢量,利用所述像素矢量检测是否眨眼。然后,基于预设的基准,提取根据眨眼状态识别的密码。作为一例,所述预设的基准是基于左眼的眨眼状态及右眼的眨眼状态、双眼同时眨眼的状态中的至少一个状态,所述眨眼状态包括眨眼顺序、眨眼次数、闭眼或睁眼状态的维持时间、左眼及右眼的眨眼的组合中的至少一种。
例如,第二认证部130可基于预设的基准识别密码,然后判断所述识别到的密码与预设的密码是否一致,其中,所述预设的基准为:当只眨左眼时为0,只眨右眼时为1,同时眨双眼时为2。
密码的设置及识别可取决于眨眼状态。例如,若只眨左眼时为0,只眨右眼时为1,同时眨双眼时为2,则用户认证装置100可根据左眼、右眼、左眼、双眼的眨眼顺序,将密码确定为‘0102’。可通过设定而变更密码的位数,可预设或存储针对特定用户的密码。
用户认证装置100通过匹配脸部区域与特定脸部模板来执行脸部认证(步骤S240)。
当步骤S240中执行的脸部认证获得成功(步骤S241),步骤S230中执行的密码认证获得成功(步骤S231)时,用户认证装置100判断用户认证成功。
图3是用于说明本发明的用户认证方法的另一实施例的流程图。图3中公开的另一实施例涉及通过处理用户图像数据的各个帧图像中的特定帧图像来确定为关键帧图像,利用关键帧图像检测随后输入的一般帧图像的脸部区域。
参照图3,用户认证装置100接收第0帧图像(第一个帧图像)(步骤S310)。用户认证装置100从第0帧图像中检测脸部区域(步骤S320)。并且,将第0帧图像作为最初的关键帧图像来存储。
当用户认证装置100判断随后输入的帧图像的帧编号除以特定数字(例如,15)而没有余数(步骤S330)时,将相应帧图像更新存储为关键帧图像(步骤S340)。例如,用户认证装置100为了每15次更新关键帧,当帧编号除以15而没有余数时,可将该帧图像定义为关键帧图像。例如,第0、15、30、45、...帧图像可被定义为关键帧图像。举例来说:以第0帧图像为例,因0/15的余数为0,可被存储为关键帧,以下一顺序的第1帧图像为例,因1/15的余数不为0,被处理为一般帧图像。经过这种处理过程,到第15帧图像时,因15/15的余数为0,可被存储为新的关键帧。上述说明中,第0、第1等顺序是用于更新关键帧的过程中为了便利性而而分配的顺序,只要能够获得相同的结果,可分配其他方式的顺序或序号。
用户认证装置100接收第1帧图像(步骤S350)。用户认证装置100利用关键帧图像从第1帧图像中检测脸部区域(步骤S360)。用户认证装置100接收到所有帧图像(步骤S370)时,结束进程。
图4是用于说明本发明的用户认证方法的又一实施例的流程图。图4中公开的又一实施例涉及一种可通过处理用户图像数据的各个帧图像中的一般帧图像,例如第一个被输入的一般帧图像,将相应帧图像存储为关键帧图像的方法。
参照图4,用户认证装置100接收图像数据的各个帧图像中的第一个一般帧图像(步骤S410)。
用户认证装置100通过将滤波器适用到一般帧图像中来消除噪声(步骤S420)。在步骤S420的一实施例中,用户认证装置100针对一般帧图像的各个像素,将通过其周边像素的亮度比值与过滤系数的线性组合而获取的值设定为相应像素的亮度比值,从而能够消除噪声。这种过程如以下的[数学式1]。
[数学式1]
x′i=xi-2c0+xi-1c1+xic2+xi+1c3+xi+2c4
(但,x:帧编号,i:像素编号,c:过滤系数)
用户认证装置100构成对一般帧图像的图形金字塔(步骤S430)。更具体而言,用户认证装置100通过缩小一般帧图像而生成不同大小的多个图形。
用户认证装置100利用针对一般帧图像的图形金字塔来从相应帧图像中检测脸部区域(步骤S440)。在步骤S440的一实施例中,用户认证装置100从通过缩小一般帧图像而生成的不同大小的多个图形中分别检测候选脸部区域,利用候选脸部区域中的共同区域从一般帧图像中检测脸部区域。
在此,用户认证装置100可利用矩形特征来分别从多个图形中检测脸部区域及脸部特征点(例如,眼、鼻、嘴等)。
用户认证装置100将一般帧图像存储为关键帧图像(步骤S450)。例如,关键帧图像的数据包括脸部检测数据和图像数据。脸部检测数据包括脸部区域属性及脸部特征点位置属性,图形数据包括颜色模型属性及像素数据属性。若用可扩展标记语言(XML)格式例示关键帧图像数据,则如以下例示代码。
[例示代码]
<key_frame_data number=“帧编号”>
-<detection_data>
<face_rect first=“左上坐标”last=“右下坐标”/>
<landmarks left_eye=“左眼坐标”right_eye=“右眼坐标”……/>
</detection_data>
-<image_data>
<color_model=“gray”/>
<pixel_data=“”/>
</image_data>
</key_frame_data>
[例示代码]的<image_data>包括作为关键帧图像的图形像素数据的颜色模型属性<color_model=“gray”/>和像素数据属性<pixel_data=“”/>。图形像素数据用于从一般帧图像中提取脸部检测区域。
图5是用于说明本发明的用户认证方法的又一实施例的流程图。图5中公开的又一实施例涉及一种能够利用用户的图像数据的各个帧图像中的关键帧图像来从一般帧图像中检测脸部区域的方法。
参照图5,用户认证装置100比较关键帧图像与一般帧图像而生成包括帧间差信息的帧差图像(步骤S510)。
用户认证装置100对帧差图像执行二值化而形成二值帧图像(步骤S520)。在步骤S520的一实施例中,用户认证装置100针对帧差图像的各个像素,比较像素的亮度比值与阈值,若像素的亮度比值为阈值以上,则将相应像素转换成255,即白色,若像素的亮度比值为阈值以下,则将相应像素转换成0,即黑色,由此生成二值帧图像。
用户认证装置100将滤波器适用到二值帧图像中来消除噪声(步骤S530)。在步骤S530的一实施例中,用户认证装置100可将对应二值帧图像噪声的像素的亮度比值置换为周边像素的中值来消除噪声。
用户认证装置100利用二值帧图像来从一般帧图像中确定脸部检测区域(步骤S540)。在步骤S540的一实施例中,用户认证装置100从二值帧图像中提取包括白色像素的矩形区域,将包括所述各个矩形区域的最终矩形区域确定为脸部检测区域。
用户认证装置100构成对脸部检测区域的图形金字塔(步骤S550)。在步骤S550的一实施例中,用户认证装置100通过缩小脸部检测区域来生成不同大小的多个图形,由此构成图形金字塔。
用户认证装置100利用针对脸部检测区域的图形金字塔从相应帧图像中检测脸部区域(步骤S560)。
在步骤S560的一实施例中,分别从多个图形检测候选脸部区域,利用检测到的候选脸部区域的共同区域来检测脸部区域。在此,用户认证装置100可利用矩形特征来分别从多个图形中检测脸部区域和脸部特征点(例如,眼、鼻、嘴等)。
图6是用于说明利用关键帧图像,从一般帧图像检测脸部区域的过程的参照图。
参照图6,用户认证装置100比较图6(a)的关键帧图像和图6(b)的一般帧图像,从而生成如图6(c)的仅包括帧间差信息的帧差图像。
用户认证装置100对图6(c)的帧差图像执行二值化及中值滤波处理,从而生成如图6(d)的二值帧图像。
一实施例中,用户认证装置100针对图6(c)的帧差图像的各个像素,比较像素的亮度比值与阈值,若像素的亮度比值为阈值以上,则将相应像素转换成255,即白色,若像素的亮度比值为阈值以下,则将相应像素转换成0,即黑色,由此执行二值化。
用户认证装置100利用图6(d)的二值帧图像来从一般帧图像中确定脸部检测区域(步骤S540)。
一实施例中,用户认证装置100从图6(d)的二值帧图像中提取包括白色像素的多个矩形区域,将包括所述各个矩形区域的最终矩形区域确定为脸部检测区域。即,如图6(e)所示,用户认证装置100可从一般帧图像中确定脸部检测区域(变化区域)。
如图6(f)所示,用户认证装置100从图6(e)的脸部检测区域中检测脸部区域。
图7是用于说明通过构成帧图像的图形金字塔来检测脸部区域的过程的参照图。
参照图7,用户认证装置100缩小一般帧图像而生成如图7(a)所示的不同大小的多个图形。用户认证装置100分别从如图7(a)的不同大小的多个图形中检测候选脸部区域。如图7(b)所示,用户认证装置100可利用分别从多个图形中检测的候选脸部区域的共同区域来检测脸部区域。
另外,利用关键帧图像与一般帧图像之间的帧差图像来从一般帧图像中检测脸部区域时,用户认证装置100从一般帧图像中检测脸部检测区域,缩小脸部检测区域而生成如图7的(a)的不同大小的多个图形。
用户认证装置100分别从如图7(a)的不同大小的多个图形中检测候选脸部区域。如图7(b)所示,用户认证装置100可利用分别从多个图形中检测的候选脸部区域的共同区域来检测脸部区域。
图8是表示用于检测脸部区域的矩形特征(对称型、非对称型)的图。图9是用于说明利用图8的矩形特征来检测脸部区域的过程的参照图。所述图8或图9中例示的矩形可被理解为用于脸部区域检测的特征,更具体而言,可被理解为能够较好反映正面脸部区域的特征的、具有对称性质的类海尔特征(haar-like feature)(a)和反映非正面脸部区域的特征而提出的非对称性的矩形特征(b)。
参照图8和图9,用户认证装置100(图1)从图像拍摄设备200(图1)接收到图像数据的各个帧中的特定帧时,从特定帧检测脸部区域及脸部特征点(例如,眼、鼻、嘴等)。
一实施例中,用户认证装置100(图1)的脸部区域检测部110从图像数据的各个帧中检测脸部候选区域,定义对所述检测出的脸部候选区域的矩形特征(或四角特征点模型),基于根据AdaBoost学习算法学习所述矩形特征的学习资料来检测脸部区域,能够以矩形形态检测脸部区域。并且,脸部区域检测部110可检测检出的脸部区域中包括的脸部特征点。
一般而言,在包括正面脸部区域的帧中,如眼、鼻、嘴等的脸部固有结构特性均匀地分布在整个图象上,且对称。但是,在包括非正面脸部区域的帧中,如眼、鼻、嘴等的脸部固有结构特性未均匀地分布在图像上,因此非对称,并集中在狭小的范围内,因脸部轮廓也不呈直线,混合着多个背景区域。
因此,还考虑到利用如图8(a)的对称特征点时难以获得非正面脸部区域的较高检测性能的问题,更优选地,本实施例中除了使用如图8(a)所示的对称特征点之外,还使用如图8(b)所示的非对称特征点。如图8(b)所示的非对称特征点与如图8(a)的对称特征点不同,由非对称的形态、结构、模样构成,较好地反映了非正面脸部的结构特性,对非正面脸部区域的检测效果突出。即,可利用如图8(a)所示的对称特征点来从如图9(a)所示的帧中检测脸部区域,可利用如图8(b)所示的非对称特征点来从如图9(b)所示的帧中检测脸部区域。
这种脸部区域检测及脸部特征点检测可通过多个公知技术来实现。作为一例,脸部区域检测及脸部特征点检测可利用AdaBoost学习算法及主动形状模型(ASM:ActiveShape Model)来实现。作为另一例,有关脸部区域检测及脸部特征点检测的详细说明可参照包括本发明人所提供的韩国授权专利第10-1216123号(2012年12月20日授权)、韩国授权专利第10-1216115号(2012年12月20日授权)在内的多篇论文和专利资料,因此省略其详细说明。
图10是用于说明从脸部区域中检测眨眼的过程的参照图。
参照图10,用户认证装置100利用脸部特征点中如眼区域周边的四个特征点等来从脸部区域10中检测眼区域。在此,举例来说,针对眼区域的图形,剪切(crop)成位图并进行旋转校正后,转换成20*20像素大小的黑白图形20。用户认证装置100进行对眼区域黑白图形20的直方图正态化。用户认证装置100利用眼区域的黑白图形20的像素值(20*20)而生成如400维的像素矢量。
用户认证装置100对400维的像素矢量应用主成分分析(Principal ComponentAnalysis,PCA)30来获得200维的缩小像素矢量,将已缩小的像素矢量输入到SVM(SupportVector Machine)40中。如上所述,当利用主成分分析缩小SVM40输入资料的维数时,能够提高SVM40的识别速度,大幅减少包括支持向量及组合系数的数据库的大小。例如,用户认证装置100可构成200维的被缩小的输入矢量,根据SVM(40)的判别函数来检测是否眨眼。
本发明的实施例包括计算机可读介质,其包括用于执行多种通过计算机实现动作的计算机程序指令。所述计算机可读介质可单独包括或以组合的形式包括程序指令、数据文件、数据结构等。所述介质可以是为了实施本发明而特别设计和构成的介质,或者也可以是计算机软件领域的普通技术人员公知而可使用的介质。计算机可读记录介质的例子包括:硬盘、软盘及磁带等磁性介质(magnetic media)、CD-ROM、DVD、USB驱动器等光学介质(optical media)、光盘(floptical disk)等磁光学介质(magneto-optical media)以及只读存储器(ROM)、随机存取存储器(RAM)、闪存等特别构成为存储和执行程序指令的硬件装置。所述介质也可以是包括传送指定程序指令、数据结构等的信号的载波的光或金属线、波导管等的传送介质。程序指令的例子,不仅包括通过编译器产生的机器语言代码,还包括使用解释器等而能够由计算机运行的高级语言代码。
以上参照限定的实施例和附图来说明了本发明,但本发明并不限定于所述实施例,本发明所属技术领域的普通技术人员能够通过所述记载内容进行多种修改及变形。因此,应根据权利要求书来理解本发明的思想,其等同或等价的变形均属于本发明技术思想的范畴。

Claims (15)

1.一种用户认证方法,所述用户认证方法为在用户认证装置中执行的用户认证方法,其特征在于,包括如下步骤:
当从图像拍摄设备接收用户的图像数据时,利用所述图像数据的各个帧图像来检测脸部区域和脸部特征点;
通过匹配所述脸部区域与特定脸部模板来执行脸部认证;
根据利用所述脸部特征点提取的眼区域的图形来检测是否眨眼,根据预设的基准,并基于所述眨眼状态来识别密码,确认已识别的所述密码与预设的密码是否一致,由此执行密码的认证;以及
根据所述脸部认证的结果和所述密码认证的结果来判断所述用户认证成功。
2.根据权利要求1所述的用户认证方法,其特征在于,
利用所述图像数据的各个帧图像来检测脸部区域及脸部特征点的步骤包括如下步骤:
从所述帧图像中的特定帧图像中检测脸部区域并将所述特定帧图像定义为关键帧图像;以及
以所述关键帧图像为基准从一般帧图像中提取变化区域并利用所述变化区域从所述一般帧图像中检测脸部区域。
3.根据权利要求2所述的用户认证方法,其特征在于,
从所述帧图像中的特定帧图像中检测脸部区域并将所述特定帧图像定义为关键帧图像的步骤包括如下步骤:
针对所述特定帧图像的各个像素,将通过其周边像素的亮度比值与多个过滤系数的线性组合来获取的值设定为相应像素的亮度比值,从而消除包括在所述特定帧图像中的噪声。
4.根据权利要求2所述的用户认证方法,其特征在于,
从所述帧图像中的特定帧图像中检测脸部区域并将所述特定帧图像定义为关键帧图像的步骤包括如下步骤:
当所述特定帧图像的帧编号除以特定数字而没有余数时,将所述特定帧图像确定为关键帧图像。
5.根据权利要求2所述的用户认证方法,其特征在于,
以所述关键帧图像为基准而从所述一般帧图像中提取变化区域并利用所述变化区域从所述一般帧图像中检测脸部区域的步骤包括如下步骤:
比较所述关键帧图像与所述一般帧图像来生成包括帧间差信息的帧差图像;
对所述帧差图像执行二值化来生成所述帧差图像对应的二值帧图像;
将滤波器适用到所述二值帧图像中以消除噪声;
利用所述二值帧图像来从所述一般帧图像中确定脸部检测区域;以及
从所述脸部检测区域中检测脸部区域。
6.根据权利要求5所述的用户认证方法,其特征在于,
对所述帧差图像执行二值化来生成所述帧差图像对应的二值帧图像的步骤包括如下步骤:
比较所述帧差图像的各个像素的亮度比值与阈值;
当所述像素的亮度比值为阈值以上时,将相应像素转换成白色;以及
当所述像素的亮度比值为阈值以下时,将相应像素转换成黑色。
7.根据权利要求6所述的用户认证方法,其特征在于,
将滤波器适用到所述二值帧图像中以消除噪声的步骤包括如下步骤:
将对应所述二值帧图像噪声的像素的亮度比值置换为周边像素的亮度比值的中值。
8.根据权利要求6所述的用户认证方法,其特征在于,
利用所述二值帧图像从所述一般帧图像中确定脸部检测区域的步骤包括如下步骤:
从所述二值帧图像中提取包括白色像素的多个矩形区域;以及
将包括所述各个矩形区域的最终矩形区域确定为脸部检测区域。
9.根据权利要求5所述的用户认证方法,其特征在于,
从所述脸部检测区域中检测脸部区域的步骤包括如下步骤:
缩小所述脸部检测区域而生成不同大小的多个图形;
分别从所述多个图形中检测候选脸部区域;以及
利用分别从所述多个图形中检测的候选脸部区域的共同区域来检测相应帧图像的脸部区域。
10.根据权利要求9所述的用户认证方法,其特征在于,
从所述脸部检测区域中检测脸部区域的步骤包括如下步骤:
分别从所述多个图形中检测脸部候选区域,定义针对检测出的所述脸部候选区域的矩形特征,基于根据AdaBoost算法学习所述矩形特征的学习资料来检测脸部区域;以及
基于主动形状模型技术从检测出的所述脸部区域中检测脸部特征点。
11.根据权利要求1所述的用户认证方法,其特征在于,
执行所述脸部认证的步骤包括:
比较所述脸部区域的二元特征量与已存储的特定脸部模板的二元特征量来计算相似度,根据计算得出的所述相似度来输出所述脸部认证的结果。
12.根据权利要求1所述的用户认证方法,其特征在于,
根据利用所述脸部特征点提取的眼区域的图形来检测是否眨眼,确认基于所述眨眼状态来识别的密码与预设的密码是否一致的步骤,包括如下步骤:
利用脸部特征点从所述脸部区域提取眼区域;
利用所述眼区域的像素值来生成特定维的像素矢量;
适用主成分分析来缩小所述像素矢量的维数;以及
通过将支持向量机适用到已缩小维数的所述像素矢量中来检测是否眨眼。
13.根据权利要求1所述的用户认证方法,其特征在于,
所述预设的基准是基于左眼的眨眼状态、右眼的眨眼状态、双眼同时眨眼的状态中的至少一个状态,
所述眨眼状态包括眨眼顺序、眨眼次数、闭眼或睁眼状态的维持时间、左眼及右眼的眨眼组合中的至少一种。
14.一种用户认证装置,其特征在于,包括:
脸部区域检测部,当从图像拍摄设备接收用户图像数据时,利用所述图像数据的各个帧图像来检测脸部区域和脸部特征点;
第一认证部,通过匹配所述脸部区域和特定脸部模板来执行脸部认证;
第二认证部,根据利用所述脸部特征点提取的眼区域的图形来检测是否眨眼,根据预设的基准,并基于所述眨眼状态来识别密码,确认已识别的所述密码与预设的密码是否一致;以及
判断部,根据所述第一认证部的认证结果和所述第二认证部的认证结果来判断所述用户认证成功。
15.一种记录介质,所述介质作为存储用于运行在用户认证装置中执行的用户认证方法的计算机程序的记录介质,其特征在于,包括如下功能:
当从图像拍摄设备接收用户图像数据时,利用所述图像数据的各个帧图像来检测脸部区域和脸部特征点;
通过匹配所述脸部区域和特定脸部模板来执行脸部认证;
根据利用所述脸部特征点提取的眼区域的图形来检测是否眨眼,根据预设的基准,并基于所述眨眼状态来识别密码,确认已识别的所述密码与预设的密码是否一致,由此执行密码的认证;以及
根据所述脸部认证的结果和所述密码认证的结果来判断所述用户认证成功。
CN201580025201.XA 2014-05-12 2015-04-22 用户认证方法、执行该方法的装置及存储该方法的记录介质 Active CN106663157B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2014-0056802 2014-05-12
KR20140056802A KR101494874B1 (ko) 2014-05-12 2014-05-12 사용자 인증 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체
PCT/KR2015/004006 WO2015174647A1 (ko) 2014-05-12 2015-04-22 사용자 인증 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체

Publications (2)

Publication Number Publication Date
CN106663157A true CN106663157A (zh) 2017-05-10
CN106663157B CN106663157B (zh) 2020-02-21

Family

ID=52594126

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580025201.XA Active CN106663157B (zh) 2014-05-12 2015-04-22 用户认证方法、执行该方法的装置及存储该方法的记录介质

Country Status (6)

Country Link
US (1) US20170076078A1 (zh)
JP (1) JP6403233B2 (zh)
KR (1) KR101494874B1 (zh)
CN (1) CN106663157B (zh)
SG (2) SG10201805424RA (zh)
WO (1) WO2015174647A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190345A (zh) * 2018-07-25 2019-01-11 深圳点猫科技有限公司 一种基于人工智能验证登录对象的方法及其系统

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104918107B (zh) * 2015-05-29 2018-11-02 小米科技有限责任公司 视频文件的标识处理方法及装置
JP2017004398A (ja) * 2015-06-15 2017-01-05 株式会社セキュア 認証装置及び認証方法
RU2018128778A (ru) * 2016-01-08 2020-02-10 Виза Интернэшнл Сервис Ассосиэйшн Защищенная аутентификация с использованием биометрических входных данных
EP3403217A4 (en) 2016-01-12 2019-08-21 Princeton Identity, Inc. SYSTEMS AND METHODS FOR BIOMETRIC ANALYSIS
US9619723B1 (en) 2016-02-17 2017-04-11 Hong Kong Applied Science and Technology Research Institute Company Limited Method and system of identification and authentication using facial expression
EP3602488A4 (en) * 2017-03-31 2021-05-26 3M Innovative Properties Company IMAGE-BASED COUNTERFEIT DETECTION
US10097538B1 (en) * 2017-08-12 2018-10-09 Growpath, Inc. User authentication systems and methods
KR101812969B1 (ko) 2017-11-06 2018-01-31 주식회사 올아이티탑 인체정보를 이용한 보안 및 해킹 방지기능을 구비하는 디지털 가상화폐의 거래방법
KR101973592B1 (ko) * 2017-12-20 2019-05-08 주식회사 올아이티탑 인체정보를 이용한 보안 및 해킹 방지기능을 구비하는 디지털 가상화폐의 거래방법
KR102021491B1 (ko) * 2018-04-24 2019-09-16 조선대학교산학협력단 사용자 인증을 위한 장치 및 방법
CN111652018B (zh) * 2019-03-30 2023-07-11 上海铼锶信息技术有限公司 一种人脸注册方法和认证方法
US20210248217A1 (en) * 2020-02-08 2021-08-12 Sujay Abhay Phadke User authentication using primary biometric and concealed markers
JP7200965B2 (ja) * 2020-03-25 2023-01-10 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN111597911B (zh) * 2020-04-22 2023-08-29 成都运达科技股份有限公司 一种基于图像特征快速提取关键帧的方法和系统
CN111523513B (zh) * 2020-05-09 2023-08-18 深圳市华百安智能技术有限公司 通过大数据筛选进行人员入户安全验证的工作方法
US11792188B2 (en) 2020-08-05 2023-10-17 Bank Of America Corporation Application for confirming multi-person authentication
US11528269B2 (en) 2020-08-05 2022-12-13 Bank Of America Corporation Application for requesting multi-person authentication
US11792187B2 (en) 2020-08-05 2023-10-17 Bank Of America Corporation Multi-person authentication
CN113421079B (zh) * 2021-06-22 2022-06-21 深圳天盘实业有限公司 一种基于共享充电宝租赁柜的借还共享充电宝方法
WO2023073838A1 (ja) * 2021-10-27 2023-05-04 日本電気株式会社 認証装置、認証システム、認証方法、及び非一時的なコンピュータ可読媒体
KR102643277B1 (ko) * 2022-03-10 2024-03-05 주식회사 메사쿠어컴퍼니 얼굴인식을 이용한 비밀번호 입력 방법 및 시스템
KR102636195B1 (ko) * 2022-03-17 2024-02-13 한국기술교육대학교 산학협력단 눈깜빡임 패턴을 이용한 십진 패스워드 입력 장치 및 그 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101023446A (zh) * 2004-09-17 2007-08-22 三菱电机株式会社 脸部认证装置和脸部认证方法
WO2013100699A1 (en) * 2011-12-29 2013-07-04 Intel Corporation Method, apparatus, and computer-readable recording medium for authenticating a user

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233816A (ja) * 2002-02-13 2003-08-22 Nippon Signal Co Ltd:The アクセスコントロールシステム
KR100553850B1 (ko) * 2003-07-11 2006-02-24 한국과학기술원 얼굴인식/표정인식 시스템 및 방법
JP2010182056A (ja) * 2009-02-05 2010-08-19 Fujifilm Corp パスワード入力装置及びパスワード照合システム
KR20120052596A (ko) * 2010-11-16 2012-05-24 엘지이노텍 주식회사 카메라 모듈 및 그의 이미지 처리 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101023446A (zh) * 2004-09-17 2007-08-22 三菱电机株式会社 脸部认证装置和脸部认证方法
WO2013100699A1 (en) * 2011-12-29 2013-07-04 Intel Corporation Method, apparatus, and computer-readable recording medium for authenticating a user

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190345A (zh) * 2018-07-25 2019-01-11 深圳点猫科技有限公司 一种基于人工智能验证登录对象的方法及其系统

Also Published As

Publication number Publication date
SG10201805424RA (en) 2018-08-30
JP6403233B2 (ja) 2018-10-10
CN106663157B (zh) 2020-02-21
US20170076078A1 (en) 2017-03-16
SG11201607280WA (en) 2016-10-28
WO2015174647A1 (ko) 2015-11-19
KR101494874B1 (ko) 2015-02-23
JP2017522635A (ja) 2017-08-10

Similar Documents

Publication Publication Date Title
CN106663157A (zh) 用户认证方法、执行该方法的装置及存储该方法的记录介质
CN108073889B (zh) 虹膜区域提取的方法和设备
US11915515B2 (en) Facial verification method and apparatus
CN109948408B (zh) 活性测试方法和设备
WO2020207189A1 (zh) 身份验证方法、装置、存储介质和计算机设备
CN108664782B (zh) 面部验证方法和设备
US10956719B2 (en) Depth image based face anti-spoofing
US10095927B2 (en) Quality metrics for biometric authentication
CN105450411B (zh) 利用卡片特征进行身份验证的方法、装置及系统
US11790494B2 (en) Facial verification method and apparatus based on three-dimensional (3D) image
AU2019219813A1 (en) Transaction verification system
US20180034852A1 (en) Anti-spoofing system and methods useful in conjunction therewith
US20140044320A1 (en) Texture features for biometric authentication
CN111881429A (zh) 活性检测方法和设备以及面部验证方法和设备
CN113614731A (zh) 使用软生物特征的认证验证
Tyagi et al. Security enhancement through iris and biometric recognition in atm
Ashiba Proposed framework for cancelable face recognition system
WO2020232889A1 (zh) 支票取现方法、装置、设备及计算机可读存储介质
KR102530141B1 (ko) 인공지능 기반 얼굴 매칭률 산출을 이용하여 얼굴 인증을 하기 위한 방법 및 장치
Yerramsetti et al. APPLICATION OF MULTI FACTORED BIOMETRIC MEASURE FOR DATA SECURITY IN ATM.
CN116580462A (zh) 基于聚类决策的深度伪造图像检测方法及相关设备
Kaur et al. Implementation of ICA based score level fusion of iris and ear biometrics
Akinnuwesi Boluwaji et al. AUTOMATED STUDENTS'ATTEDANCE TAKING IN TERTIARY INSTITUTION USING HYBRIDIZED FACIAL RECOGNITION ALGORITHM
CN113269120A (zh) 用于人脸图像质量识别的方法、系统和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20170613

Address after: Room 61 and B, building 4, block B, No. two, road, Dongpu, Tianhe District, Guangdong, Guangzhou

Applicant after: Guangzhou Ying Tong Technology Co.,Ltd.

Address before: Seoul, South Kerean

Applicant before: Jin Gao

TA01 Transfer of patent application right
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1236650

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20211203

Address after: 510663 room g-1101, first floor, building 28, No. 61, Dalingshan Road, Tianhe District, Guangzhou City, Guangdong Province

Patentee after: Guangzhou Yuanrun Information Technology Development Co.,Ltd.

Address before: 510000 rooms a and B, 4th floor, block B, No. 61, Dongpu Second Road, Tianhe District, Guangzhou, Guangdong

Patentee before: Guangzhou Ying Tong Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230110

Address after: Room G-1102, Floor 1, Building 28, No. 61, Dalingshan Road, Tianhe District, Guangzhou, Guangdong Province, 510663

Patentee after: Guangzhou Jingshi Guangying Information Technology Co.,Ltd.

Address before: 510663 room g-1101, first floor, building 28, No. 61, Dalingshan Road, Tianhe District, Guangzhou City, Guangdong Province

Patentee before: Guangzhou Yuanrun Information Technology Development Co.,Ltd.

TR01 Transfer of patent right