CN111382607A - 活体检测方法、装置及人脸认证系统 - Google Patents

活体检测方法、装置及人脸认证系统 Download PDF

Info

Publication number
CN111382607A
CN111382607A CN201811622520.0A CN201811622520A CN111382607A CN 111382607 A CN111382607 A CN 111382607A CN 201811622520 A CN201811622520 A CN 201811622520A CN 111382607 A CN111382607 A CN 111382607A
Authority
CN
China
Prior art keywords
image
derivative
displacement
characteristic
diagram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811622520.0A
Other languages
English (en)
Inventor
俞佳茜
韩在浚
徐静涛
金智慧
李韩娥
谭航凯
崔昌圭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Samsung Telecom R&D Center
Beijing Samsung Telecommunications Technology Research Co Ltd
Samsung Electronics Co Ltd
Original Assignee
Beijing Samsung Telecommunications Technology Research Co Ltd
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Samsung Telecommunications Technology Research Co Ltd, Samsung Electronics Co Ltd filed Critical Beijing Samsung Telecommunications Technology Research Co Ltd
Priority to CN201811622520.0A priority Critical patent/CN111382607A/zh
Priority to KR1020190122984A priority patent/KR20200083188A/ko
Priority to EP19212226.5A priority patent/EP3674973A1/en
Priority to US16/707,241 priority patent/US11227149B2/en
Publication of CN111382607A publication Critical patent/CN111382607A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Abstract

本申请公开了一种活体检测方法、装置及人脸认证系统。其中该活体检测方法,包括:通过全像素双核摄像头获取图像;将获取的图像进行预处理得到左图和右图;以及根据所述左图和右图,进行活体检测,得到活体检测结果。

Description

活体检测方法、装置及人脸认证系统
技术领域
本发明涉及活体检测技术(liveness detection),更具体地,涉及一种活体检测方法、装置及采用上述活体检测方法和装置的人脸认证系统。
背景技术
活体检测技术是指通过设备捕捉到的信息,来判断交互主体是否为真人活体的技术。有效的活体检测技术可以抵御照片、视频或者面具的攻击,以确保系统的安全性。
活体检测技术广泛应用在生物识别(Biometric Authentication)中,常见的包括人脸活体检测、指纹活体检测、语音活体检测等等。诸如手机的移动终端产品上的活体检测技术的应用包括人脸解锁、人脸支付等等,通常具有反应速度快、安全性能高、鲁棒性强等特点。
在已知活体检测方法中,少量方法依赖于识别结果,例如依赖于身份认证的结果,即在认证过程实施后,算法提取更多的关于此主体的特征,由此再去检测此次交互的主体,是此主体活体,还是此主体的非活体如照片。大部分活体检测方法独立于识别结果,即活体检测是在认证过程之前发生的,是与认证结果相独立的,仅检测交互主体是否为活体,与主体身份认证无关。
传统活体检测技术总体可以分为基于单帧图像的静默活体检测方法和基于多张图像的动态活体检测方法。随着硬件设备的更新,近几年也出现了基于深度信息的活体检测方法和基于双目摄像头也即双目立体视觉技术的活体检测方法。
[1].基于单帧图像的静默活体检测方法
基于单可见光摄像头、单帧图像的活体检测方法是最常见的方法之一。设备采集通常为三通道彩色图像的单帧图像,通过分析单帧图像表象特征来进行活体判断。表象特征包括但不限于图像质量特征、颜色分布、边缘特征等等。近年来,利用卷积神经网络(Convolutional Neural Network,简称CNN)来进行端到端的学习也是常见的方法之一。
[2].基于多张图像的动态活体检测方法
真人活体通常在有意或无意状态下,短时间内展现出一定动态特征,如眨眼、点头、表情运动等非刚体运动等。基于检测此类特征的方法被称为动态活体检测方法。动态活体检测通常需要设备采集一段时间内的视频信息,或相隔一段时间的多帧图像。通过检测帧与帧之间图像中人脸特征的变化来判断主体的活体情况。
[3].基于深度信息的活体检测方法
近年来,如手机的移动端设备上搭载可捕捉深度信息的传感器成为了一种趋势。捕捉深度信息的常见技术包括3D结构光技术(Structured light)和飞行时间ToF(Timesof Flight)技术。3D结构光技术的基本原理是,通过近红外激光器,将具有一定结构特征的光纤投射到被拍摄的物体上,再由红外摄像头进行采集。这种具备一定结构的结构光,会因被摄物体的不同深度区域,而采集不同的图像相位信息,进而通过运算单元将这种结构的变化换算为深度信息。ToF技术则是利用红外光反射的时间差,来估计被摄物体的不同深度信息。通过得到的深度信息,基于深度信息的活体检测方法可以快速区分如照片攻击、屏幕攻击等等的平面攻击。
[4].基于双目摄像头也即双目立体视觉技术的活体检测方法
另一种可以提供类似深度信息是采用双目摄像头,利用双目立体视觉算法来计算在点P的物体通过两个摄像头成像的相位差,来估计被摄物体的不同深度信息。假设在点P的物体在左图成像中的位置为xL,通过匹配计算,在右图中的位置为xR,则点P的相位差为:
d=xL-xR
进而利用几何三角函数公式,我们可以得到点P到成像面的深度距离Z为Z=Bf/d
其中f摄像头焦距;B是基线距离(Baseline),即两个摄像头之间的距离。例如,常见的手机前置或后置双目摄像头的基线大约为1厘米左右。假设硬件设备即摄像头已经过标定,B和f即为已知确定的值,则深度信息和相位差为一一对应关系。立体视觉技术的关键点即在准确的找到左图的点P在右图中相匹配的位置。
在公开文献中,没有针对全像素双核设备特点的活体检测技术。
上述四种方法依赖于不同的硬件设备,其存在的问题如下:
上述[1]中基于单帧图像的静默活体检测技术仅依赖于表象特征,在复杂场景、大范围光照变化情况下鲁棒性降低。基于彩色通道的图像特征亦存在跨设备鲁棒性会降低的情况。没有深度信息或等效于深度信息的特征。
上述[2]中基于多帧图像的动态活体检测技术耗时长、功耗高,对于需要系统反应时间快的移动端系统的例如人脸解锁功能的要求,用户体检较差。
上述[3]中可以提供深度信息的传感器及摄像头平均成本高,功耗大,增加产品的最终成本。
上述[4]中双目立体视觉即要求设备配置两个或以上的摄像头,摄像头间距有限的情况下,通常会带来深度估计准确率下降的结果。另一方面,考虑直接使用双目立体视觉技术,应用在全像素双核摄像头上,规划为等价的双目视觉系统。此系统的基线约为1毫米,远小于现有技术发展水平中可以处理的最小距离。若应用此技术,无法达到可以应用的效果。
现有技术方案中,仅依赖于单一传感器的静默活体检测技术无法估计有效的深度信息或提供等效于深度信息的特征,从而在检测效果上有一定限制。可估计深度信息或提供等效于深度特征的方案依赖于成本较高的深度传感器组合或多个摄像头,增加方案的整体成本。
发明内容
提供本发明是为了至少解决上述问题,并至少提供以下优点。
本发明提出了一种基于全像素双核摄像头的活体检测方法。从硬件角度讲,本发明仅需要一个摄像头,即全像素双核摄像头。相比于多摄像头方案、深度传感器方案,本发明对硬件设备要求简单,成本较低。
本发明通过设备采集的原始图像,经过预处理得到等效的左图右图,再经过四种本发明提出的图像处理操作,判断场景中前景图像是否为真人活体特征,来进行活体检测的方法。
本发明提出四种图像处理操作:减法操作,位移操作,二次减法操作和求导操作。通过本发明提出的图像处理操作,可以有效的从左图右图中分离前景背景,并提取出前景信息,其作用等效于利用深度信息。
本发明提出应用卷积神经网络进行端到端学习,对于前景信息是否为真人活体特征,如真人Ω形状等特征进行活体检测判断。
本发明所涉及的活体检测方法与活体身份的认证结果无关。
根据本发明的一方面,提供一种活体检测方法,包括:通过全像素双核摄像头获取图像;将获取的图像进行预处理得到左图和右图;以及根据所述左图和右图,进行活体检测,得到活体检测结果。
其中,将获取的图像进行预处理得到左图和右图包括:分离获取的图像的全部像素位置的左右信号;通过重新排列各个像素的左右信号,得到左图和右图。
根据所述左图和右图,进行活体检测,得到活体检测结果,包括:对左图和右图进行处理;将处理后得到的图像输入到卷积神经网络,输出活体检测结果。
其中对左图和右图进行处理包括以下至少之一:通过减法操作计算左图右图的像素差值,得到相差图;通过位移操作裁取左图右图不同位置的截断图像,将左图和右图向不同方向内进行平移,形成新的位移左图和位移右图,对新的位移左图和位移右图进行减法操作,得到位移相差图;通过对相差图和位移相差图进行二次减法操作获得二次相差图;
其中对左图和右图进行处理还包括以下之一:通过求导操作计算左图与右图的差值相对于左图的变化量,得到导数图;通过求导操作计算位移相差图相对于位移左图的变化量,得到位移导数图;通过对导数图和位移导数图进行二次求导操作获得二次导数图。
其中对左图和右图进行处理还包括以下之一:通过求导操作计算左图与右图的差值相对于右图的变化量,得到导数图;通过求导操作计算位移相差图相对于位移右图的变化量,得到位移导数图;通过对相差图和位移相差图进行二次减法操作获得二次相差图;通过对导数图和位移导数图进行二次求导操作获得二次导数图。
其中,将处理后得到的图像输入到卷积神经网络,输出活体检测结果,包括:将得到的二次相差图或二次导数图作为信息输入,输入至卷积神经网络,得到活体检测结果。
其中,将处理后得到的图像输入到卷积神经网络,输出活体检测结果,包括:将左图、右图、位移左图、位移右图分别经过第一卷积神经网络,得到相应的第一特征图;相应的第一特征图经过特征级减法操作和导数操作,得到特征相差图、特征位移相差图、特征导数图、或特征位移导数图;特征相差图、特征位移相差图、特征导数图、或特征位移导数图分别经过第二卷积神经网络,得到相应的第二特征图;相应的第二特征图经过特征级二次减法操作和特征级二次导数操作,得到特征二次相差图或特征二次导数图;特征二次相差图或特征二次导数图经过第三卷积神经网络,得到活体检测结果。
其中,将处理后得到的图像输入到卷积神经网络,输出活体检测结果,包括:将左图、右图、位移左图、位移右图分别经过第一卷积神经网络,得到相应的第一特征图;相应的第一特征图经过经过特征级二次减法操作和特征级二次导数操作,得到特征二次相差图或特征二次导数图;特征二次相差图或特征二次导数图经过卷积神经网络,得到活体检测结果。
根据本发明的另一方面,提供一种活体检测装置,包括:图像获取装置,通过全像素双核摄像头获取图像;图像分离装置,将获取的图像进行预处理得到左图和右图;活体检测结果获得装置,根据所述左图和右图,进行活体检测,得到活体检测结果。
其中图像分离装置被配置为:分离获取的图像的全部像素位置的左右信号;通过重新排列各个像素的左右信号,得到左图和右图。
其中活体检测结果获得装置包括:图像预处理装置,对左图和右图进行处理;特征提取装置,将处理后得到的图像输入到卷积神经网络,输出活体检测结果。
其中图像预处理装置被配置为执行以下至少之一:通过减法操作计算左图右图的像素差值,得到相差图;通过位移操作裁取左图右图不同位置的截断图像,将左图和右图向不同方向内进行平移,形成新的位移左图和位移右图,对新的位移左图和位移右图进行减法操作,得到位移相差图;通过对相差图和位移相差图进行二次减法操作获得二次相差图;
其中图像预处理装置被配置为执行以下之一:通过求导操作计算左图与右图的差值相对于左图的变化量,得到导数图;通过求导操作计算位移相差图相对于位移左图的变化量,得到位移导数图;通过对导数图和位移导数图进行二次求导操作获得二次相差图和二次导数图。
其中图像预处理装置被配置为执行以下之一:通过求导操作计算左图与右图的差值相对于右图的变化量,得到导数图;通过求导操作计算位移相差图相对于位移右图的变化量,得到位移导数图;通过对导数图和位移导数图进行二次求导操作获得二次相差图和二次导数图。
其中特征提取装置被配置为:将得到的二次相差图或二次导数图作为信息输入,输入至卷积神经网络,得到活体检测结果。
其中特征提取装置被配置为:将左图、右图、位移左图、位移右图分别经过第一卷积神经网络,得到相应的第一特征图;相应的第一特征图经过特征级减法操作和导数操作,得到特征相差图、特征位移相差图、特征导数图、或特征位移导数图;特征相差图、特征位移相差图、特征导数图、或特征位移导数图分别经过第二卷积神经网络,得到相应的第二特征图;相应的第二特征图经过特征级二次减法操作和特征级二次导数操作,得到特征二次相差图或特征二次导数图;特征二次相差图或特征二次导数图经过第三卷积神经网络,得到活体检测结果。
其中特征提取装置被配置为:将左图、右图、位移左图、位移右图分别经过第一卷积神经网络,得到相应的第一特征图;相应的第一特征图经过经过特征级二次减法操作和特征级二次导数操作,得到特征二次相差图或特征二次导数图;特征二次相差图或特征二次导数图经过卷积神经网络,得到活体检测结果。
根据本发明的另一方面,提供一种人脸认证系统,包括:图像输入模块,通过全像素双核摄像头拍摄图像;人脸检测模块,进行人脸检测;活体检测模块,在检测到人脸时,进行活体检测;人脸识别模块,在检测到活体时,进行人脸识别;注册/认证模块,根据识别结果,进行注册或认证,其中,活体检测模块采用上述的活体检测装置来实现。
附图说明
通过结合附图,从实施例的下面描述中,本发明这些和/或其它方面及优点将会变得清楚,并且更易于理解,其中:
图1是全像素双核成像原理示意图;
图2是全像素双核技术的双目模型;
图3是全像素双核技术双目模型中左图右图相位差示意图;
图4是根据本发明第一实施例的活体检测方法的整体流程图;
图5是根据本发明第二实施例的活体检测方法的整体流程图;
图6是根据本发明实施例的活体检测方法中得到左图和右图的方法示意图;
图7是根据本发明实施例的活体检测方法中对左图L和右图R进行减法处理操作的方法示意图;
图8是根据本发明实施例的活体检测方法中对左图L和右图R进行位移和减法处理操作的方法示意图;
图9是根据本发明实施例的活体检测方法中对左图L和右图R进行二次减法处理操作的方法示意图;
图10是根据本发明实施例的活体检测方法中对左图L和右图R进行求导处理操作的方法示意图;
图11是根据本发明实施例的活体检测方法中对导数图和位移导数图进行二次求导处理操作的方法示意图;
图12是根据本发明实施例的活体检测方法中卷积神经网络与图像级操作的结合的实现方法示意图;
图13是根据本发明实施例的活体检测方法中卷积神经网络与特征级操作的结合的实现方法示意图;
图14是根据本发明实施例的活体检测方法中卷积神经网络与图像级操作和特征级操作的结合的实现方法示意图;
图15是根据本发明的活体检测装置的框图;以及
图16是人脸认证系统的整体方框图。
具体实施方式
提供参照附图的以下描述以帮助对由权利要求及其等同物限定的本发明的实施例的全面理解。包括各种特定细节以帮助理解,但这些细节仅被视为是示例性的。因此,本领域的普通技术人员将认识到在不脱离本发明的范围和精神的情况下,可对描述于此的实施例进行各种改变和修改。此外,为了清楚和简洁,省略对公知的功能和结构的描述。
下面参照图1-3来说明本发明所采用的全像素双核成像技术。其中,图1是全像素双核成像原理示意图。图2是全像素双核技术的双目模型。图3是全像素双核技术双目模型中左图右图相位差示意图。
本发明的硬件设备采用全像素双核摄像头。全像素双核技术(Dual Pixel,也称2PD)最初用于快速自动对焦,该技术也称全像素双核对焦。“全像素”是指CMOS传感器上的所有像素,“双核”是指每个像素都配置了两个光电二极管,参见图1所示,每个像素都配置了光电二极管A和光电二极管B。因此在拍照时,可以获取两个信号。而在传统的成像技术中,每个像素仅配置一个光电二极管,拍照时仅获得一个信号。这是全像素双核技术的区别于传统成像技术的最大特点之一。
每个像素的两个信号可以类比为人类双眼中左眼和右眼,从而借助相位差来判断物体的远近。相位差(disparity)即同一个物体,在光电二极管A产生的信号(类似左眼)所形成的图像,和在光电二极管B产生的信号(类似右眼)所形成图像中的位置差。不同距离的物体在左图和右图中的相位差不同,从而来判断物体的远近。
如上所述,全像素双核传感器成像过程中所获取的两个信号可以模拟人类双眼的左眼和右眼信号,与双目立体视觉的原理类似。通常将两个信号类比为双目立体视觉中的左图和右图,同一物体在左图上成像的相对位置与在右图上成像的相对位置的差别,我们称为相位差,如图3,相位差d=xL-xR,其中xL为物体在左图上成像位置,xR为物体在右图上成像位置。
利用双目立体视觉模型描述全像素双核成像原理,如图2,我们可以得到相位差d与深度距离u的关系为:
d=xL-xR=D(uF-vu+Fv)/Fu=Df(u)
其中D为双目模型中两个摄像头间的近距离,F为焦距,v是成像元件与透镜的距离。在设备完成校对之后,D、v和F为已知固定值,即相位差d与深度距离u为一一对应关系。
与双目模型不同的是,全像素双核技术存在零视差点,也称收敛点(vergencepoint)。例如,已知在一些设备上,收敛点在35cm处。也即,在35cm处点P的成像在左图和右图中相位差为零。
下面参照图4、5来说明本发明所采用的活体检测方法。图4是根据本发明第一实施例的活体检测方法的整体流程图。图5是根据本发明第二实施例的活体检测方法的整体流程图。
本发明整体流程包括如下步骤(如图4、图5):
步骤一(参照图4的步骤401以及图5的步骤501):设备获取图像I。本发明所描述系统可为手机端,则采集的图像通过手机摄像头采集,随后的方法在手机端在线实施。本发明所描述的方法亦可以应用于云端,则采集的图像可通过其他设备采集,并发送至云端,通过云端算法进行活体检测判断。
步骤二(参照图4的步骤403、405以及图5的步骤503、505):将上述采集到的图像进行预处理得到左图L和右图R
步骤三(参照图4的步骤407、409以及图5的步骤507):对左图L和右图R进行处理操作,得到相差图和/或导数图
步骤四(参照图4的步骤411以及图5的步骤511):将上述得到的相差图和/或导数图,输入到卷积神经网络进行端到端学习,提取有效的特征并输出活体检测结果
其中,步骤三与步骤四可以交替进行。以下将对上述步骤二、步骤三、步骤四逐一描述。
图6是根据本发明实施例的活体检测方法中得到左图和右图的方法示意图。即,图6具体细化了上述步骤二。
采用全像素双核摄像头的设备采集的原始相位图(phase image)在每个像素点包含两个信号。根据本发明,首先分离全部像素位置的左右信号,再通过重新排列各个像素的左右两个信号,得到等效于双目视觉模型的左图L和右图R,示意如图6。
左图L与右图R具有同样的视野范围和图像内容,其区别在于:真实场景中,距离摄像头不同距离的物体,在左图L和右图R中的成像位置具有一定相位差。与常见双目视觉模型不同的是,通过全像素成像技术处理而得到的左图右图的相位差十分小,通常在1到2像素间。一些已知设备存在零视差点,例如在35厘米处左右,也即距离摄像头35厘米的物体在左图右图中的成像位置相同,没有相位差。
通过得到的左右图,本发明通过如下图7-10提出的四种处理对图像进行处理。在具体应用中,可采用全部处理操作,或其中部分操作对图像进行处理。
图7-11是根据本发明实施例的活体检测方法中对左图L和右图R进行处理操作,得到相差图和/或导数图的方法示意图。即,图7-11具体细化了上述步骤三。具体地,图7是根据本发明实施例的活体检测方法中对左图L和右图R进行减法处理操作的方法示意图;图8是根据本发明实施例的活体检测方法中对左图L和右图R进行位移和减法处理操作的方法示意图;图9是根据本发明实施例的活体检测方法中对左图L和右图R进行二次减法处理操作的方法示意图;图10是根据本发明实施例的活体检测方法中对左图L和右图R进行求导处理操作的方法示意图。图11是根据本发明实施例的活体检测方法中对导数图和位移导数图进行二次求导处理操作的方法示意图。
参照图7,减法操作(Subtraction operator)检测左图右图的差异性。本发明提出计算左图右图的像素差值,得到相差图(difference map),记为Id0
相差图=绝对值(左图-右图)
Id0=abs(L-R)
例如,手机摄像头拍照时,若前景的人(人脸)距离摄像头约为35厘米,即零视差点位置,则人脸图像在左图右图中的成像没有视差。当进行减法操作时,由于人脸像在左图右图中处于同一位置,相差图中人脸特征将大幅度减弱。相反,手机拍照时,背景距离摄像头大于35厘米,即背景中的物体一定不在零时差点位置,背景物体在左图右图中的成像一定具有非零的视差。当进行减法操作时,背景物体图像特征将被加强。
通过减法操作得到的相差图特征与成像物体距离直接相关。若物体在零视差点附近(通常为前景物体),则在相差图中几乎没有特征。若物体不在零视差点附近(通常为背景物体),则在相差图中有较强的特征,如图7所示。
参照图8,位移操作(Shifting operator)通过裁取左图右图不同位置的截断图像,类似将左图和右图向不同方向内进行平移,形成新的位移左图和位移右图,继而进行减法操作,得到位移相差图Id1。此操作与图7所示的减法操作为串行关系。
位移相差图=绝对值(位移左图–位移右图)
Id1=abs(L’–R’)
例如,在位移操作之前,前景物体处在零视差点附近,前景物体在左图右图中的成像位置相同;背景物体不在零视差点,在左图右图中具有非零的视差。通过上移左图、下移右图,可使得背景物体在左图右图中的成像具有零视差,类似对齐背景,而前景物体在位移后的左图右图中具有非零的视差。继而,将位移左图和位移右图进行减法操作时,背景物体图像特征将被减弱,而前景物体图像特征将被增强,如图8所示。
通过位移操作及与减法操作结合,得到的位移相差图,前景图像特征总会被增强,强于原始左图右图中的特征;背景图像特征总会被减弱,弱于原始左图右图中的特征。
根据本发明的方法中,位移量的值为超参数,例如1个像素位。一般地,在机器学习中,超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据;需要对超参数进行优化,给算法选择一组最优超参数,以提高学习的性能和效果。
参照图9,二次减法操作(2nd Subtraction operator)用于检测相差图和位移相差图之间的差异,与图7、8所示的减法操作和位移操作是串行关系。上述操作中,在得到的相差图中,前景特征较弱,背景特征较强;在得到的位移相差图中,前景特征被增强,背景特征被减弱。本发明提出进行二次减法操作,计算相差图和位移相差图之间的差异性,并取某一阈值α,例如α=0,等效于取正,得到二次相差图,记为Ids
二次相差图=取最大值(α,位移相差图–相差图)
Ids=max(α,Id1-Id0)
例如,前景图像在位移前的相差图中拥有较弱的图像特征,在位移后的位移相差图中有较强的特征。经过此次减法计算,若取阈值α=0,将在二次相差图中拥有正差值,大于零,即被保留;背景图像,在位移前的相差图中拥有较强的图像特征,在位移后的位移相差图中有较强的特征,经过此次减法计算,将在二次相差图中拥有负差值,经过零阈值判断,被舍去。
通过二次减法操作,前景特征将进一步被增强,背景特征将削弱为零。
参照图10,求导操作(Derivative operator)用于削弱采集图像时,环境光照影响对算法的影响。此处“求导”与数学计算中“求导”类似:计算左图与右图的差值相对于左图的变化量,即变化率,从而得到导数图dId0、位移导数图dId1、或二次导数图dIds
导数图=绝对值(左图-右图)/左图
dId0=abs(L-R)/L
位移导数图=绝对值(位移左图-位移右图)/位移左图
dId1=abs(L’-R’)/L’
例如,在室外拍照时,由于光线较强,左图右图成像亮度大,图像像素的绝对值大,则他们的差值也会相对较大;在低光照环境中,左图右图成像亮度低,图像像素的绝对值小,则他们的差值也会相对较小。存在这样的差异会影响对前景图像特征和背景图像特征差异的检测。相反,通过计算变化值相对于左图的变化率,求导操作消除了原始图中亮度绝对值大小的影响,所以求导操作使得算法对室外光照的影响更加不敏感。
显然,本发明也可以计算左图与右图的差值相对于右图的变化量,即变化率,从而得到导数图dId0、位移导数图dId1、或二次导数图dIds
导数图=绝对值(左图-右图)/右图
dId0=abs(L-R)/R
位移导数图=绝对值(位移左图-位移右图)/位移右图
dId1=abs(L’-R’)/R’
另外,在本发明的方法中,求导操作可以代替上述图7-9所述的减法操作、或位移操作。例如,对于左图和右图,若进行减法操作,则得到相差图;若进行导数操作,则得到导数图;两者操作可选其一,而非两者都用。对于左图和右图,若进行位移操作和减法操作,则得到位移相差图;若进行位移操作和导数操作,则得到位移导数图;两者可选其一,而非两者都用。
参照图11,二次求导操作指在位移导数图和导数图上继续进行一次导数操作,如下:
二次导数图=取最大值(α,(位移导数图-导数图)/导数图)
dIds=max(α,(dId1-dId0)/dId0)
如示意图所示,通过二次导数操作,二次导数图的前景特征将会继续加强,背景特征继续减弱,且不受外界光照影响。
图12-14是根据本发明实施例的活体检测方法中将得到的相差图和/或导数图输入到卷积神经网络进行学习进而提取有效的特征并输出活体检测结果的方法示意图。即,图12-14具体细化了上述步骤四。具体地,图12是根据本发明实施例的活体检测方法中卷积神经网络与图像级操作的结合的实现方法示意图;图13是根据本发明实施例的活体检测方法中卷积神经网络与特征级操作的结合的实现方法示意图;图14是根据本发明实施例的活体检测方法中卷积神经网络与图像级操作和特征级操作的结合的实现方法示意图。
参照图12,本方法将测试过程分为三个阶段,如图12所示:
阶段一:从设备获取原始图像,经过如上所述预处理操作得到相应左图、右图,经过如上所述位移操作位移左图、位移右图;经过如上所述减法操作得到相差图、位移相差图;经过如上所述导数操作得到导数图、或位移导数图。
阶段二:在阶段一得到的结果基础上,经过如上所述二次减法操作或者二次导数操作,得到二次相差图或二次导数图。
阶段三:将阶段二得到的二次相差图或二次导数图作为信息输入,输入至卷积神经网络,并得到活体检测结果。
本发明采用高效、低计算量小网络,适用于例如手机等移动端设备。如下举例说明一个较优的网络结构,但本发明所采用的网络结构、输入大小、卷积核大小、通道数等参数不限于本文档选例。例如,若减小输入图像大小,则可以降低模型大小和运算量,但由于图像精度的损失,会带来预测结果准确率的下降。同样,若增加各卷积网络层的通道数量,可以提高网络的表达能力,提高预测结果准确率,但同时会增加模型大小,增加运算时间,增加内存空间的占用。
Figure BDA0001927232970000131
Figure BDA0001927232970000141
参照图13,本方法将提出将如上所述操作不仅应用在图像级别上,也应用于特征级别上。所谓特征级别,即经过卷积神经网络的若干层处理,提取原图像中的特征,并将此特征视为特征图像。此特征图的大小,可以但不必与原始图像一致;此特征图的通道数,通常多于原始图像。在进行减法操作和导数操作时,将依次按各通道特征进行操作,形成特征相差图、特征导数图等。例如,计算相差图:
Id0 k=abs(FL k-FR k),k={1,2,…K1}
其中,FL和FR分别代表由左图右图通过卷积神经网络得到的特征图;K1为通道总数,FL k和FR k为其中第k个通道,也称第k维特征;Id0 k为相差图的第k维特征。同理可得如上所述的位移相差图、二次相差图、导数图、二次导数图:
Id1 k=abs(FL’ k–FR’ k),k={1,2,…K1}
Ids k=max(0,Id1 k-Id0 k),k={1,2,…K1}
dId0 k=abs(FL k-FR k)/L,k={1,2,…K2}
dId1 k=abs(FL’ k-FR’ k)/L’,k={1,2,…K2}
dIds k=max(0,(dId1 k-dId0k)/dId0 k),k={1,2,…K2}
本方法将测试过程分为三个阶段,如图13所示:
阶段一:从设备获取原始图像,经过如上所述预处理操作得到相应左图、右图,经过如上所述位移操作位移左图、位移右图;经过卷积神经网络,得到相应特征图;经过如上所述特征级减法操作和导数操作,得到特征相差图、特征位移相差图、特征导数图、或特征位移导数图。
阶段二:在阶段一得到的各特征图上,再次分别经过卷积神经网络,得到各自的特征图;再经过特征级二次减法操作和特征级二次导数操作,得到特征二次相差图或特征二次导数图。
阶段三:将阶段二得到的特征二次相差图或特征二次导数图输入至本阶段的卷积神经网络,并得到活体检测结果。
参照图14,本方法是图12、13所示的两种方法的混合结合方式,将操作既应用于图像级又应用于特征级。本方法也将测试过程分为三个阶段,如图14所示:
阶段一:从设备获取原始图像,经过如上所述预处理操作得到相应左图、右图,经过如上所述位移操作位移左图、位移右图;经过如上所述减法操作得到相差图、位移相差图;经过如上所述导数操作得到导数图、或位移导数图。
阶段二:在阶段一得到结果基础上,分别经过卷积神经网络,得到各自的特征图;继而在所得的特征图上,经过特征级二次减法操作和特征级二次导数操作,得到特征二次相差图或特征二次导数图。
阶段三:将阶段二得到的特征二次相差图或特征二次导数图输入至本阶段的卷积神经网络,并得到活体检测结果。
图15是根据本发明的活体检测装置1500的框图。参照图15,根据本发明的活体检测装置1500包括:图像获取装置1501,通过全像素双核摄像头获取图像;图像分离装置1503,根据图6所示的方法将获取的图像进行预处理得到左图和右图;图像预处理装置1505,根据图7-11所示的方法对左图和右图进行处理;特征提取装置1507,根据图12-14所示的方法将处理后的左图和右图输入到卷积神经网络进行学习,提取有效的特征,并输出活体检测结果。
图16是人脸认证系统1600的整体方框图。如图16所示,人脸认证系统包括图像输入模块1601、人脸检测模块1603、活体检测模块1605、人脸识别模块1607和注册/认证模块1609。活体检测模块1605位于人脸检测模块1603之后,人脸识别模块1607之前。
首先在图像输入模块1601,设备采集图像,例如具备全像素双核摄像头的手机拍摄一张图。
在人脸检测模块1603,进行人脸检测,即检测图像中是否有人脸。
当检测到图像中有人脸时,在活体检测模块1605进行活体检测,即依据图像内容,判断主体是否为活体真人。
当活体检测结果成功,即主体为活体真人,在人脸识别模块1607,进行人脸识别,识别主体的身份。在人脸识别模块1607识别过程中,通常将此次输入的图像中出现的主体,与已知主体进行比对,若比对成功,则识别此主体为已知主体(或多个已知主体之一);若比对不成功,则识别此主体为新主体。
根据识别结果,在注册/认证模块1609将新主体进行注册,或认证此主体为已知主体。
其中,在活体检测模块1605采用上述的根据本发明的各种活体检测方式来进行。
本发明通过提出新的图像处理操作,与深度学习卷积神经网络相结合,为全像素双核摄像头设计了一种新的活体检测技术。本发明为可见文献中首例针对全像素双核技术设计的活体检测技术。本发明提出的高效率、低成本、低计算量的方案可在所有配备全像素双核摄像头的移动端如手机采用。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (19)

1.一种活体检测方法,包括:
通过全像素双核摄像头获取图像;
将获取的图像进行预处理得到左图和右图;以及
根据所述左图和右图,进行活体检测,得到活体检测结果。
2.如权利要求1所述的活体检测方法,其中,将获取的图像进行预处理得到左图和右图包括:
分离获取的图像的全部像素位置的左右信号;
通过重新排列各个像素的左右信号,得到左图和右图。
3.如权利要求1或2所述的活体检测方法,根据所述左图和右图,进行活体检测,得到活体检测结果,包括:
对左图和右图进行处理;
将处理后得到的图像输入到卷积神经网络,输出活体检测结果。
4.如权利要求3所述的活体检测方法,其中对左图和右图进行处理包括以下至少之一:
通过减法操作计算左图右图的像素差值,得到相差图;
通过位移操作裁取左图右图不同位置的截断图像,将左图和右图向不同方向内进行平移,形成新的位移左图和位移右图,对新的位移左图和位移右图进行减法操作,得到位移相差图;
通过对相差图和位移相差图进行二次减法操作获得二次相差图;。
5.如权利要求4所述的活体检测方法,其中对左图和右图进行处理还包括以下之一:
通过求导操作计算左图与右图的差值相对于左图的变化量,得到导数图;
通过求导操作计算位移相差图相对于位移左图的变化量,得到位移导数图;
通过对导数图和位移导数图进行二次求导操作获得二次导数图。
6.如权利要求4所述的活体检测方法,其中对左图和右图进行处理还包括以下之一:
通过求导操作计算左图与右图的差值相对于右图的变化量,得到导数图;
通过求导操作计算位移相差图相对于位移右图的变化量,得到位移导数图;
通过对相差图和位移相差图进行二次减法操作获得二次相差图;
通过对导数图和位移导数图进行二次求导操作获得二次导数图。
7.如权利要求5所述的活体检测方法,其中,将处理后得到的图像输入到卷积神经网络,输出活体检测结果,包括:
将得到的二次相差图或二次导数图作为信息输入,输入至卷积神经网络,得到活体检测结果。
8.如权利要求4所述的活体检测方法,其中,将处理后得到的图像输入到卷积神经网络,输出活体检测结果,包括:
将左图、右图、位移左图、位移右图分别经过第一卷积神经网络,得到相应的第一特征图;
相应的第一特征图经过特征级减法操作和导数操作,得到特征相差图、特征位移相差图、特征导数图、或特征位移导数图;
特征相差图、特征位移相差图、特征导数图、或特征位移导数图分别经过第二卷积神经网络,得到相应的第二特征图;
相应的第二特征图经过特征级二次减法操作和特征级二次导数操作,得到特征二次相差图或特征二次导数图;
特征二次相差图或特征二次导数图经过第三卷积神经网络,得到活体检测结果。
9.如权利要求5所述的活体检测方法,其中,将处理后得到的图像输入到卷积神经网络,输出活体检测结果,包括:
将左图、右图、位移左图、位移右图分别经过第一卷积神经网络,得到相应的第一特征图;
相应的第一特征图经过经过特征级二次减法操作和特征级二次导数操作,得到特征二次相差图或特征二次导数图;
特征二次相差图或特征二次导数图经过卷积神经网络,得到活体检测结果。
10.一种活体检测装置,包括:
图像获取装置,通过全像素双核摄像头获取图像;
图像分离装置,将获取的图像进行预处理得到左图和右图;
活体检测结果获得装置,根据所述左图和右图,进行活体检测,得到活体检测结果。
11.如权利要求10所述的活体检测装置,其中图像分离装置被配置为:
分离获取的图像的全部像素位置的左右信号;
通过重新排列各个像素的左右信号,得到左图和右图。
12.如权利要求10或11所述的活体检测装置,其中活体检测结果获得装置包括:
图像预处理装置,对左图和右图进行处理;
特征提取装置,将处理后得到的图像输入到卷积神经网络,输出活体检测结果。
13.如权利要求12所述的活体检测装置,其中图像预处理装置被配置为执行以下至少之一:
通过减法操作计算左图右图的像素差值,得到相差图;
通过位移操作裁取左图右图不同位置的截断图像,将左图和右图向不同方向内进行平移,形成新的位移左图和位移右图,对新的位移左图和位移右图进行减法操作,得到位移相差图;
通过对相差图和位移相差图进行二次减法操作获得二次相差图;。
14.如权利要求13所述的活体检测装置,其中图像预处理装置被配置为执行以下之一:
通过求导操作计算左图与右图的差值相对于左图的变化量,得到导数图;
通过求导操作计算位移相差图相对于位移左图的变化量,得到位移导数图;
通过对导数图和位移导数图进行二次求导操作获得二次相差图和二次导数图。
15.如权利要求13所述的活体检测装置,其中图像预处理装置被配置为执行以下之一:
通过求导操作计算左图与右图的差值相对于右图的变化量,得到导数图;
通过求导操作计算位移相差图相对于位移右图的变化量,得到位移导数图;
通过对导数图和位移导数图进行二次求导操作获得二次相差图和二次导数图。
16.如权利要求14所述的活体检测装置,其中特征提取装置被配置为:
将得到的二次相差图或二次导数图作为信息输入,输入至卷积神经网络,得到活体检测结果。
17.如权利要求13所述的活体检测装置,其中特征提取装置被配置为:
将左图、右图、位移左图、位移右图分别经过第一卷积神经网络,得到相应的第一特征图;
相应的第一特征图经过特征级减法操作和导数操作,得到特征相差图、特征位移相差图、特征导数图、或特征位移导数图;
特征相差图、特征位移相差图、特征导数图、或特征位移导数图分别经过第二卷积神经网络,得到相应的第二特征图;
相应的第二特征图经过特征级二次减法操作和特征级二次导数操作,得到特征二次相差图或特征二次导数图;
特征二次相差图或特征二次导数图经过第三卷积神经网络,得到活体检测结果。
18.如权利要求14所述的活体检测装置,其中特征提取装置被配置为:
将左图、右图、位移左图、位移右图分别经过第一卷积神经网络,得到相应的第一特征图;
相应的第一特征图经过经过特征级二次减法操作和特征级二次导数操作,得到特征二次相差图或特征二次导数图;
特征二次相差图或特征二次导数图经过卷积神经网络,得到活体检测结果。
19.一种人脸认证系统,包括:
图像输入模块,通过全像素双核摄像头拍摄图像;
人脸检测模块,进行人脸检测;
活体检测模块,在检测到人脸时,进行活体检测;
人脸识别模块,在检测到活体时,进行人脸识别;
注册/认证模块,根据识别结果,进行注册或认证,
其中,活体检测模块采用上述的权利要求10-18之一所述的活体检测装置来实现。
CN201811622520.0A 2018-12-28 2018-12-28 活体检测方法、装置及人脸认证系统 Pending CN111382607A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201811622520.0A CN111382607A (zh) 2018-12-28 2018-12-28 活体检测方法、装置及人脸认证系统
KR1020190122984A KR20200083188A (ko) 2018-12-28 2019-10-04 라이브니스 검출 방법 및 장치, 이를 이용한 객체 인식 방법
EP19212226.5A EP3674973A1 (en) 2018-12-28 2019-11-28 Method and apparatus with liveness detection and object recognition
US16/707,241 US11227149B2 (en) 2018-12-28 2019-12-09 Method and apparatus with liveness detection and object recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811622520.0A CN111382607A (zh) 2018-12-28 2018-12-28 活体检测方法、装置及人脸认证系统

Publications (1)

Publication Number Publication Date
CN111382607A true CN111382607A (zh) 2020-07-07

Family

ID=71220487

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811622520.0A Pending CN111382607A (zh) 2018-12-28 2018-12-28 活体检测方法、装置及人脸认证系统

Country Status (2)

Country Link
KR (1) KR20200083188A (zh)
CN (1) CN111382607A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114596599A (zh) * 2020-11-20 2022-06-07 中移动信息技术有限公司 一种人脸识别活体检测方法、装置、设备及计算机存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101159016A (zh) * 2007-11-26 2008-04-09 清华大学 一种基于人脸生理性运动的活体检测方法及系统
CN101642372A (zh) * 2008-08-04 2010-02-10 索尼株式会社 生物识别装置
CN105023010A (zh) * 2015-08-17 2015-11-04 中国科学院半导体研究所 一种人脸活体检测方法及系统
CN105518711A (zh) * 2015-06-29 2016-04-20 北京旷视科技有限公司 活体检测方法、活体检测系统以及计算机程序产品
CN106372629A (zh) * 2016-11-08 2017-02-01 汉王科技股份有限公司 一种活体检测方法和装置
CN106897675A (zh) * 2017-01-24 2017-06-27 上海交通大学 双目视觉深度特征与表观特征相结合的人脸活体检测方法
CN107066942A (zh) * 2017-03-03 2017-08-18 上海斐讯数据通信技术有限公司 一种活体人脸识别方法及系统
WO2018086348A1 (zh) * 2016-11-09 2018-05-17 人加智能机器人技术(北京)有限公司 双目立体视觉系统及深度测量方法
CN108446690A (zh) * 2018-05-31 2018-08-24 北京工业大学 一种基于多视角动态特征的人脸活体检测方法
WO2018199542A1 (ko) * 2017-04-26 2018-11-01 삼성전자 주식회사 전자 장치 및 전자 장치의 영상 표시 방법
CN108898112A (zh) * 2018-07-03 2018-11-27 东北大学 一种近红外人脸活体检测方法及系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101159016A (zh) * 2007-11-26 2008-04-09 清华大学 一种基于人脸生理性运动的活体检测方法及系统
CN101642372A (zh) * 2008-08-04 2010-02-10 索尼株式会社 生物识别装置
CN105518711A (zh) * 2015-06-29 2016-04-20 北京旷视科技有限公司 活体检测方法、活体检测系统以及计算机程序产品
CN105023010A (zh) * 2015-08-17 2015-11-04 中国科学院半导体研究所 一种人脸活体检测方法及系统
CN106372629A (zh) * 2016-11-08 2017-02-01 汉王科技股份有限公司 一种活体检测方法和装置
WO2018086348A1 (zh) * 2016-11-09 2018-05-17 人加智能机器人技术(北京)有限公司 双目立体视觉系统及深度测量方法
CN106897675A (zh) * 2017-01-24 2017-06-27 上海交通大学 双目视觉深度特征与表观特征相结合的人脸活体检测方法
CN107066942A (zh) * 2017-03-03 2017-08-18 上海斐讯数据通信技术有限公司 一种活体人脸识别方法及系统
WO2018199542A1 (ko) * 2017-04-26 2018-11-01 삼성전자 주식회사 전자 장치 및 전자 장치의 영상 표시 방법
CN108446690A (zh) * 2018-05-31 2018-08-24 北京工业大学 一种基于多视角动态特征的人脸活体检测方法
CN108898112A (zh) * 2018-07-03 2018-11-27 东北大学 一种近红外人脸活体检测方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
YAN WANG 等: "Robust face anti-spoofing with depth information", J. VIS. COMMUN. IMAGE R., pages 332 - 337 *
YOUSEF ATOUM 等: "Face Anti-Spoofing Using Patch and Depth-Based CNNs", 2017 IEEE INTERNATIONAL JOINT CONFERENCE ON BIOMETRICS, pages 319 - 328 *
刘逸飞: "基于光谱分析与深度信息的人脸活体检测", 中国优秀硕士学位论文全文数据库 信息科技辑, pages 138 - 1315 *
林峰;杨忠程;冯英;颜水成;魏子昆;: "利用场景光照识别优化的双目活体检测方法", 智能系统学报, no. 01 *
罗浩: "人脸识别中的活体检测方法研究", 万方数据库, pages 1 - 73 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114596599A (zh) * 2020-11-20 2022-06-07 中移动信息技术有限公司 一种人脸识别活体检测方法、装置、设备及计算机存储介质

Also Published As

Publication number Publication date
KR20200083188A (ko) 2020-07-08

Similar Documents

Publication Publication Date Title
US20190028631A1 (en) Auto-Focus Method and Apparatus and Electronic Device
CN108111749B (zh) 图像处理方法和装置
US8810634B2 (en) Method and apparatus for generating image with shallow depth of field
JP5204350B2 (ja) 撮影装置、再生装置、および画像処理方法
JP5204349B2 (ja) 撮影装置、再生装置、および画像処理方法
CN103440662B (zh) Kinect深度图像获取方法与装置
WO2013038833A1 (ja) 画像処理システム、画像処理方法および画像処理プログラム
WO2014044126A1 (zh) 坐标获取装置、实时三维重建系统和方法、立体交互设备
JPWO2012029298A1 (ja) 撮影装置および画像処理方法
KR101510312B1 (ko) 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법
CN102959942B (zh) 立体观看用图像拍摄装置及其控制方法
JP6376474B2 (ja) 多眼撮像システム、取得画像の合成処理方法、及びプログラム
WO2014000663A1 (zh) 一种实现立体成像的方法及装置
CN109559353A (zh) 摄像模组标定方法、装置、电子设备及计算机可读存储介质
US20080226159A1 (en) Method and System For Calculating Depth Information of Object in Image
KR101281003B1 (ko) 다시점 영상을 이용한 영상 시스템 및 영상 처리 방법
CN111382607A (zh) 活体检测方法、装置及人脸认证系统
KR101737260B1 (ko) 영상간 피사계 심도 차이에서 깊이를 추출하는 카메라 시스템 및 그 동작 방법
JP2010175966A (ja) 画像処理装置及び撮像装置
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
KR20130057586A (ko) 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
CN113949802A (zh) 一种图像处理方法及摄像机
CN105282534A (zh) 用于嵌入立体图像的系统及方法
JP4207008B2 (ja) 画像処理システム、画像処理装置、コンピュータプログラム、及び画像遅延量算出方法
CN106780469A (zh) 一种多景深场景离焦序列图的质量评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination