CN107944379B - 基于深度学习的眼白图像超分辨率重建与图像增强方法 - Google Patents

基于深度学习的眼白图像超分辨率重建与图像增强方法 Download PDF

Info

Publication number
CN107944379B
CN107944379B CN201711158278.1A CN201711158278A CN107944379B CN 107944379 B CN107944379 B CN 107944379B CN 201711158278 A CN201711158278 A CN 201711158278A CN 107944379 B CN107944379 B CN 107944379B
Authority
CN
China
Prior art keywords
image
eye
white
resolution
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711158278.1A
Other languages
English (en)
Other versions
CN107944379A (zh
Inventor
孙哲南
李琦
刘明康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201711158278.1A priority Critical patent/CN107944379B/zh
Publication of CN107944379A publication Critical patent/CN107944379A/zh
Application granted granted Critical
Publication of CN107944379B publication Critical patent/CN107944379B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种基于深度学习的眼白图像超分辨率重建与图像增强的方法,包括:步骤S1,采集人脸视频、帧采样获取人脸图像;步骤S2,通过人脸图像提取双眼区域,关键点定位分割左右眼白,获得眼白图像;步骤S3,利用深度学习对眼白图像做超分辨率重建,获得高分辨率眼白图像;步骤S4,对高分辨率眼白图像做真彩色图像增强。本公开通过训练卷积神经网络(CNN)结合递归神经网络(RNN),可识别眼白血管纹理特征、提高图像分辨率,再结合图像增强技术进一步将眼白血管纹理清晰的呈现出来,大大提高个人身份识别的准确率。

Description

基于深度学习的眼白图像超分辨率重建与图像增强方法
技术领域
本公开涉及图像分割、图像增强、人工智能(深度学习)等技术领域,尤其涉及一种基于深度学习的眼白血管纹理图像超分辨率重建与图像增强的方法。
背景技术
在2006年,产生了深度学习(Deep Learning)的概念,它是通过人们研究人工神经网络而得出的。相比于其他机器学习而言,深度学习比较适用于大数据集训练。如今,深度学习的应用越发广泛,特别是在计算机视觉领域中的突出表现,并且它还会继续影响着人工智能的其他领域。
生物特征识别是一种方便和安全的个人身份检验方式,使用独特的生物学特征的认证可以代替个人身份证,录入密码或者其他关键。现今生物特征识别技术有很多,其中最为普遍的是人脸、指纹和语音识别,但是这些识别方式难免会出现一定的误差,而眼白血管纹理的直观性,特别是它的稳定性与唯一性决定了它可以作为识别一个人真实身份可靠且安全的依据,相比于人脸、指纹等几种生物特征识别方式,基于眼白血管纹理的生物特征识别对于个体身份识别是更精确的。眼白血管纹理的唯一性、稳定性、非侵犯性与安全性促使它成为生物特征识别中最具独特性的一种识别方式,其唯一性与稳定性表现在当婴儿出生八个月左右,眼白血管纹理基本稳定成形,且保持终身不变,据统计数据表明,每个人都有属于自己的眼白血管纹理,且与他人之间不会完全相同,所以这样的特性使该种识别方式变得非常的安全可靠。此外不用身体之间的接触即可采集样本,且人体眼白血管纹理的可见部分较为充分,所以它可以作为一种个人身份识别方式。因此,为保证眼白血管纹理识别的准确性,需要对其做出精准的增强,以凸显其明显的纹理。
公开内容
(一)要解决的技术问题
本公开提供了一种基于深度学习的眼白图像超分辨率重建与图像增强的方法,以至少部分解决以上所提出的技术问题。
(二)技术方案
根据本公开的一个方面,提供了一种基于深度学习的眼白图像超分辨率重建与图像增强的方法,包括:步骤S1,采集人脸视频、帧采样获取人脸图像;步骤S2,通过人脸图像提取双眼区域,关键点定位分割左右眼白,获得眼白图像;步骤S3,利用深度学习对眼白图像做超分辨率重建,获得高分辨率眼白图像;步骤S4,对高分辨率眼白图像做真彩色图像增强。
在本公开一些实施例中,所述步骤S1采集人脸视频、帧采样获取人脸图像包括:步骤S11,采集人脸视频作为训练样本视频;步骤S12,将采集的人脸视频做帧采样处理,转换成人脸图像集;步骤S13,将人脸图像集通过网络传输至HDFS进行存储。
在本公开一些实施例中,所述步骤S11采集人脸视频作为训练样本视频包括:在指定的环境中,使用环境照明并且不使用闪光灯,分别用不同品牌和型号的智能终端,拍摄规定时长的人脸视频,分别用于训练系统及测试识别。
在本公开一些实施例中,所述步骤S11中拍摄规定时长的人脸视频包括:视频拍摄包括由近及远再由远及近的人脸视频,所述视频捕获两个眼睛的不同注视方向。
在本公开一些实施例中,所述两个眼睛的不同注视方向包括:左眼睛看左、左眼睛看右、右眼睛看左和右眼睛看右。
在本公开一些实施例中,所述步骤S2通过人脸图像提取双眼区域,关键点定位分割左右眼白包括:步骤S21,在人脸图像上将人眼区域截取出来;步骤S22,在截取的人眼图像上标定一系列的关键点:即将人脸图像上眼白部分设置为阈值为1的前景区域,,非眼白部分设置为阈值为0的背景区域;步骤S23,利用图像分割中的最大类间方差法生成眼白的二值掩码图像;步骤S24,将所述二值掩码图像与原始人眼图像相叠加,将眼白分割出来。
在本公开一些实施例中,所述步骤S3中利用深度学习对眼白图像做超分辨率重建包括使用数据训练卷积神经网络、递归神经网络。
在本公开一些实施例中,所述步骤S3包括:步骤S31,将RGB眼白图像转换到YCbCr空间域,且作为一组特征图,初始化卷积神经网络;步骤S32,利用嵌入式网络提取特征补丁图像块,再通过一组预先训练基础表示所述嵌入式网络,嵌入式网络f1(x)取输入向量x并计算作为递归网络f2的输入的矩阵输出H0;步骤S33,在非线性变换操作中,通过递归网络将步骤S32中提取的每个补丁图像块的n1维特征映射为n2维,采用每个输出n2维向量重建的高分辨率补丁;步骤S34,采用重建网络将上述高分辨率补丁聚合进行眼白图像超分辨率重建,所述重建网络f3采用输入隐藏状态HD并输出目标图像,定义卷积层以生成最终的高分辨率眼白图像;步骤S35,将高分辨率的YCbCr眼白图像转化为RGB图像,再返回到原始眼白图像数据库以确认是否有剩余低分辨率眼白图像未经超分辨率重建工作,若仍有剩余图像未经该步处理,则返回至步骤S31;如果眼白图像数据库没有剩余,则进行步骤S4。
在本公开一些实施例中,所述步骤S3中,将输入低分辨率眼白图像它转化到YCbCr空间域时包括利用双三次差值将其低分辨率升高到所需大小;递归网络由单个递归层完成分析大图像区域,每次递归应用相同的卷积,然后纠正线性单位;卷积滤波器大于1×1,每个递归加宽接受域。
在本公开一些实施例中,所述步骤S4中对高分辨率眼白图像做真彩色图像增强包括:步骤S41,将RGB空间域的眼白图像转换到HSV空间域;其中H、S、V分别代表图像的色调、饱和度和亮度;步骤S42,保持色调H稳定不变,对亮度V用直方图均衡化的方式进行局部增强,再由亮度V与饱和度S的关系,改变饱和度S的值;步骤S43,最后将在HSV空间域中增强后的眼白图像变换回RGB图像。
(三)有益效果
从上述技术方案可以看出,本公开基于深度学习的眼白血管纹理图像超分辨率重建与图像增强方法至少具有以下有益效果其中之一:
(1)对人眼眼白血管纹理进行图像采集,该种识别方式使得采集样本十分便捷安全,应用前景广阔;
(2)通过训练卷积神经网络(CNN)结合递归神经网络(RNN),可识别眼白血管纹理特征、提高图像分辨率,再结合图像增强技术进一步将眼白血管纹理清晰的呈现出来,大大提高个人身份识别的准确率。
附图说明
图1所示为本公开实施例基于深度学习的眼白血管纹理图像超分辨率重建与图像增强方法的整体流程图;
图2所示为训练卷积神经网络与递归神经网络模型流程图;
图3所示为基本神经网络模型图。
具体实施方式
本公开提供了一种基于深度学习的眼白图像超分辨率重建与图像增强的方法,通过训练卷积神经网络(CNN)和递归神经网络(RNN)可识别眼白血管纹理特征、提高图像分辨率,再结合图像增强技术进一步将眼白血管纹理清晰的呈现出来,大大提高个人身份识别的准确率。
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
本公开某些实施例于后方将参照所附附图做更全面性地描述,其中一些但并非全部的实施例将被示出。实际上,本公开的各种实施例可以许多不同形式实现,而不应被解释为限于此数所阐述的实施例;相对地,提供这些实施例使得本公开满足适用的法律要求。
在本公开的第一个示例性实施例中,提供了一种基于深度学习的眼白图像超分辨率重建与图像增强的方法。图1为本公开第一实施例基于深度学习的眼白图像超分辨率重建与图像增强的方法的流程图。如图1所示,本公开基于深度学习的眼白图像超分辨率重建与图像增强的方法包括4个步骤(参见图1):S1.人脸视频采集、帧采样获取人脸图像;S2.提取双眼区域,关键点定位分割左右眼白;S3.利用深度学习对眼白图像做超分辨率重建;S4.对高分辨率眼白图像做真彩色图像增强。
步骤S1.人脸视频采集、帧采样获取人脸图像,包括:
S11.采集训练样本视频,具体地,包括:
志愿者在指定的环境,例如常规的办公室中,使用环境照明并且不使用闪光灯,分别用不同品牌和型号的智能终端,例如苹果、华为和三星手机,在规定的拍摄时长内由近及远再由远及近拍摄自己的人脸视频,例如拍摄时长各为1分钟,分别用于训练系统及测试识别。所述视频捕获两个眼睛的不同注视方向。优选地,眼睛的注视方向是左眼睛看左、左眼睛看右、右眼睛看左和右眼睛看右;
S12.将采集的人脸视频做帧采样处理,转换成人脸图像集;
S13.将人脸图像集通过网络传输至HDFS(Hadoop分布式文件系统)进行存储。
步骤S2.提取人眼区域,关键点定位分割左右眼白。
如果直接在人脸图像上分割眼白,所得到的眼白区域面积很小,因此需要先将人眼从人脸图像上抠出来,在抠出的人眼图像上标定关键点分割眼白,并将分割出来的眼白图像,作为接下来超分辨率重建的训练样本。具体地,所述步骤S2进一步包括:
S21.在人脸图像上将人眼区域截取出来;
S22.在截取的人眼图像上标定一系列的关键点:即将人脸图像上眼白部分设置为阈值为1的前景区域,,非眼白部分设置为阈值为0的背景区域;
S23.利用图像分割中的最大类间方差法生成眼白的二值掩码图像;
S24.将所述二值掩码图像与原始人眼图像相叠加相叠加,将眼白分割出来。
步骤S3.利用深度学习对眼白图像做超分辨率重建。
由于原始眼白图像分辨率较低,故利用深度学习对眼白图像做超分辨率重建,其间使用大量数据训练卷积神经网络(CNN)、递归神经网络(RNN),再利用训练所得模型完成眼白图像的超分辨率重建。考虑到单幅低分辨率眼白图像,可以使用双三次差值将其低分辨率升高到所需大小,包括以下三步:
(1)特征提取:输入低分辨率眼白图像,将它转化到YCbCr空间域(SR算法仅适用于Y通道,而Cb、Cr通道可通过双三次差值加以放大),且作为一组特征图。利用嵌入式网络在其中取图像块,即为重叠斑块,所有补丁图像块都将表示为高维矢量,这些矢量包括一组数量和向量维数都相等的特征图。
(2)非线性变换:利用递归网络可解决超分辨率的任务,即将每个高维矢量非线性映射到另一个高维矢量上。每个映射向量在概念上表示高分辨率补丁。这些向量包括另一组特征图。递归网络可分析大图像区域由单个递归层完成。每次递归应用相同的卷积,然后纠正线性单位。卷积滤波器大于1×1,每个递归加宽接受域。整个过程相当于特征的非线性变换。
(3)重建:将上述高分辨率补丁聚合而成表示已生成最终的高分辨率眼白图像。虽然来自递归层的最终应用的特征图表示高分辨率眼白图像,但是将其(多通道)转换回原始RGB空间域(1或3通道)是必要的。这是由重建网络完成的。
上述超分辨率重建方法将训练卷积神经网络与递归神经网络融合一处。在训练两种神经网络时每个子网都有一个隐藏层,只有推理网络层是递归的。优选地,在本实施例的各式子网中,使用3×3×F×F滤波器。因为眼白图像梯度比超分辨率的原始强度更有信息,因此对于嵌入式网络使用3×3滤镜。
具体地,在本实施例中,所述步骤S3进一步包括:
S31.将RGB眼白图像转换到YCbCr空间域,初始化卷积神经网络(CNN)。
S32.利用嵌入式网络提取特征补丁,再通过一组预先训练基础表示所述嵌入式网络。嵌入式网络f1(x)取输入向量x并计算作为递归网络f2的输入的矩阵输出H0,以下为嵌入式网络:
f1(x)=H0 (1)
H-1=max(0,W-1*x+b-1) (2)
H0=max(0,W0*H-1+b0) (3)
其中运算符*表示卷积,重量和偏置矩阵是W-1,W0和b-1,b0。通常,本实施例的第一层操作是:
F1(Y)=max(0,W1*y+B1) (4)
其中W1与B1分别表示滤波器和偏置,W1对眼白图像应用n1卷积,输出由n1特征图组成。B1是n1维向量。每个元素与滤波器相关联。本实施例在滤波器响应上应用整流线性单元[ReLU(max(0,x))]。
S33.在非线性变换操作中,通过递归网络将步骤S32中提取每个补丁图像块的n1维特征映射为n2维,操作如下:
F2(Y)=max(0,W2*F1(Y)+B2) (5)
W2包含大小为n1×f2×f2的n2个滤波器,B2为n2维向量。每个输出n2维向量在概念上是用于重建的高分辨率补丁的表示。
而在非线性变换这一步中要用到的递归网络f2采用输入矩阵H0并计算矩阵输出HD。在这里,本实施例使用相同的重量偏置矩阵W和b用于步骤S32的操作。
令g表示由递归层的单个递归建模的函数:
g(H)=max(0,W*H+b) (6)
复发关系是:
Hd=g(Hd-1)=max(0,W*Hd-1+b) (7)
对于d=1,...,D,递归网f2相当于组合相同的基本功能g:
Figure BDA0001474951290000071
其中运算符
Figure BDA0001474951290000072
表示函数组合,gD表示g的D折积。
可添加更多的卷积层以增加非线性,即增加模型的复杂性,因此需要更多的训练时间。
S34.采用重建网络进行眼白图像超分辨率重建,所述重建网络f3采用输入隐藏状态HD并输出目标图像,大致说,重建网是嵌入式网络的逆运算:
HD+1=max(0,WD+1*HD+bD+1) (9)
y’=max(0,WD+2*HD+1+bD+2) (10)
f3(H)=y’ (11)
将上述高分辨率补丁聚合而成表示已生成最终的高分辨率眼白图像,即定义卷积层以生成最终的高分辨率眼白图像:
F(Y)=W3*F2(Y)+B3 (12)
其中,W3是一组线性滤波器,尺寸为n2×f3×f3×c;B3是c维矢量。
步骤S35,将高分辨率的YCbCr眼白图像转化为RGB图像,再返回到原始眼白图像数据库以确认是否有剩余低分辨率眼白图像未经超分辨率重建工作,若仍有剩余图像未经该步处理,则返回至步骤S3初始位置再做同样的处理;如果眼白图像数据库没有剩余,则可以进行下一步真彩色图像增强。
S4.对高分辨率眼白图像做真彩色图像增强。具体地,包括:
S41.将RGB空间域的眼白图像转换到HSV空间域。其中H、S、V分别代表图像的色调、饱和度和亮度;
S42.保持色调H稳定不变,对亮度V用直方图均衡化的方式进行局部增强,再由亮度V与饱和度S的关系,改变饱和度S的值;
S43.最后将在HSV空间域中增强后的眼白图像变换回RGB图像。
与现有的生物特征识别技术相比,本公开所提出的一项基于深度学习的眼白图像超分辨率重建与图像增强方法,在采集样本时,不需要身体之间的接触即可完成,首先保证了它的安全性。用大数据集训练卷积神经网络和递归神经网络可识别眼白血管的纹理特征,提高图像分辨率,再对高分辨率的眼白图像做真彩色图像增强,能使其血管纹理更显清晰。由于眼白血管纹理对于每个人来说都具有唯一性与稳定性,使这项生物特征识别技术在识别个人身份时更具准确性与高效性,在很多关系到人身安危、财产保护等方面都会得到很好的应用。
为了详细说明本公开的具体实施方式及验证本公开的有效性,将本公开提出的方法应用于眼白图像超分辨率重建及增强。本公开将采集来的人脸视频帧采样转换为人脸图像集,通过HDFS存储数据集,再分割眼白,得到单独的眼白图像后,利用MapReduce训练神经网络模型,识别传输进来的眼白图像的血管纹理特征,对其做超分辨率重建,得到高分辨率的眼白图像,最后再做真彩色图像增强,得到血管纹理清晰的眼白图像。
至此,本公开第一实施例基于深度学习的眼白图像超分辨率重建与图像增强方法介绍完毕。
本公开是一项基于深度学习的眼白图像超分辨率重建与图像增强,通过训练神经网络模型可识别眼白血管纹理特征,提高图像分辨率,且其稳定性与唯一性,保证了后期个人身份识别的准确性。同时采集数据十分便捷安全,是一项前景很广阔的生物特征识别技术。
至此,已经结合附图对本公开实施例进行了详细描述。需要说明的是,在附图或说明书正文中,未绘示或描述的实现方式,均为所属技术领域中普通技术人员所知的形式,并未进行详细说明。此外,上述对各元件和方法的定义并不仅限于实施例中提到的各种具体结构、形状或方式,本领域普通技术人员可对其进行简单地更改或替换。
此外,除非特别描述或必须依序发生的步骤,上述步骤的顺序并无限制于以上所列,且可根据所需设计而变化或重新安排。并且上述实施例可基于设计及可靠度的考虑,彼此混合搭配使用或与其他实施例混合搭配使用,即不同实施例中的技术特征可以自由组合形成更多的实施例。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本公开也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本公开的内容,并且上面对特定语言所做的描述是为了披露本公开的最佳实施方式。
本公开可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。本公开的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本公开实施例的相关设备中的一些或者全部部件的一些或者全部功能。本公开还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本公开的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。并且,在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。
类似地,应当理解,为了精简本公开并帮助理解各个公开方面中的一个或多个,在上面对本公开的示例性实施例的描述中,本公开的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本公开要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,公开方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本公开的单独实施例。
以上所述的具体实施例,对本公开的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本公开的具体实施例而已,并不用于限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (9)

1.一种基于深度学习的眼白图像超分辨率重建与图像增强的方法,包括:
步骤S1,采集人脸视频、帧采样获取人脸图像;
步骤S2,通过人脸图像提取双眼区域,关键点定位分割左右眼白,获得眼白图像;
步骤S3,通过训练卷积神经网络结合递归神经网络,利用深度学习对眼白图像做超分辨率重建,获得高分辨率眼白图像,识别眼白血管纹理特征;
步骤S4,将RGB空间域的眼白图像转换到HSV空间域,对高分辨率眼白图像做真彩色图像增强;
其中,步骤S3包括:
S31.将RGB眼白图像转换到YCbCr空间域,初始化卷积神经网络;
S32.利用嵌入式网络提取特征补丁,再通过一组预先训练基础表示所述嵌入式网络,嵌入式网络f1(x)取输入向量x并计算作为递归网络f2的输入的矩阵输出H0,所述嵌入式网络为:
f1(x)=H0 (1)
H-1=max(0,W-1*x+b-1) (2)
H0=max(0,W0*H-1+b0) (3)
其中,运算符*表示卷积,W-1,W0和b-1,b0为重量和偏置矩阵;第一层操作是:
F1(Y)=max(0,W1*y+B1) (4)
其中,W1与B1分别表示滤波器和偏置,W1对眼白图像应用n1卷积,输出由n1特征图组成;B1是n1维向量,每个元素与滤波器相关联,在滤波器响应上应用整流线性单元[ReLU(max(0,x))];
S33.在非线性变换操作中,通过递归网络将步骤S32中提取每个补丁图像块的n1维特征映射为n2维:
F2(Y)=max(0,W2*F1(Y)+B2) (5)
其中,W2包含大小为n1×f2×f2的n2个滤波器,B2为n2维向量,每个输出n2维向量是用于重建的高分辨率补丁的表示;
在非线性变换中的所述递归网络f2采用输入矩阵H0并计算矩阵输出HD
令g表示由递归层的单个递归建模的函数:
g(H)=max(0,W*H+b) (6)
复发关系是:
Hd=g(Hd-1)=max(0,W*Hd-1+b) (7)
其中,W和b为重量矩阵和偏置矩阵;对于d=1,…,D,递归网f2相当于组合相同的基本功能g:
Figure FDA0002394583110000021
其中,运算符
Figure FDA0002394583110000022
表示函数组合,gD表示g的D折积;
S34.采用重建网络进行眼白图像超分辨率重建,所述重建网络f3采用输入隐藏状态HD并输出目标图像,重建网络是嵌入式网络的逆运算:
HD+1=max(0,WD+1*HD+bD+1) (9)
y’=max(0,WD+2*HD+1+bD+2) (10)
f3(H)=y’ (11)
将上述高分辨率补丁聚合成表示已生成最终的高分辨率眼白图像,即定义卷积层以生成最终的高分辨率眼白图像:
F(Y)=W3*F2(Y)+B3 (12)
其中,W3是一组线性滤波器,尺寸为n2×f3×f3×c;B3是c维矢量;
步骤S35,将高分辨率的YCbCr眼白图像转化为RGB图像,再返回到原始眼白图像数据库以确认是否有剩余低分辨率眼白图像未经超分辨率重建工作,若仍有剩余图像未经该步处理,则返回至步骤S31;如果眼白图像数据库没有剩余,则进行步骤S4。
2.根据权利要求1所述的方法,所述步骤S1采集人脸视频、帧采样获取人脸图像包括:
步骤S11,采集人脸视频作为训练样本视频;
步骤S12,将采集的人脸视频做帧采样处理,转换成人脸图像集;
步骤S13,将人脸图像集通过网络传输至HDFS进行存储。
3.根据权利要求2所述的方法,所述步骤S11采集人脸视频作为训练样本视频包括:
在指定的环境中,使用环境照明并且不使用闪光灯,分别用不同品牌和型号的智能终端,拍摄规定时长的人脸视频,分别用于训练系统及测试识别。
4.根据权利要求3所述的方法,所述步骤S11中拍摄规定时长的人脸视频包括:视频拍摄包括由近及远再由远及近的人脸视频,所述视频捕获两个眼睛的不同注视方向。
5.根据权利要求4所述的方法,所述两个眼睛的不同注视方向包括:左眼睛看左、左眼睛看右、右眼睛看左和右眼睛看右。
6.根据权利要求1所述的方法,所述步骤S2通过人脸图像提取双眼区域,关键点定位分割左右眼白包括:
步骤S21,在人脸图像上将人眼区域截取出来;
步骤S22,在截取的人眼图像上标定一系列的关键点:即将人脸图像上眼白部分设置为阈值为1的前景区域,非眼白部分设置为阈值为0的背景区域;
步骤S23,利用图像分割中的最大类间方差法生成眼白的二值掩码图像;
步骤S24,将所述二值掩码图像与原始人眼图像相叠加,将眼白分割出来。
7.根据权利要求1所述的方法,所述步骤S3中利用深度学习对眼白图像做超分辨率重建包括使用数据训练卷积神经网络、递归神经网络。
8.根据权利要求1所述的方法,所述步骤S3中,将输入低分辨率眼白图像它转化到YCbCr空间域时包括利用双三次差值将其低分辨率升高到所需大小;递归网络由单个递归层完成分析大图像区域,每次递归应用相同的卷积,然后纠正线性单位;卷积滤波器大于1×1,每个递归加宽接受域。
9.根据权利要求8所述的方法,所述步骤S4中对高分辨率眼白图像做真彩色图像增强包括:
步骤S41,将RGB空间域的眼白图像转换到HSV空间域;其中H、S、V分别代表图像的色调、饱和度和亮度;
步骤S42,保持色调H稳定不变,对亮度V用直方图均衡化的方式进行局部增强,再由亮度V与饱和度S的关系,改变饱和度S的值;
步骤S43,最后将在HSV空间域中增强后的眼白图像变换回RGB图像。
CN201711158278.1A 2017-11-20 2017-11-20 基于深度学习的眼白图像超分辨率重建与图像增强方法 Active CN107944379B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711158278.1A CN107944379B (zh) 2017-11-20 2017-11-20 基于深度学习的眼白图像超分辨率重建与图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711158278.1A CN107944379B (zh) 2017-11-20 2017-11-20 基于深度学习的眼白图像超分辨率重建与图像增强方法

Publications (2)

Publication Number Publication Date
CN107944379A CN107944379A (zh) 2018-04-20
CN107944379B true CN107944379B (zh) 2020-05-15

Family

ID=61930366

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711158278.1A Active CN107944379B (zh) 2017-11-20 2017-11-20 基于深度学习的眼白图像超分辨率重建与图像增强方法

Country Status (1)

Country Link
CN (1) CN107944379B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665509A (zh) * 2018-05-10 2018-10-16 广东工业大学 一种超分辨率重构方法、装置、设备及可读存储介质
WO2019225793A1 (ko) * 2018-05-21 2019-11-28 주식회사 지디에프랩 Ai 영상학습 플랫폼 기반 vod 서비스 시스템
CN108629753A (zh) * 2018-05-22 2018-10-09 广州洪森科技有限公司 一种基于循环神经网络的人脸图像恢复方法及装置
CN108960281B (zh) * 2018-05-24 2020-05-05 浙江工业大学 一种黑色素瘤分类模型建立方法
CN109063565B (zh) * 2018-06-29 2021-12-10 中国科学院信息工程研究所 一种低分辨率人脸识别方法及装置
WO2020048358A1 (en) * 2018-09-04 2020-03-12 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method, system, and computer-readable medium for recognizing speech using depth information
CN109859106B (zh) * 2019-01-28 2022-07-05 桂林电子科技大学 一种基于自注意力的高阶融合网络的图像超分辨率重建方法
CN109978785B (zh) * 2019-03-22 2020-11-13 中南民族大学 多级递归特征融合的图像超分辨率重构系统及其方法
CN110175509B (zh) * 2019-04-09 2022-07-12 西安电子科技大学 一种基于级联超分辨率的全天候眼周识别方法
CN110033417B (zh) * 2019-04-12 2023-06-13 江西财经大学 一种基于深度学习的图像增强方法
CN110211035B (zh) * 2019-04-18 2023-03-24 天津中科智能识别产业技术研究院有限公司 融合互信息的深度神经网络的图像超分辨率方法
CN112748797B (zh) * 2019-10-31 2022-08-09 Oppo广东移动通信有限公司 一种眼球追踪方法及相关设备
CN110853040B (zh) * 2019-11-12 2023-04-28 北京深境智能科技有限公司 一种基于超分辨率重建的图像协同分割方法
CN111639556B (zh) * 2020-05-15 2023-06-20 圣点世纪科技股份有限公司 一种非均匀插值的手指轴旋转指静脉图像纠正方法
CN113436067B (zh) * 2021-05-22 2023-05-09 西北工业大学深圳研究院 一种自学习的超分辨率三维光声血管图像重建方法及系统
CN114998976A (zh) * 2022-07-27 2022-09-02 江西农业大学 人脸关键属性识别方法、系统、存储介质及计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217440A (zh) * 2014-09-28 2014-12-17 民政部国家减灾中心 一种从遥感图像中提取建成区的方法
CN104573660A (zh) * 2015-01-13 2015-04-29 青岛大学 一种利用sift点描述子精确定位人眼的方法
CN105046230A (zh) * 2015-07-27 2015-11-11 上海交通大学 基于图像的人眼角检测的方法及系统
CN107240066A (zh) * 2017-04-28 2017-10-10 天津大学 基于浅层和深层卷积神经网络的图像超分辨率重建算法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010011785A1 (en) * 2008-07-23 2010-01-28 Indiana University Research & Technology Corporation System and method for a non-cooperative iris image acquisition system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217440A (zh) * 2014-09-28 2014-12-17 民政部国家减灾中心 一种从遥感图像中提取建成区的方法
CN104573660A (zh) * 2015-01-13 2015-04-29 青岛大学 一种利用sift点描述子精确定位人眼的方法
CN105046230A (zh) * 2015-07-27 2015-11-11 上海交通大学 基于图像的人眼角检测的方法及系统
CN107240066A (zh) * 2017-04-28 2017-10-10 天津大学 基于浅层和深层卷积神经网络的图像超分辨率重建算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Image Super-Resolution Using Deep Convolutional Networks;Chao Dong;《EEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20161231;295-307页 *
基于Retinex理论的彩色图像增强技术研究;刘军;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160515;3页 *

Also Published As

Publication number Publication date
CN107944379A (zh) 2018-04-20

Similar Documents

Publication Publication Date Title
CN107944379B (zh) 基于深度学习的眼白图像超分辨率重建与图像增强方法
Ren et al. Low-light image enhancement via a deep hybrid network
CN105917353B (zh) 用于生物认证的特征提取及匹配以及模板更新
Dua et al. Biometric iris recognition using radial basis function neural network
US11682232B2 (en) Device and method with image matching
Raghavendra et al. Exploring the usefulness of light field cameras for biometrics: An empirical study on face and iris recognition
US20240062530A1 (en) Deep perceptual image enhancement
CN111091075B (zh) 人脸识别方法、装置、电子设备及存储介质
CN109871845B (zh) 证件图像提取方法及终端设备
Bhandari et al. A new beta differential evolution algorithm for edge preserved colored satellite image enhancement
EP4085369A1 (en) Forgery detection of face image
KR102095443B1 (ko) 구조텐서를 이용한 딥러닝 기반의 영상 개선 방법 및 장치
CN111222380B (zh) 一种活体检测方法、装置、及其识别模型训练方法
Sun et al. Understanding deep face anti-spoofing: from the perspective of data
CN105426847A (zh) 低质量自然光虹膜图像非线性增强方法
Chen et al. A novel face super resolution approach for noisy images using contour feature and standard deviation prior
Chen et al. Face super resolution based on parent patch prior for VLQ scenarios
Buzzelli et al. Consensus-driven illuminant estimation with GANs
JP7360217B2 (ja) ユーザのバイオメトリック特性を有する当該ユーザの物体の画像からデータを取得するための方法
CN116229528A (zh) 一种活体掌静脉检测方法、装置、设备及存储介质
CN113066030B (zh) 一种基于空谱融合网络的多光谱图像全色锐化方法及系统
Batard et al. Variational models for color image correction inspired by visual perception and neuroscience
Jiao [Retracted] Optimization of Color Enhancement Processing for Plane Images Based on Computer Vision
CN113221830B (zh) 一种超分活体识别方法、系统、终端及存储介质
Gaonkar Data Fusion in Depth Images: Application to Facial Biometrics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant