CN110163111A - 基于人脸识别的叫号方法、装置、电子设备及存储介质 - Google Patents

基于人脸识别的叫号方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN110163111A
CN110163111A CN201910334790.XA CN201910334790A CN110163111A CN 110163111 A CN110163111 A CN 110163111A CN 201910334790 A CN201910334790 A CN 201910334790A CN 110163111 A CN110163111 A CN 110163111A
Authority
CN
China
Prior art keywords
image
face
detected
classifier
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910334790.XA
Other languages
English (en)
Other versions
CN110163111B (zh
Inventor
李影
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910334790.XA priority Critical patent/CN110163111B/zh
Publication of CN110163111A publication Critical patent/CN110163111A/zh
Application granted granted Critical
Publication of CN110163111B publication Critical patent/CN110163111B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C11/00Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C11/00Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere
    • G07C2011/04Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere related to queuing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于人脸识别的叫号方法、装置、电子设备及存储介质。所述基于人脸识别的叫号方法能够当接收到叫号指令时,获取图像,并对所述图像进行预处理,得到待检测图像,基于局部二值模式特征,采用级联分类器对所述待检测图像进行人脸检测,得到具有细节信息且更加全面的所述待检测图像的特征图谱,再将所述特征图谱输入到预先训练的神经网络模型中进行深层次的人脸识别,得到第一人脸,提高人脸识别的准确率,进一步将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸,并从所述配置数据库中调取所述目标人脸对应的用户数据,根据所述用户数据进行叫号,从而基于人脸识别技术自动进行叫号,直观性、便捷性更强。

Description

基于人脸识别的叫号方法、装置、电子设备及存储介质
技术领域
本发明涉及人脸识别技术领域,尤其涉及一种基于人脸识别的叫号方法、装置、电子设备及存储介质。
背景技术
目前,我国医患关系矛盾突出,尤其在很多大城市的大医院,出现了很多挂号难、看病难的现象。医院门诊量日益增大,往往要依赖于2至3个护士人工叫号,进而出现秩序混乱、医患矛盾多发、个人隐私得不到保障等问题。随着医院信息化、智能化建设的普及,医院各部门的办事效率也越来越受到重视,尤其对于服务窗口,既要满足患者的服务需求,又要提高服务质量及服务效率。
现有技术方案中,国内各大医院分诊叫号系统统一采用刷条码、语音播报形式,但还是避免不了漏号、冒充、插队等现象的发生,依靠医生验证身份不太符合现实情况。
发明内容
鉴于以上内容,有必要提供一种基于人脸识别的叫号方法、装置、电子设备及存储介质,能够基于人脸识别技术自动进行叫号,直观性、便捷性更强。
一种基于人脸识别的叫号方法,所述方法包括:
当接收到叫号指令时,获取配置摄像装置采集的图像;
对所述图像进行预处理,得到待检测图像;
采用Adaboost算法训练至少一个弱分类器;
集合所述至少一个弱分类器,训练至少一个强分类器;
级联所述至少一个强分类器,得到级联分类器;
基于局部二值模式特征,采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱;
将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸,其中,所述神经网络模型包括一个7*7的卷积层、一个3*3的最大值池化层及4个卷积模块;
将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸;
从所述配置数据库中调取所述目标人脸对应的用户数据;
根据所述用户数据进行叫号。
根据本发明优选实施例,所述对所述图像进行预处理,得到待检测图像包括:
对所述图像进行灰度化处理,得到灰度图像;
对所述灰度图像进行二值化处理,得到黑白图像;
对所述黑白图像进行降噪处理,得到所述待检测图像。
根据本发明优选实施例,在对所述图像进行预处理,得到待检测图像前,所述方法还包括:
对所述图像进行降维处理。
根据本发明优选实施例,所述基于局部二值模式特征,采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱包括:
基于分块局部二值模式特征算法提取所述待检测图像的特征数据;
将所述特征数据输入到所述级联分类器中,得到所述待检测图像的特征图谱。
根据本发明优选实施例,所述将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸包括:
将所述特征图谱依次输入所述7*7的卷积层、所述3*3的最大值池化层及所述4个卷积模块,得到所述第一人脸。
根据本发明优选实施例,所述方法还包括:
在所述最大值池化层,对所述特征图谱在空间维度上进行下采样处理。
根据本发明优选实施例,所述根据所述用户数据进行叫号包括:
从所述用户数据中获取就诊时间;
确定当前时间;
计算所述就诊时间与所述当前时间的差值;
当所述差值满足配置时间范围时,发出就诊提示。
一种基于人脸识别的叫号装置,所述装置包括:
获取单元,用于当接收到叫号指令时,获取配置摄像装置采集的图像;
预处理单元,用于对所述图像进行预处理,得到待检测图像;
训练单元,用于采用Adaboost算法训练至少一个弱分类器;
所述训练单元,还用于集合所述至少一个弱分类器,训练至少一个强分类器;
级联单元,用于级联所述至少一个强分类器,得到级联分类器;
检测单元,用于基于局部二值模式特征,采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱;
识别单元,用于将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸,其中,所述神经网络模型包括一个7*7的卷积层、一个3*3的最大值池化层及4个卷积模块;
匹配单元,用于将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸;
调取单元,用于从所述配置数据库中调取所述目标人脸对应的用户数据;
叫号单元,用于根据所述用户数据进行叫号。
根据本发明优选实施例,所述预处理单元具体用于:
对所述图像进行灰度化处理,得到灰度图像;
对所述灰度图像进行二值化处理,得到黑白图像;
对所述黑白图像进行降噪处理,得到所述待检测图像。
根据本发明优选实施例,所述装置还包括:
降维单元,用于在对所述图像进行预处理,得到待检测图像前,对所述图像进行降维处理。
根据本发明优选实施例,所述检测单元具体用于:
基于分块局部二值模式特征算法提取所述待检测图像的特征数据;
将所述特征数据输入到所述级联分类器中,得到所述待检测图像的特征图谱。
根据本发明优选实施例,所述识别单元具体用于:
将所述特征图谱依次输入所述7*7的卷积层、所述3*3的最大值池化层及所述4个卷积模块,得到所述第一人脸。
根据本发明优选实施例,所述装置还包括:
下采样单元,用于在所述最大值池化层,对所述特征图谱在空间维度上进行下采样处理。
根据本发明优选实施例,所述叫号单元具体用于:
从所述用户数据中获取就诊时间;
确定当前时间;
计算所述就诊时间与所述当前时间的差值;
当所述差值满足配置时间范围时,发出就诊提示。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述基于人脸识别的叫号方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述基于人脸识别的叫号方法。
由以上技术方案可以看出,本发明能够当接收到叫号指令时,获取配置摄像装置采集的图像,并对所述图像进行预处理,得到待检测图像,进一步基于局部二值模式特征,采用预先训练的级联分类器对所述待检测图像进行人脸检测,得到具有细节信息、且更加全面的所述待检测图像的特征图谱,再将所述特征图谱输入到预先训练的神经网络模型中进行深层次的人脸识别,得到第一人脸,进而提高了人脸识别的准确率,进一步将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸,并从所述配置数据库中调取所述目标人脸对应的用户数据,根据所述用户数据进行叫号,从而基于人脸识别技术自动进行叫号,直观性、便捷性更强。
附图说明
图1是本发明基于人脸识别的叫号方法的较佳实施例的流程图。
图2是本发明基于人脸识别的叫号装置的较佳实施例的功能模块图。
图3是本发明实现基于人脸识别的叫号方法的较佳实施例的电子设备的结构示意图。
主要元件符号说明
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于人脸识别的叫号方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于人脸识别的叫号方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(DigitalSignal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,当接收到叫号指令时,获取配置摄像装置采集的图像。
在本发明的至少一个实施例中,所述叫号指令可以由医生、护士、患者等触发,本发明不限制。
在本发明的至少一个实施例中,所述电子设备可以通过与所述电子设备相通信的所述配置摄像装置获取图像,所述配置摄像装置包括,但不限于当前医疗机构的摄像头等。
S11,对所述图像进行预处理,得到待检测图像。
在本发明的至少一个实施例中,所述电子设备对所述图像进行预处理,得到待检测图像包括:
所述电子设备对所述图像进行灰度化处理,得到灰度图像,并对所述灰度图像进行二值化处理,得到黑白图像,进一步对所述黑白图像进行降噪处理,得到所述待检测图像。
具体地,所述电子设备将彩色图像转换为灰度图的操作,运用的是各比例法,即设当前像素的三分量分别为R,G,B,然后利用如下公式得到转换后的像素分量值:0.30*R+0.59*G+0.11*B。
进一步地,所述电子设备对所述图像进行二值化操作。图像的二值化处理就是将图像上的像素设置为0或255,也就是使整个图像呈现出明显的黑白效果。
更进一步地,所述电子设备通过设计自适应图像降噪滤波器对所述黑白图像进行降噪,这样可以很好的滤除“椒盐”噪声,并且可以很大程度的保护图像的细节。
其中,椒盐噪声是图像中一种随机出现的白点或黑点,而自适应图像降噪滤波器便是信号抽取器,它的作用是从被噪声污染的信号中抽取原来的信号。
具体地,假设输入的待处理图像为f(x,y),在退化函数H的作用下,由于受到噪声η(x,y)的影响,最终得到一个退化图像g(x,y)。这时得到一个图像退化公式:g(x,y)=η(x,y)+f(x,y),并利用Adaptive Filter方法对图像进行降噪,其方法的核心思想是:
其中,是整张图像的噪声方差,是点(x,y)附近的一个窗口内的像素灰度均值,是点(x,y)附近一个窗口内的像素灰度的方差。
可以理解的是,在医院摄像头的图像采集中,不同强度的随机信号(也称噪声)往往会污染所采集的图像,而被污染的图像对后续的图像分析和处理存在不可预知的影响,自适应图像降噪滤波器可以减少噪声对输入图像的影响。
在本发明的至少一个实施例中,在对所述图像进行预处理,得到待检测图像前,所述方法还包括:
所述电子设备对所述图像进行降维处理。
可以理解的是,由于所获得数据维度过高,在处理这样的数据时耗时过大,因此首先对高维数据进行降维的处理。
具体地,所述电子设备采用主成分分析算法对所述图像进行降维处理。
其中,主成分分析算法是一种通过正交变换将一组可能存在相关性的变量转换为一组线性不相关变量的方法。
S12,采用Adaboost算法训练至少一个弱分类器。
在本发明的至少一个实施例中,所述AdaBoost算法的核心是迭代,其针对不同的训练集构造出基本分类器(弱分类器),然后将每一个基本分类器组合到一起,形成一个最终的强分类器。
具体地,所述AdaBoost算法的实现是通过调整数据分布,其依据是:判断每一次训练集当中每一个样本分类的正确性,以及上次样本总体分类的准确率,来设置每一个样本的权值。而新得到的权值将作为下层分类器训练的数据集,然后将每一次训练出的分类器组合起来,形成最终的决策分类器。
在本发明实施例中,利用下述公式训练弱分类器:
其中:f为特征,θ为阈值,p指示不等号的方向,x表示一个检测子窗口。根据每一个方向梯度直方图特征f,训练其弱分类器h(x,f,p,θ),也就是确定f的最优阈值,使得这个弱分类器h(x,f,p,θ)对所有训练样本的分类误差很低。
S13,集合所述至少一个弱分类器,训练至少一个强分类器。
在弱分类器训练完成之后,将会对不同训练集上得到的分类器集合起来训练强分类器。
具体地,所述电子设备采用级联分类器。所述弱分类器的个数比较有限,所述电子设备通过尽量多的强分类器级联。每个特征f表示在训练样本中计算的所有可能出现的矩形特征值,即计算所有的弱分类器,并从中选择性能好的分类器。假定给定一连串训练样本(x1,y1),(x2,y2),…(xn,yn),其中负样本(非人脸)用yi=0来表示,正样本(人脸)用yi=1来表示,通过对弱分类器进行集合,并对其最小错误率εt的最佳分类器hi(x)进行选取,εt=minf,p,θi(wi/∑wi)|h(x,f,p,θ)-yi|,其中w为特征权值,则最后得到最终的强分类器:
式中,t为特征,βt=εt/(1-εt)。
S14,级联所述至少一个强分类器,得到级联分类器。
在本发明的至少一个实施例中,所述级联分类器就是将上面训练得到的强分类器通过级联(串联)的方式组成一个人脸检测级联分类器,这个级联分类器就是一个退化的决策树。在级联分类器中,第2层分类器分类是由第1层分类得到的正样本触发的,第3层分类器分类是由第2层分类得到的正样本触发的,依次类推。最终检测到一般环境下的所有人脸。
可以理解的是,AdaBoost算法很好的利用弱分类器进行级联,并采用不同分类算法的弱分类器,具有很高的精度。
S15,基于局部二值模式特征(Local Binary Patterns,LBP),采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱。
在本发明的至少一个实施例中,所述电子设备基于局部二值模式特征,采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱包括:
所述电子设备基于分块局部二值模式特征算法提取所述待检测图像的特征数据,并将所述特征数据输入到所述级联分类器中,得到所述待检测图像的特征图谱。
具体地,局部二值模式特征是提取灰度图像局部纹理特征的一种算子,该算子通过比较中心像素和邻域像素的大小来获得描述中心像素的二值码元。由于局部二值模式特征对某像素的特征描述都参考了周围像素值,因此有利于克服局部噪声、光照、姿势等带来的负面影响。
在本发明实施例中,设图像窗口中心为P0,则该点的LBP算子编码公式为:
其中,Pi表示该中心像素点相邻的像素值,s(·)为量化算子,其表达式为:
由于无论图像本身的大小是多少,对同一种LBP算子而言,提取的特征维数都是相同的。因此,这样的LBP特征不能够清楚地描述图像的细节信息。
在本实施例中,为了表示人脸图像的局部纹理,所述电子设备采用分块局部二值模式特征算法,将原始图像分成大小相同或大小不同的子图像,然后采用相同的LBP算子对每个子图像进行编码,并统计特征直方图,然后将所有直方图串联作为对应图像的特征表示,据此得到基于LBP特征的特征数据。
可以理解的是,LBP作为特征描述符有很多良好的特性,其是在局部区域进行计算,也就是在细胞单元上进行计算,这样,LBP作为描述符去对视频中图像进行处理时,能够比较好的适应光照变化和形变的影响。
通过上述实施方式,所述电子设备能够准确且全面地得到所述待检测图像的特征图谱。
S16,将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸。
其中,所述神经网络模型包括一个7*7的卷积层、一个3*3的最大值池化层及4个卷积模块。
在本发明的至少一个实施例中,所述电子设备将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸包括:
所述电子设备将所述特征图谱依次输入所述7*7的卷积层、所述3*3的最大值池化层及所述4个卷积模块,得到所述第一人脸。
具体地,卷积神经网络(Convolutional Neural Networks,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,其基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。特征映射结构采用sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性。此外,由于一个映射面上的神经元共享权值,因而减少了网络自由参数的个数。卷积神经网络中的每一个卷积层都紧跟着一个用来求局部平均与二次提取的计算层,这种特有的两次特征提取结构减小了特征分辨率。
具体地,所述方法还包括:
在所述最大值池化层,所述电子设备对所述特征图谱在空间维度上进行下采样处理。
所述电子设备对所述特征图谱在空间维度上进行下采样操作,使得输入的特征图的长和宽变为原来的一半。
进一步地,每个卷积模块从具有线性投影的构建块开始,随后是具有本体映射的不同数量的构建块,最后输出所述第一人脸。
通过上述实施方式,卷积神经网络的多层网络结构能自动提取输入数据的深层特征,不同层次的网络可以学习到不同层次的特征,从而大大提高对图像处理的准确率,并且,卷积神经网络通过局部感知和权值共享,保留了图像间的关联信息,并且大大减少了所需参数的数量。通过最大池化层技术,进一步缩减网络参数数量,提高模型的鲁棒性,可以让模型持续地扩展深度,继续增加隐层,从而更高效地对图像进行处理。
S17,将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸。
在本发明的至少一个实施例中,用户可以通过医保注册人脸档案,形成个人识别人脸帐户,并最终形成医保数据库。
具体地,所述配置数据库包括所述医保数据库,所述配置数据库中存储着所有与医疗有关的数据。
在本发明的至少一个实施例中,为了满足场景适应性的要求,所述电子设备采集非限制场景下的人脸图像,并建立训练数据库。同时,为了提高网络的泛化及识别能力,所述电子设备对训练数据集进行扩充。
具体地,所述电子设备采用水平翻转(Y轴镜像)的方式扩充训练数据集,即在行不变的情况下,所述电子设备将图像的左右像素进行交换,得到新的图像。
在本发明的至少一个实施例中,所述目标人脸对应的用户可以包括正在等待叫号的患者。
S18,从所述配置数据库中调取所述目标人脸对应的用户数据。
在本发明的至少一个实施例中,所述用户数据包括,但不限于以下一种或者多种的组合:
就诊时间、就诊地点、人脸图像、就诊诊室、问诊医生等。
S19,根据所述用户数据进行叫号。
在本发明的至少一个实施例中,所述电子设备根据所述用户数据进行叫号包括:
所述电子设备从所述用户数据中获取就诊时间,并确定当前时间,所述电子设备计算所述就诊时间与所述当前时间的差值,当所述差值满足配置时间范围时,所述电子设备发出就诊提示。
其中,所述配置时间范围可以进行自定义配置,如:15至30秒,本发明不限制。
进一步地,所述电子设备可以在显示屏上显示就诊时间及就诊用户,并发出语音提示。
进一步地,在进行检查前,所述电子设备还可以对所述用户进行身份验证(即人脸验证),并在所述用户通过人脸验证后,允许所述用户进入检查诊室。
在本发明的至少一个实施例中,就诊结束后,当用户根据医师诊断进行各项检查项目及药品开设等时,所述电子设备可以直接在各个检查室对用户进行人脸验证,并在验证通过后,对用户执行各项检查项目。
当用户根据医师诊断进行药品开设等时,所述电子设备还可以直接在药房对用户进行人脸验证,并在验证通过后,为用户取药。
由以上技术方案可以看出,本发明当接收到叫号指令时,获取配置摄像装置采集的图像,并对所述图像进行预处理,得到待检测图像,进一步基于局部二值模式特征,采用预先训练的级联分类器对所述待检测图像进行人脸检测,得到具有细节信息、且更加全面的所述待检测图像的特征图谱,再将所述特征图谱输入到预先训练的神经网络模型中进行深层次的人脸识别,得到第一人脸,进而提高了人脸识别的准确率,进一步将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸,并从所述配置数据库中调取所述目标人脸对应的用户数据,根据所述用户数据进行叫号,从而基于人脸识别技术自动进行叫号,直观性、便捷性更强。
如图2所示,是本发明基于人脸识别的叫号装置的较佳实施例的功能模块图。所述基于人脸识别的叫号装置11包括获取单元110、预处理单元111、检测单元112、识别单元113、匹配单元114、调取单元115、叫号单元116、降维单元117、下采样单元118、训练单元119及级联单元120。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
当接收到叫号指令时,获取单元110获取配置摄像装置采集的图像。
在本发明的至少一个实施例中,所述叫号指令可以由医生、护士、患者等触发,本发明不限制。
在本发明的至少一个实施例中,所述获取单元110可以通过与电子设备相通信的所述配置摄像装置获取图像,所述配置摄像装置包括,但不限于当前医疗机构的摄像头等。
预处理单元111对所述图像进行预处理,得到待检测图像。
在本发明的至少一个实施例中,所述预处理单元111对所述图像进行预处理,得到待检测图像包括:
所述预处理单元111对所述图像进行灰度化处理,得到灰度图像,并对所述灰度图像进行二值化处理,得到黑白图像,进一步对所述黑白图像进行降噪处理,得到所述待检测图像。
具体地,所述预处理单元111将彩色图像转换为灰度图的操作,运用的是各比例法,即设当前像素的三分量分别为R,G,B,然后利用如下公式得到转换后的像素分量值:0.30*R+0.59*G+0.11*B。
进一步地,所述预处理单元111对所述图像进行二值化操作。图像的二值化处理就是将图像上的像素设置为0或255,也就是使整个图像呈现出明显的黑白效果。
更进一步地,所述预处理单元111通过设计自适应图像降噪滤波器对所述黑白图像进行降噪,这样可以很好的滤除“椒盐”噪声,并且可以很大程度的保护图像的细节。
其中,椒盐噪声是图像中一种随机出现的白点或黑点,而自适应图像降噪滤波器便是信号抽取器,它的作用是从被噪声污染的信号中抽取原来的信号。
具体地,假设输入的待处理图像为f(x,y),在退化函数H的作用下,由于受到噪声η(x,y)的影响,最终得到一个退化图像g(x,y)。这时得到一个图像退化公式:g(x,y)=η(x,y)+f(x,y),并利用Adaptive Filter方法对图像进行降噪,其方法的核心思想是:
其中,是整张图像的噪声方差,是点(x,y)附近的一个窗口内的像素灰度均值,是点(x,y)附近一个窗口内的像素灰度的方差。
可以理解的是,在医院摄像头的图像采集中,不同强度的随机信号(也称噪声)往往会污染所采集的图像,而被污染的图像对后续的图像分析和处理存在不可预知的影响,自适应图像降噪滤波器可以减少噪声对输入图像的影响。
在本发明的至少一个实施例中,在对所述图像进行预处理,得到待检测图像前,所述方法还包括:
降维单元117对所述图像进行降维处理。
可以理解的是,由于所获得数据维度过高,在处理这样的数据时耗时过大,因此首先对高维数据进行降维的处理。
具体地,所述降维单元117采用主成分分析算法对所述图像进行降维处理。
其中,主成分分析算法是一种通过正交变换将一组可能存在相关性的变量转换为一组线性不相关变量的方法。
训练单元119采用Adaboost算法训练至少一个弱分类器。
在本发明的至少一个实施例中,所述AdaBoost算法的核心是迭代,其针对不同的训练集构造出基本分类器(弱分类器),然后将每一个基本分类器组合到一起,形成一个最终的强分类器。
具体地,所述AdaBoost算法的实现是通过调整数据分布,其依据是:判断每一次训练集当中每一个样本分类的正确性,以及上次样本总体分类的准确率,来设置每一个样本的权值。而新得到的权值将作为下层分类器训练的数据集,然后将每一次训练出的分类器组合起来,形成最终的决策分类器。
在本发明实施例中,利用下述公式训练弱分类器:
其中:f为特征,θ为阈值,p指示不等号的方向,x表示一个检测子窗口。根据每一个方向梯度直方图特征f,训练其弱分类器h(x,f,p,θ),也就是确定f的最优阈值,使得这个弱分类器h(x,f,p,θ)对所有训练样本的分类误差很低。
所述训练单元119集合所述至少一个弱分类器,训练至少一个强分类器。
在弱分类器训练完成之后,将会对不同训练集上得到的分类器集合起来训练强分类器。
具体地,所述训练单元119采用级联分类器。所述弱分类器的个数比较有限,所述训练单元119通过尽量多的强分类器级联。每个特征f表示在训练样本中计算的所有可能出现的矩形特征值,即计算所有的弱分类器,并从中选择性能好的分类器。假定给定一连串训练样本(x1,y1),(x2,y2),…(xn,yn),其中负样本(非人脸)用yi=0来表示,正样本(人脸)用yi=1来表示,通过对弱分类器进行集合,并对其最小错误率εt的最佳分类器hi(x)进行选取,εt=minf,p,θi(wi/∑wi)|h(x,f,p,θ)-yi|,其中w为特征权值,则最后得到最终的强分类器:
式中,t为特征,βt=εt/(1-εt)。
级联单元120级联所述至少一个强分类器,得到级联分类器。
在本发明的至少一个实施例中,所述级联分类器就是将上面训练得到的强分类器通过级联(串联)的方式组成一个人脸检测级联分类器,这个级联分类器就是一个退化的决策树。在级联分类器中,第2层分类器分类是由第1层分类得到的正样本触发的,第3层分类器分类是由第2层分类得到的正样本触发的,依次类推。最终检测到一般环境下的所有人脸。
可以理解的是,AdaBoost算法很好的利用弱分类器进行级联,并采用不同分类算法的弱分类器,具有很高的精度。
检测单元112基于局部二值模式特征(Local Binary Patterns,LBP),采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱。
在本发明的至少一个实施例中,所述检测单元112基于局部二值模式特征,采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱包括:
所述检测单元112基于分块局部二值模式特征算法提取所述待检测图像的特征数据,并将所述特征数据输入到所述级联分类器中,得到所述待检测图像的特征图谱。
具体地,局部二值模式特征是提取灰度图像局部纹理特征的一种算子,该算子通过比较中心像素和邻域像素的大小来获得描述中心像素的二值码元。由于局部二值模式特征对某像素的特征描述都参考了周围像素值,因此有利于克服局部噪声、光照、姿势等带来的负面影响。
在本发明实施例中,设图像窗口中心为P0,则该点的LBP算子编码公式为:
其中,Pi表示该中心像素点相邻的像素值,s(·)为量化算子,其表达式为:
由于无论图像本身的大小是多少,对同一种LBP算子而言,提取的特征维数都是相同的。因此,这样的LBP特征不能够清楚地描述图像的细节信息。
在本实施例中,为了表示人脸图像的局部纹理,所述检测单元112采用分块局部二值模式特征算法,将原始图像分成大小相同或大小不同的子图像,然后采用相同的LBP算子对每个子图像进行编码,并统计特征直方图,然后将所有直方图串联作为对应图像的特征表示,据此得到基于LBP特征的特征数据。
可以理解的是,LBP作为特征描述符有很多良好的特性,其是在局部区域进行计算,也就是在细胞单元上进行计算,这样,LBP作为描述符去对视频中图像进行处理时,能够比较好的适应光照变化和形变的影响。
通过上述实施方式,所述检测单元112能够准确且全面地得到所述待检测图像的特征图谱。
识别单元113将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸。
其中,所述神经网络模型包括一个7*7的卷积层、一个3*3的最大值池化层及4个卷积模块。
在本发明的至少一个实施例中,所述识别单元113将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸包括:
所述识别单元113将所述特征图谱依次输入所述7*7的卷积层、所述3*3的最大值池化层及所述4个卷积模块,得到所述第一人脸。
具体地,卷积神经网络(Convolutional Neural Networks,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,其基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。特征映射结构采用sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性。此外,由于一个映射面上的神经元共享权值,因而减少了网络自由参数的个数。卷积神经网络中的每一个卷积层都紧跟着一个用来求局部平均与二次提取的计算层,这种特有的两次特征提取结构减小了特征分辨率。
具体地,所述方法还包括:
在所述最大值池化层,下采样单元118对所述特征图谱在空间维度上进行下采样处理。
所述下采样单元118对所述特征图谱在空间维度上进行下采样操作,使得输入的特征图的长和宽变为原来的一半。
进一步地,每个卷积模块从具有线性投影的构建块开始,随后是具有本体映射的不同数量的构建块,最后输出所述第一人脸。
通过上述实施方式,卷积神经网络的多层网络结构能自动提取输入数据的深层特征,不同层次的网络可以学习到不同层次的特征,从而大大提高对图像处理的准确率,并且,卷积神经网络通过局部感知和权值共享,保留了图像间的关联信息,并且大大减少了所需参数的数量。通过最大池化层技术,进一步缩减网络参数数量,提高模型的鲁棒性,可以让模型持续地扩展深度,继续增加隐层,从而更高效地对图像进行处理。
匹配单元114将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸。
在本发明的至少一个实施例中,用户可以通过医保注册人脸档案,形成个人识别人脸帐户,并最终形成医保数据库。
具体地,所述配置数据库包括所述医保数据库,所述配置数据库中存储着所有与医疗有关的数据。
在本发明的至少一个实施例中,为了满足场景适应性的要求,采集非限制场景下的人脸图像,并建立训练数据库。同时,为了提高网络的泛化及识别能力,对训练数据集进行扩充。
具体地,采用水平翻转(Y轴镜像)的方式扩充训练数据集,即在行不变的情况下,将图像的左右像素进行交换,得到新的图像。
在本发明的至少一个实施例中,所述目标人脸对应的用户可以包括正在等待叫号的患者。
调取单元115从所述配置数据库中调取所述目标人脸对应的用户数据。
在本发明的至少一个实施例中,所述用户数据包括,但不限于以下一种或者多种的组合:
就诊时间、就诊地点、人脸图像、就诊诊室、问诊医生等。
叫号单元116根据所述用户数据进行叫号。
在本发明的至少一个实施例中,所述叫号单元116根据所述用户数据进行叫号包括:
所述叫号单元116从所述用户数据中获取就诊时间,并确定当前时间,所述叫号单元116计算所述就诊时间与所述当前时间的差值,当所述差值满足配置时间范围时,所述叫号单元116发出就诊提示。
其中,所述配置时间范围可以进行自定义配置,如:15至30秒,本发明不限制。
进一步地,所述叫号单元116可以在显示屏上显示就诊时间及就诊用户,并发出语音提示。
进一步地,在进行检查前,所述叫号单元116还可以对所述用户进行身份验证(即人脸验证),并在所述用户通过人脸验证后,允许所述用户进入检查诊室。
在本发明的至少一个实施例中,就诊结束后,当用户根据医师诊断进行各项检查项目及药品开设等时,所述叫号单元116可以直接在各个检查室对用户进行人脸验证,并在验证通过后,对用户执行各项检查项目。
当用户根据医师诊断进行药品开设等时,所述叫号单元116还可以直接在药房对用户进行人脸验证,并在验证通过后,为用户取药。
由以上技术方案可以看出,本发明当接收到叫号指令时,获取配置摄像装置采集的图像,并对所述图像进行预处理,得到待检测图像,进一步基于局部二值模式特征,采用预先训练的级联分类器对所述待检测图像进行人脸检测,得到具有细节信息、且更加全面的所述待检测图像的特征图谱,再将所述特征图谱输入到预先训练的神经网络模型中进行深层次的人脸识别,得到第一人脸,进而提高了人脸识别的准确率,进一步将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸,并从所述配置数据库中调取所述目标人脸对应的用户数据,根据所述用户数据进行叫号,从而基于人脸识别技术自动进行叫号,直观性、便捷性更强。
如图3所示,是本发明实现基于人脸识别的叫号方法的较佳实施例的电子设备的结构示意图。
所述电子设备1是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备1还可以是但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(InternetProtocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备1还可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。
所述电子设备1所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如基于人脸识别的叫号程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
所述处理器13执行所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个基于人脸识别的叫号方法实施例中的步骤,例如图1所示的步骤S10、S11、S12、S13、S14、S15、S16、S17、S18、S19。
或者,所述处理器13执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如:当接收到叫号指令时,获取配置摄像装置采集的图像;对所述图像进行预处理,得到待检测图像;采用Adaboost算法训练至少一个弱分类器;集合所述至少一个弱分类器,训练至少一个强分类器;级联所述至少一个强分类器,得到级联分类器;基于局部二值模式特征,采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱;将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸;将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸;从所述配置数据库中调取所述目标人脸对应的用户数据;根据所述用户数据进行叫号。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的执行过程。例如,所述计算机程序可以被分割成获取单元110、预处理单元111、检测单元112、识别单元113、匹配单元114、调取单元115、叫号单元116、降维单元117、下采样单元118、训练单元119及级联单元120。
所述存储器12可用于存储所述计算机程序和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机程序和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器12可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是集成电路中没有实物形式的具有存储功能的电路,如RAM(Random-AccessMemory,随机存取存储器)、FIFO(First In First Out,)等。或者,所述存储器12也可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种基于人脸识别的叫号方法,所述处理器13可执行所述多个指令从而实现:当接收到叫号指令时,获取配置摄像装置采集的图像;对所述图像进行预处理,得到待检测图像;采用Adaboost算法训练至少一个弱分类器;集合所述至少一个弱分类器,训练至少一个强分类器;级联所述至少一个强分类器,得到级联分类器;基于局部二值模式特征,采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱;将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸;将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸;从所述配置数据库中调取所述目标人脸对应的用户数据;根据所述用户数据进行叫号。
根据本发明优选实施例,所述处理器13执行多个指令包括:
对所述图像进行灰度化处理,得到灰度图像;
对所述灰度图像进行二值化处理,得到黑白图像;
对所述黑白图像进行降噪处理,得到所述待检测图像。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
对所述图像进行降维处理。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
基于分块局部二值模式特征算法提取所述待检测图像的特征数据;
将所述特征数据输入到所述级联分类器中,得到所述待检测图像的特征图谱。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
将所述特征图谱依次输入所述7*7的卷积层、所述3*3的最大值池化层及所述4个卷积模块,得到所述第一人脸。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
在所述最大值池化层,对所述特征图谱在空间维度上进行下采样处理。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
从所述用户数据中获取就诊时间;
确定当前时间;
计算所述就诊时间与所述当前时间的差值;
当所述差值满足配置时间范围时,发出就诊提示。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种基于人脸识别的叫号方法,其特征在于,所述方法包括:
当接收到叫号指令时,获取配置摄像装置采集的图像;
对所述图像进行预处理,得到待检测图像;
采用Adaboost算法训练至少一个弱分类器;
集合所述至少一个弱分类器,训练至少一个强分类器;
级联所述至少一个强分类器,得到级联分类器;
基于局部二值模式特征,采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱;
将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸,其中,所述神经网络模型包括一个7*7的卷积层、一个3*3的最大值池化层及4个卷积模块;
将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸;
从所述配置数据库中调取所述目标人脸对应的用户数据;
根据所述用户数据进行叫号。
2.如权利要求1所述的基于人脸识别的叫号方法,其特征在于,所述对所述图像进行预处理,得到待检测图像包括:
对所述图像进行灰度化处理,得到灰度图像;
对所述灰度图像进行二值化处理,得到黑白图像;
对所述黑白图像进行降噪处理,得到所述待检测图像。
3.如权利要求2所述的基于人脸识别的叫号方法,其特征在于,在对所述图像进行预处理,得到待检测图像前,所述方法还包括:
对所述图像进行降维处理。
4.如权利要求1所述的基于人脸识别的叫号方法,其特征在于,所述基于局部二值模式特征,采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱包括:
基于分块局部二值模式特征算法提取所述待检测图像的特征数据;
将所述特征数据输入到所述级联分类器中,得到所述待检测图像的特征图谱。
5.如权利要求1所述的基于人脸识别的叫号方法,其特征在于,所述将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸包括:
将所述特征图谱依次输入所述7*7的卷积层、所述3*3的最大值池化层及所述4个卷积模块,得到所述第一人脸。
6.如权利要求5所述的基于人脸识别的叫号方法,其特征在于,所述方法还包括:
在所述最大值池化层,对所述特征图谱在空间维度上进行下采样处理。
7.如权利要求1所述的基于人脸识别的叫号方法,其特征在于,所述根据所述用户数据进行叫号包括:
从所述用户数据中获取就诊时间;
确定当前时间;
计算所述就诊时间与所述当前时间的差值;
当所述差值满足配置时间范围时,发出就诊提示。
8.一种基于人脸识别的叫号装置,其特征在于,所述装置包括:
获取单元,用于当接收到叫号指令时,获取配置摄像装置采集的图像;
预处理单元,用于对所述图像进行预处理,得到待检测图像;
训练单元,用于采用Adaboost算法训练至少一个弱分类器;
所述训练单元,还用于集合所述至少一个弱分类器,训练至少一个强分类器;
级联单元,用于级联所述至少一个强分类器,得到级联分类器;
检测单元,用于基于局部二值模式特征,采用所述级联分类器对所述待检测图像进行人脸检测,得到所述待检测图像的特征图谱;
识别单元,用于将所述特征图谱输入到预先训练的神经网络模型中进行人脸识别,得到第一人脸,其中,所述神经网络模型包括一个7*7的卷积层、一个3*3的最大值池化层及4个卷积模块;
匹配单元,用于将所述第一人脸与配置数据库中的人脸进行匹配,得到匹配的人脸作为目标人脸;
调取单元,用于从所述配置数据库中调取所述目标人脸对应的用户数据;
叫号单元,用于根据所述用户数据进行叫号。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的基于人脸识别的叫号方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的基于人脸识别的叫号方法。
CN201910334790.XA 2019-04-24 2019-04-24 基于人脸识别的叫号方法、装置、电子设备及存储介质 Active CN110163111B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910334790.XA CN110163111B (zh) 2019-04-24 2019-04-24 基于人脸识别的叫号方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910334790.XA CN110163111B (zh) 2019-04-24 2019-04-24 基于人脸识别的叫号方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN110163111A true CN110163111A (zh) 2019-08-23
CN110163111B CN110163111B (zh) 2024-06-28

Family

ID=67639974

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910334790.XA Active CN110163111B (zh) 2019-04-24 2019-04-24 基于人脸识别的叫号方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN110163111B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110795995A (zh) * 2019-09-16 2020-02-14 平安科技(深圳)有限公司 数据处理方法、装置及计算机可读存储介质
CN110866443A (zh) * 2019-10-11 2020-03-06 厦门身份宝网络科技有限公司 人像存储方法、人脸识别方法、设备及存储介质
CN110889326A (zh) * 2019-10-16 2020-03-17 中国科学院自动化研究所南京人工智能芯片创新研究院 基于人体检测的插队行为监测警告系统、方法、装置和存储介质
CN111444965A (zh) * 2020-03-27 2020-07-24 泰康保险集团股份有限公司 基于机器学习的数据处理方法及相关设备
CN111460994A (zh) * 2020-03-31 2020-07-28 佛山科学技术学院 基于人脸识别的防丢失助行器、控制方法及存储介质
CN111768542A (zh) * 2020-06-28 2020-10-13 浙江大华技术股份有限公司 一种闸机控制系统、方法、装置、服务器及存储介质
CN112200080A (zh) * 2020-10-10 2021-01-08 平安国际智慧城市科技股份有限公司 一种人脸识别方法、装置、电子设备及存储介质
CN112215187A (zh) * 2020-10-21 2021-01-12 广州市晶华精密光学股份有限公司 一种智能汽车开门方法、装置、智能汽车及存储介质
CN112906655A (zh) * 2021-03-29 2021-06-04 建信金融科技有限责任公司 用户状态判定方法和装置
CN113626786A (zh) * 2021-08-11 2021-11-09 深圳市宝泽科技有限公司 局域无线网内设备管理方法、装置、存储介质及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914904A (zh) * 2013-10-30 2014-07-09 北京安捷天盾科技发展有限公司 人脸识别排号机
CN104751136A (zh) * 2015-03-11 2015-07-01 西安理工大学 一种基于人脸识别的多相机视频事件回溯追踪方法
CN107293031A (zh) * 2017-08-12 2017-10-24 合肥全飞信息科技有限公司 一种基于人脸识别的医院就诊系统
CN108898093A (zh) * 2018-02-11 2018-11-27 陈佳盛 一种人脸识别方法及应用该方法的电子病历登陆系统
CN109446904A (zh) * 2018-09-25 2019-03-08 中国平安人寿保险股份有限公司 排队取号方法、装置、计算机设备及存储介质
WO2019056471A1 (zh) * 2017-09-19 2019-03-28 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914904A (zh) * 2013-10-30 2014-07-09 北京安捷天盾科技发展有限公司 人脸识别排号机
CN104751136A (zh) * 2015-03-11 2015-07-01 西安理工大学 一种基于人脸识别的多相机视频事件回溯追踪方法
CN107293031A (zh) * 2017-08-12 2017-10-24 合肥全飞信息科技有限公司 一种基于人脸识别的医院就诊系统
WO2019056471A1 (zh) * 2017-09-19 2019-03-28 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN108898093A (zh) * 2018-02-11 2018-11-27 陈佳盛 一种人脸识别方法及应用该方法的电子病历登陆系统
CN109446904A (zh) * 2018-09-25 2019-03-08 中国平安人寿保险股份有限公司 排队取号方法、装置、计算机设备及存储介质

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110795995A (zh) * 2019-09-16 2020-02-14 平安科技(深圳)有限公司 数据处理方法、装置及计算机可读存储介质
CN110795995B (zh) * 2019-09-16 2024-05-31 平安科技(深圳)有限公司 数据处理方法、装置及计算机可读存储介质
CN110866443A (zh) * 2019-10-11 2020-03-06 厦门身份宝网络科技有限公司 人像存储方法、人脸识别方法、设备及存储介质
CN110866443B (zh) * 2019-10-11 2023-06-16 厦门身份宝网络科技有限公司 人像存储方法、人脸识别方法、设备及存储介质
CN110889326B (zh) * 2019-10-16 2022-07-01 中科南京人工智能创新研究院 基于人体检测的插队行为监测警告系统、方法、装置和存储介质
CN110889326A (zh) * 2019-10-16 2020-03-17 中国科学院自动化研究所南京人工智能芯片创新研究院 基于人体检测的插队行为监测警告系统、方法、装置和存储介质
CN111444965A (zh) * 2020-03-27 2020-07-24 泰康保险集团股份有限公司 基于机器学习的数据处理方法及相关设备
CN111444965B (zh) * 2020-03-27 2024-03-12 泰康保险集团股份有限公司 基于机器学习的数据处理方法及相关设备
CN111460994A (zh) * 2020-03-31 2020-07-28 佛山科学技术学院 基于人脸识别的防丢失助行器、控制方法及存储介质
CN111460994B (zh) * 2020-03-31 2023-04-25 佛山科学技术学院 基于人脸识别的防丢失助行器、控制方法及存储介质
CN111768542A (zh) * 2020-06-28 2020-10-13 浙江大华技术股份有限公司 一种闸机控制系统、方法、装置、服务器及存储介质
CN112200080A (zh) * 2020-10-10 2021-01-08 平安国际智慧城市科技股份有限公司 一种人脸识别方法、装置、电子设备及存储介质
CN112215187A (zh) * 2020-10-21 2021-01-12 广州市晶华精密光学股份有限公司 一种智能汽车开门方法、装置、智能汽车及存储介质
CN112906655A (zh) * 2021-03-29 2021-06-04 建信金融科技有限责任公司 用户状态判定方法和装置
CN112906655B (zh) * 2021-03-29 2023-10-17 建信金融科技有限责任公司 用户状态判定方法和装置
CN113626786A (zh) * 2021-08-11 2021-11-09 深圳市宝泽科技有限公司 局域无线网内设备管理方法、装置、存储介质及设备

Also Published As

Publication number Publication date
CN110163111B (zh) 2024-06-28

Similar Documents

Publication Publication Date Title
CN110163111A (zh) 基于人脸识别的叫号方法、装置、电子设备及存储介质
Ahila Priyadharshini et al. A deep learning approach for person identification using ear biometrics
CN114913565B (zh) 人脸图像检测方法、模型训练方法、装置及存储介质
KR102554724B1 (ko) 이미지 내 객체를 식별하기 위한 방법 및 상기 방법을 실행하기 위한 모바일 디바이스
Zhong et al. Face recognition with enhanced local directional patterns
CN105917353B (zh) 用于生物认证的特征提取及匹配以及模板更新
CN112084917B (zh) 一种活体检测方法及装置
CN110222572B (zh) 跟踪方法、装置、电子设备及存储介质
CN109829396B (zh) 人脸识别运动模糊处理方法、装置、设备及存储介质
Durga et al. A ResNet deep learning based facial recognition design for future multimedia applications
Khan et al. A recent survey on the applications of genetic programming in image processing
CN110569756A (zh) 人脸识别模型构建方法、识别方法、设备和存储介质
CN110232318A (zh) 穴位识别方法、装置、电子设备及存储介质
CN110852311A (zh) 一种三维人手关键点定位方法及装置
CN112883980B (zh) 一种数据处理方法及系统
CN111680544B (zh) 人脸识别方法、装置、系统、设备及介质
CN111695462A (zh) 一种人脸识别方法、装置、存储介质和服务器
Bezak Building recognition system based on deep learning
CN110610131B (zh) 人脸运动单元的检测方法、装置、电子设备及存储介质
Liu et al. Iris recognition in visible spectrum based on multi-layer analogous convolution and collaborative representation
Alelaiwi et al. Steerable pyramid transform and local binary pattern based robust face recognition for e-health secured login
Sarmah et al. Optimization models in steganography using metaheuristics
CN112580395A (zh) 基于深度信息的3d人脸活体识别方法、系统、设备及介质
CN110008922A (zh) 用于终端设备的图像处理方法、设备、装置、介质
CN114511877A (zh) 一种行为识别方法、装置、存储介质及终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant