CN112818960A - 基于人脸识别的等待时长处理方法、装置、设备及介质 - Google Patents

基于人脸识别的等待时长处理方法、装置、设备及介质 Download PDF

Info

Publication number
CN112818960A
CN112818960A CN202110321612.0A CN202110321612A CN112818960A CN 112818960 A CN112818960 A CN 112818960A CN 202110321612 A CN202110321612 A CN 202110321612A CN 112818960 A CN112818960 A CN 112818960A
Authority
CN
China
Prior art keywords
image
face
video image
model
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110321612.0A
Other languages
English (en)
Other versions
CN112818960B (zh
Inventor
谢鹏
陈杭
洪叁亮
梁俊杰
赖众程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202110321612.0A priority Critical patent/CN112818960B/zh
Publication of CN112818960A publication Critical patent/CN112818960A/zh
Application granted granted Critical
Publication of CN112818960B publication Critical patent/CN112818960B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明涉及数据处理技术领域,本发明公开了一种基于人脸识别的等待时长处理方法、装置、设备及介质,所述方法包括:通过实时采集到监控视频图像,并对监控视频图像进行图像阈值识别,识别出动态阈值;将监控视频图像和动态阈值输入人脸识别模型中,通过人脸识别模型进行人脸识别,识别出待处理人脸图像;将与小于动态阈值的相似度值对应的待处理人脸图像确定为入库图像,并封装入人脸特征库;接收到办理时间和办理视频图像,通过时长获取模型检索办理视频图像,获取匹配的入库时间;根据办理时间和获取的入库时间,确定出等待时长,并写入人脸特征库中,并改变服务环境。本发明实现了准确获取客户的等待时长,提升客户的体验满意度和服务质量。

Description

基于人脸识别的等待时长处理方法、装置、设备及介质
技术领域
本发明涉及大数据的数据处理技术领域,尤其涉及一种基于人脸识别的等待时长处理方法、装置、设备及介质。
背景技术
在服务行业中,客户等待服务时的等待时长是影响客户体验的重要因素之一,而且等待时长的长短直接影像客户是否可在剩余的工作时间内办理完客户所需业务的一个重要指标,对服务点的服务质量的提升至关重要。
目前,大多数客户都是在不知各服务点的等待时长的情况下,随机选取服务点取号并办理业务,如此,很有可能到服务点结束服务的时候还未完成业务办理,很容易导致客户不满和不耐烦的情绪,现有技术中,尚不存在可以提供准确的等待时长的方法,通常需要客户在现场咨询服务点的工作人员,工作人员凭自己的经验评估出等待时长,因此,等待时长的统计不客观和不科学,导致服务的针对性差;而等待时长的不稳定,也会严重影响服务点的服务水准,以及客户的体验满意度。
发明内容
本发明提供一种基于人脸识别的等待时长处理方法、装置、计算机设备及存储介质,实现了通过运用图像阈值识别方法,识别出监控视频图像的动态阈值,并运用人脸识别技术,根据动态阈值判断是否入库于人脸特征库,再匹配出办理时间,得到等待时长,以及切换至与等待时长匹配的缓压动态投影图像以改变服务环境,提高了获取客户的等待时长的准确性,能够提升客户的体验满意度和服务质量。
一种基于人脸识别的等待时长处理方法,包括:
实时通过第一视频采集设备采集到监控视频图像,并将所述监控视频图像输入动态阈值识别模型中;
通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值;
将所述监控视频图像和所述动态阈值输入人脸识别模型中,通过所述人脸识别模型对所述监控视频图像进行人脸识别,识别出所述监控视频图像中的至少一个待处理人脸图像;
通过所述人脸识别模型确定各所述待处理人脸图像在人脸特征库中的相似度值,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并将所有所述入库图像封装入所述人脸特征库;
接收到办理时间和通过第二视频采集设备采集到的办理视频图像,通过时长获取模型检索所述办理视频图像,从所述人脸特征库中获取与检索的所述办理视频图像匹配的入库时间;
通过所述时长获取模型根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并将确定的所述等待时长写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境。
一种基于人脸识别的等待时长处理装置,包括:
采集模块,用于实时通过第一视频采集设备采集到监控视频图像,并将所述监控视频图像输入动态阈值识别模型中;
第一识别模块,用于通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值;
第二识别模块,用于将所述监控视频图像和所述动态阈值输入人脸识别模型中,通过所述人脸识别模型对所述监控视频图像进行人脸识别,识别出所述监控视频图像中的至少一个待处理人脸图像;
封装模块,用于通过所述人脸识别模型确定各所述待处理人脸图像在人脸特征库中的相似度值,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并将所有所述入库图像封装入所述人脸特征库;
接收模块,用于接收到办理时间和通过第二视频采集设备采集到的办理视频图像,通过时长获取模型检索所述办理视频图像,从所述人脸特征库中获取与检索的所述办理视频图像匹配的入库时间;
确定模块,用于通过所述时长获取模型根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并将确定的所述等待时长写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于人脸识别的等待时长处理方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于人脸识别的等待时长处理方法的步骤。
本发明提供的基于人脸识别的等待时长处理方法、装置、计算机设备及存储介质,通过实时采集到监控视频图像,并通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值;将所述监控视频图像和所述动态阈值输入人脸识别模型中,通过所述人脸识别模型对所述监控视频图像进行人脸识别,识别出所述监控视频图像中的至少一个待处理人脸图像;通过所述人脸识别模型将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并封装入所述人脸特征库;接收到办理时间和办理视频图像,通过时长获取模型检索所述办理视频图像,从所述人脸特征库中获取与检索的所述办理视频图像匹配的入库时间;根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境,如此,实现了通过图像阈值识别方法,识别出监控视频图像的动态阈值,通过人脸识别技术,运用动态阈值判断是否入库于人脸特征库,从而确定出客户首次进入服务点的入库时间,再通过人脸识别技术,匹配出客户的办理时间,从而获取等待时长,以及切换至与等待时长匹配的缓压动态投影图像以改变服务环境,提高了获取客户的等待时长的准确性,能够提升客户的体验满意度和服务质量。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于人脸识别的等待时长处理方法的应用环境示意图;
图2是本发明一实施例中基于人脸识别的等待时长处理方法的流程图;
图3是本发明一实施例中基于人脸识别的等待时长处理方法的步骤S10的流程图;
图4是本发明一实施例中基于人脸识别的等待时长处理方法的步骤S20的流程图;
图5是本发明一实施例中基于人脸识别的等待时长处理方法的步骤S40的流程图;
图6是本发明一实施例中基于人脸识别的等待时长处理装置的转换模块的原理框图;
图7是本发明一实施例中计算机设备的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的基于人脸识别的等待时长处理方法,可应用在如图1的应用环境中,其中,客户端(计算机设备)通过网络与服务器进行通信。其中,客户端(计算机设备)包括但不限于为各种个人计算机、笔记本电脑、智能手机、平板电脑、摄像头和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种基于人脸识别的等待时长处理方法,其技术方案主要包括以下步骤S10-S60:
S10,实时通过第一视频采集设备采集到监控视频图像,并将所述监控视频图像输入动态阈值识别模型中。
可理解地,所述第一视频采集设备为安装在服务点的门口,并用于采集门口的视频的设备,每个所述服务点均安装有与其对应的所述第一视频采集设备,所述服务点为提供用户办理业务的服务地点,所述服务点有与其对应的服务器,实时采集到所述监控视频图像,采集所述监控视频图像可以为采集到的视频片段中筛选出清晰度最高的图像,将其确定为所述监控视频图像,并将所述监控视频图像输入至所述动态阈值识别模型,所述动态阈值识别模型为根据所述监控视频图像的明暗程度和清晰度,确定出所述监控视频图像中的人脸的动态阈值,通过所述动态阈值可以确定出人脸的相似程度,即大于该动态阈值说明两个人脸的特征相似,小于或等于该动态阈值说明两个人脸的特征不相似。
在一实施例中,如图3所示,所述步骤S10中,即所述实时通过第一视频采集设备采集到监控视频图像,包括:
S101,实时通过所述第一视频采集设备获取视频片段。
可理解地,通过所述第一视频采集设备实时获取监控到的所述视频片段,所述视频片段为截取所述预设时间段的视频,所述预设时间段可以根据需求设定,比如预设时间段为1秒,5秒等等,作为优选,所述预设时间设置为1秒。
S102,对所述视频片段进行均等划分,得到与预设数量相同数量的均分视频。
可理解地,所述均等划分为将所述视频片段划分成相等时间段长度的视频,将该视频确定为所述均分视频,所述预设数量为预设的数量,优选为10,划分出的所述均分视频的个数与所述预设数量相同,例如:10个均分视频。
S103,从各所述均分视频中抽取出与各所述均分视频一一对应的待识别图像。
可理解地,从各所述均分视频中抽取出与各所述均分视频一一对应的所述待识别图像,抽取的方式可以为时间戳最早的所述均分视频中随机抽取所述待识别图像,再按照所述待识别图像的间距进行抽取,所述待识别图像的间距为T=S/N,其中,S为所述预设时间段的总帧数,N为所述预设数量。
S104,通过图像增强模型对所有所述待识别图像进行图像增强处理,采集到所述图像增强模型输出的与所述视频片段对应的所述监控视频图像。
可理解地,所述图像增强模型为对输入的所有图像进行图像增强处理,从而输出具有清晰度最高的图像的模型,所述图像增强处理为对所有所述待识别图像进行高斯滤波,将高斯滤波后的所有所述待识别图像进行叠加得到多通道的叠加图像,并对叠加后的所述叠加图像进行边缘锐化,即将所述叠加图像中边缘模糊的通道进行去边缘化,最后保留了清晰边缘的通道,再将边缘锐化后的叠加图像进行合并的处理过程,从而采集到所述视频片段对应的所述监控视频图像。
本发明实现了通过实时通过所述第一视频采集设备获取视频片段;对所述视频片段进行均等划分,得到与所述预设数量相同数量的均分视频;从各所述均分视频中抽取出与各所述均分视频一一对应的所述待识别图像;通过图像增强模型对所有所述待识别图像进行图像增强处理,采集到所述图像增强模型输出的与所述视频片段对应的所述监控视频图像,如此,实现了通过均等划分、抽取及图像增强处理,能够快速地采集到去模糊化的监控视频图像,为后续提供了清晰的监控视频图像,提升了后续的人脸识别技术的准确性和可靠性。
S20,通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值。
可理解地,所述动态阈值识别模型包括所述明暗识别模型和所述清晰度识别模型,所述明暗识别模型为识别出输入的所述监控视频图像的明暗程度的模型,所述清晰度识别模型为识别出输入的所述监控视频图像的清晰度的模型,所述图像阈值识别为通过所述明暗识别模型识别出所述监控视频图像的明暗程度,并通过所述清晰度识别模型识别出所述监控视频图像的清晰度,以及根据所述明暗识别模型识和所述清晰度识别模型输出的结果确定出所述动态阈值,所述动态阈值为确定出该监控视频图像中的人脸相似程度的阈值,通过所述动态阈值可以动态调整采集到的所述监控视频图像中的人脸的相似程度的阈值。
在一实施例中,如图4所示,所述步骤S20中,即所述通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值,包括:
S201,将所述监控视频图像分别输入明暗识别模型和清晰度识别模型中;所述动态阈值识别模型包括所述明暗识别模型和所述清晰度识别模型。
可理解地,分别将所述监控视频图像输入所述明暗识别模型和所述清晰度识别模型,所述明暗识别模型为能够识别出输入的图像中的明暗程度的模型,所述清晰度识别模型为能够识别出输入的图像清晰度程度的模型,所述动态阈值识别模型包括所述明暗识别模型和所述清晰度识别模型。
S202,通过所述明暗识别模型对所述监控视频图像进行明暗识别,得到与所述监控视频图像对应的明暗值,同时通过所述清晰度识别模型对所述监控视频图像进行清晰度识别,得到与所述监控视频图像对应的清晰度值。
可理解地,所述监控视频图像为包括红色(Red,R)、绿色(Green,G)和蓝色(Blue,B)等三种颜色通道的图像,所述监控视频图像中的各个像素点包括红色通道的红色分量值、绿色通道的绿色分量值和蓝色通道的蓝色分量值,通过所述明暗识别模型对所述监控视频图像进行颜色空间转换,所述颜色空间转换为将所述监控视频图像转换成包括色调(Hue,H)、饱和度(Saturation,S)、明度(Value,V)等三个颜色空间通道的转换图像,所述转换图像中的各个像素点包括色调通道的色调分量值、饱和度通道的饱和度分量值和明度通道的明度分量值,色调(H)是色彩的基本属性,就是平常说的颜色的名称,如红色、黄色等,饱和度(S)是指色彩的纯度,即越高值代表色彩越纯,往低代表逐渐变灰,取0-100%范围的数值,明度(V)代表色彩的明亮程度,但与光强无直接联系,其中,一个像素点的所述明度通道的明度分量值为取该像素点的所述红色分量值、所述绿色分量值和所述蓝色分量值中的最大值,在RGB颜色空间中,三种颜色的分量值与其所述生成的颜色之间的联系并不直观,通过HSV颜色空间,更类似于人类感觉颜色的方式,封装了颜色、深浅、明暗等信息,通过所述明暗识别模型对所述转换图像进行明暗均值计算,得到所述明暗值,所述明暗均值计算为对所有所述明度分量值的均值的计算过程。
其中,通过所述清晰度识别模型对所述监控视频图像进行基于离散余弦变换(DCT,Discrete Cosine Transform)的模糊转换,得到模糊图像,通过所述清晰度识别模型对所述模糊图像进行清晰度计算,得到所述清晰度值,所述清晰度识别模型为能够对输入的图像进行清晰度识别,识别出输入的图像的清晰度值的模型,所述基于离散余弦变换(DCT)的模糊转换,即模糊转换也称为离散余弦变换,通过所述基于离散余弦变换(DCT)的模糊转换可以将输入的二维的图像转换到频率域空间中,即首先,将输入的二维的图像分割成8x8或16x16的小块;第二,对每个小块进行离散余弦变换;第三,舍弃高频系数,保留低频系数,其中,所述高频系数为输入的图像中的边界或者纹理信息,所述低频系数主要是保存的图像中平坦区域信息,即变化比较平稳的信息;最后,由所有的系数转换至频率域中,形成输入的图像的系数矩阵,即得到所述模糊图像的转换过程,对所述模糊图像进行清晰度计算得到该模糊图像的清晰度值,从而确定出所述清晰度值。
在一实施例中,所述步骤S202中,即所述通过所述明暗识别模型对所述监控视频图像进行明暗识别,得到与所述监控视频图像对应的明暗值,包括:
S2021,通过所述明暗识别模型中的颜色空间转换模型,对所述监控视频图像进行颜色空间转换,得到转换图像。
可理解地,所述颜色空间转换模型为运用颜色空间转换技术对输入的图像进行转换的模型,所述颜色空间转换为将所述监控视频图像转换成包括色调(Hue,H)、饱和度(Saturation,S)、明度(Value,V)等三个颜色空间通道的转换图像,所述转换图像中的各个像素点包括色调通道的色调分量值、饱和度通道的饱和度分量值和明度通道的明度分量值。
S2022,通过所述明暗识别模型中的明暗均值模型,对所述转换图像进行明暗均值计算,得到所述明暗值。
可理解地,所述明暗均值模型为计算出所述转换图像的明暗值的模型,将所述转换图像的各个像素点的所述明度分量值输入明暗均值函数中,计算得到所述明暗值,所述明暗均值模型中的明暗均值函数为:
Figure BDA0002993085370000111
其中,
avg(v)为明暗值;
M为转换图像的横轴尺寸,即所述转换图像的长;
N为转换图像的纵轴尺寸,即所述转换图像的宽;
x为转换图像中的像素点的横坐标;
y为转换图像中的像素点的纵坐标;
V(x,y)为转换图像中坐标为(x,y)对应的明度分量值。
本发明实现了通过颜色空间转换模型能够将RGB颜色空间的监控视频图像转换成HSV颜色空间的转换图像,并运用明暗均值函数对该转换图像进行明暗均值计算,得到明暗值,如此,能够通过颜色空间转换,转换成具有更多颜色、深浅、明暗等信息的图像,并且衡量出该图像的明暗程度,为后续动态阈值提供了数据基础,提高了后续识别的准确性。
在一实施例中,所述步骤S202中,即所述通过所述清晰度识别模型对所述监控视频图像进行清晰度识别,得到与所述监控视频图像对应的清晰度值,包括:
S2023,通过所述清晰度识别模型中离散余弦变换模型,对所述监控视频图像进行模糊转换,得到模糊图像。
可理解地,所述离散余弦变换模型为运用所述模糊转换对输入的图像进行转换的模型,所述模糊转换为离散余弦变换,通过所述基于离散余弦变换(DCT)的模糊转换可以将输入的二维的图像转换到频率域空间中,即首先,将输入的二维的图像分割成8x8或16x16的小块;第二,对每个小块进行离散余弦变换;第三,计算高频系数和低频系数,其中,所述高频系数为输入的图像中的边界或者纹理信息,所述低频系数主要是保存的图像中平坦区域信息,即变化比较平稳的信息;第四,根据所有的高频系数和低频系数确定高频区域和低频区域,高频区域指的是输入的二维图像中突变程度大的区域(比如目标边界区域),通常的纹理丰富区域,低频区域指的是输入的二维图像中平坦区域,将所有高频区域和低频区域转换至频率域中,形成输入的图像的系数矩阵;最后,对该系数矩阵进行离散余弦反变换(即DCT反转换),得到模糊图像的转换过程。
S2024,通过所述清晰度识别模型中的清晰度识别模型,对所述模糊图像进行清晰度计算,得到所述清晰度值。
可理解地,所述清晰度识别模型为计算出所述模糊图像的清晰度值的模型,将所述模糊图像的各个像素点对应的转换值和与其对应的所述监控视频图像的各个像素点对应的灰度值输入所述述清晰度识别模型中的清晰度函数中,计算得到所述清晰度值,所述清晰度函数为:
Figure BDA0002993085370000121
其中,
sharpness为清晰度值;
M为转换图像的横轴尺寸,即所述转换图像的长;
N为转换图像的纵轴尺寸,即所述转换图像的宽;
x为转换图像中的像素点的横坐标;
y为转换图像中的像素点的纵坐标;
R(x,y)为模糊图像中坐标为(x,y)对应的转换值;
I(x,y)为与该模糊图像对应的监控视频图像中坐标为(x,y)对应的灰度值,所述灰度值可以通过监控视频图像中坐标为(x,y)对应的红色分量值、绿色分量值和蓝色分量值,按照I(x,y)=0.299×R(x,y)+
0.587×G(x,y)+0.114×B(x,y)计算获得,其中,R(x,y)为监控视频图像中坐标为(x,y)对应的红色分量值;G(x,y)为监控视频图像中坐标为(x,y)对应的绿色分量值;B(x,y)为监控视频图像中坐标为(x,y)对应的蓝色分量值。
S203,根据所述明暗值和所述清晰度值,确定与所述监控视频图像对应的所述动态阈值。
可理解地,将所述明暗值和所述清晰度值进行权重相乘,计算与所述监控视频图像对应的所述动态阈值,其中,动态阈值函数为:
threshold=avg(v)×30+sharpness×70。
本发明实现了通过将所述监控视频图像分别输入明暗识别模型和清晰度识别模型中;通过所述明暗识别模型对所述监控视频图像进行明暗识别,得到与所述监控视频图像对应的明暗值,同时通过所述清晰度识别模型对所述监控视频图像进行清晰度识别,得到与所述监控视频图像对应的清晰度值;根据所述明暗值和所述清晰度值,确定与所述监控视频图像对应的所述动态阈值,如此,实现了根据监控视频图像中的人图像的明暗度及清晰度,动态生成人脸识别的阈值,提高了识别准确率,以及减少了匹配遗漏的失误率。
S30,将所述监控视频图像和所述动态阈值输入人脸识别模型中,通过所述人脸识别模型对所述监控视频图像进行人脸识别,识别出所述监控视频图像中的至少一个待处理人脸图像。
可理解地,将所述监控视频图像和所述动态阈值输入至所述人脸识别模型,所述人脸识别模型能够识别出输入的所述监控视频图像中的人脸,并通过输入的所述动态阈值,匹配查找识别到的人脸是否在人脸特征库中,将不匹配的人脸封装入所述人脸特征库,所述人脸识别模型为基于SSD的人脸目标检测模型,所述人脸识别模型能够快速地定位出多个人脸区域的模型,并提取出人脸区域,通过所述人脸识别模型对所述监控视频图像进行卷积,从而提取出具有人脸特征的全连接特征向量,通过对全连接特征向量进行人脸识别,识别出所述监控视频图像中的人脸区域,并将所述人脸区域确定为所述待处理人脸图像。
其中,所述人脸识别为提取输入的所述监控视频图像中的多个人脸的人脸特征,根据提取的多个人脸特征进行识别,识别出具有人脸特征的人脸区域,所述人脸特征为与人脸相关的特征,所述人脸特征包括人脸的五官定位点特征、眼部特征、鼻子特征、口特征和脸轮廓特征等等。
S40,通过所述人脸识别模型确定各所述待处理人脸图像在人脸特征库中的相似度值,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并将所有所述入库图像封装入所述人脸特征库。
可理解地,通过所述人脸识别模型将各所述待处理人脸图像与当前的所述人脸特征库中的所有历史的入库图像进行对比,计算出各所述待处理人脸图像与当前的所述人脸特征库中的所有历史的入库图像的检索相似度值,并且确定出与各所述待处理人脸图像对应的所述相似度值,所述相似度值为在所有与所述待处理人脸图像对应的所述检索相似度值中的最大值,若所述相似度值等于或者大于输入的所述动态阈值,说明所述待处理人脸图像已经在所述人脸特征库中,若所述相似度值小于输入的所述动态阈值,说明所述待处理人脸图像不在所述人脸特征库中,就需要将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为所述入库图像,并通过所述人脸识别模型对确定的所述入库图像进行封装,并将封装后的所述入库图像存储入所述人脸特征库,所述封装为给所述入库图像赋予一个唯一的客户标识,将当前时间确定为入库时间,并将所述动态阈值、所述客户标识、所述入库时间和所述入库图像彼此关联。
在一实施例中,所述步骤S40之前,即所述通过所述人脸识别模型确定各所述待处理人脸图像在人脸特征库中的相似度值之前,包括:
S401,定时检测是否存在人脸特征库。
可理解地,定时检测为在每一天的预设时间点进行检测,例如当天的0时1分开始检测,检测是否存在当天的人脸特征库。
S402,在未检测到所述人脸特征库时,创建人脸特征库,并将预设的工作人员特征图像存入所述人脸特征库,以供所述人脸识别模型将所述工作人员特征图像标识为非入库图像。
可理解地,在检测不到当天的所述人脸特征库时,创建当天的人脸特征库,并从预设的工作人员数据库中获取所有所述工作人员特征图像,将包括工作人员人脸的所述工作人员特征图像复制存储至所述人脸特征库中,所述人脸识别模型将所有存储入所述人脸特征库的所述工作人员特征图像标记为所述非入库图像,所述非入库图像为工作人员的图像而非客户的图像,可以从后续的人脸识别模型中剔除计算等待时长,为客户的等待时长计算更加准确。
在一实施例中,如图5所示,所述步骤S40中,即所述通过所述人脸识别模型确定各所述待处理人脸图像在人脸特征库中的相似度值,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并将所有所述入库图像封装入所述人脸特征库,包括:
S403,通过所述人脸识别模型计算出所述待处理人脸图像与存储在所述人脸特征库中的历史的入库图像的检索相似度值。
可理解地,所述人脸识别模型还包括识别出所述待处理人脸图像和所述入库图像之间的相似度,以及将小于所述动态阈值的所述待处理人脸图像封装入人脸特征库中的模型,所述待处理人脸图像和所述入库图像之间的相似度可以通过所述检索相似度值进行衡量,计算出所述检索相似度值的计算方法可以根据需求设定,比如余弦相似度算法、直方图相似度算法等等,例如:通过所述人脸识别模型将所述待处理人脸图像和各所述人脸特征库中的所述入库图像进行转换成向量图,然后运用余弦相似度算法,计算向量图之间的余弦距离来表征两张图片的相似度,该余弦距离为所述检索相似度值。
其中,历史的入库图像为历史存储在所述人脸特征库中的已经封装后的待处理人脸图像,所述人脸特征库中存储有当天的历史不断存储入的入库图像。
S404,将最大的检索相似度值确定为在人脸特征库中与所述待处理人脸图像对应的相似度值。
可理解地,最大的检索相似度值为所述待处理人脸图像与所有所述入库图像的所述检索相似度值中最大的值,也即为与所述待处理人脸图像对应的所述相似度值。
S405,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像。
可理解地,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像标记为入库图像。
S406,通过所述人脸识别模型对确定的所述入库图像进行封装,并将封装后的所述入库图像存储入所述人脸特征库。
可理解地,所述人脸识别模型对标记的该入库图像进行封装,所述封装的过程包括存储动态阈值、赋予标识编号和增加入库时间,所述标识编号为系统自动生成的一个唯一标识码(即客户标识),所述入库时间为存储时的时间点,所述入库时间的格式可以根据需求设定,将将封装后的所述入库图像存储入所述人脸特征库中,如此,该入库图像将变成历史的入库图像。
本发明实现了通过所述人脸识别模型计算出所述待处理人脸图像与存储在所述人脸特征库中的历史的入库图像的检索相似度值;将最大的检索相似度值确定为在人脸特征库中与所述待处理人脸图像对应的相似度值;将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像;通过所述人脸识别模型对确定的所述入库图像进行封装,并将封装后的所述入库图像存储入所述人脸特征库,如此,实现了通过计算与所述待处理人脸图像对应的检索相似度值,确定出相似度值,从而判断该待处理人脸图像是否为历史的入库图像,在小于该待处理人脸图像的动态阈值时,将其确定为入库图像,并封装入人脸特征库,表示该待处理人脸图像为新增的入库图像,以供后续计算等待时间提供时间的数据,并且能够自动判别出是否为新增的入库图像。
在一实施例中,所述步骤S406中,即所述通过所述人脸识别模型对确定的所述入库图像进行封装,并将封装后的所述入库图像存储入所述人脸特征库,包括:
S4061,生成与所述入库图像关联的客户标识。
可理解地,系统自动生成与所述入库图像关联的唯一标识码,即所述客户标识,将其与所述入库图像关联。
S4062,将当前时间确定为入库时间,并将所述入库时间与所述入库图像关联。
可理解地,所述入库时间为存储时的时间点,所述入库时间的格式可以根据需求设定,比如格式为yyyymmdd等,并将所述入库时间与所述入库图像关联。
S4063,将所述入库图像、所述动态阈值、与所述入库图像关联的所述客户标识和所述入库时间存储入所述人脸特征库中。
本发明实现了通过所述人脸识别模型对确定的所述入库图像进行封装,并将封装后的所述入库图像存储入所述人脸特征库,所述封装为给所述入库图像赋予一个唯一的客户标识,将当前时间确定为入库时间,并将所述动态阈值、所述客户标识、所述入库时间和所述入库图像彼此关联,如此,为后续计算等待时间提供时间的数据以及提供了计算检索相似度的动态阈值,为后续人脸识别提高了准确率。
S50,接收到办理时间和通过第二视频采集设备采集到的办理视频图像,通过时长获取模型检索所述办理视频图像,从所述人脸特征库中获取与检索的所述办理视频图像匹配的入库时间。
可理解地,所述第二视频采集设备为安装在服务窗口上,在客户在办理业务时,所述第二视频采集设备可以采集到客户的人脸的图像,在客户开始入座接受服务进行办理业务时,获取此时的时间,将其确定为所述办理时间,并通过所述第二视频采集设备采集到所述办理视频图像,触发接收所述办理时间和所述办理视频图像。
其中,所述时长获取模型为能够检索出与所述办理视频图像匹配的所述入库时间,根据所述办理时间和所述入库时间,确定出等待时长,并根据该等待时长,将服务窗口上投影的图像切换成与该等待时长匹配的缓压动态投影图像的模型,所述时长获取模型检索所述办理视频图像的过程为将所述办理视频图像与所述人脸特征库中的历史的各所述入库图像进行匹配,即将所述办理图像和所有所述入库图像进行人脸特征比对,得到所述办理视频图像与各所述入库图像的各匹配度,各个所述入库图像都有一个所述动态阈值与其对应,将与大于与所述入库图像对应的所述动态阈值的所述匹配度对应的该入库图像确定为与所述办理视频图像匹配的所述入库图像,并获取该入库图像的所述入库时间。
S60,通过所述时长获取模型根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并将确定的所述等待时长写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境。
可理解地,通过所述时长获取模型将所述办理时间与获取的所述入库时间的差值确定为与所述办理视频图像对应的所述等待时长,并将该等待时长和与所述办理视频图像匹配的所述入库图像关联,以及写入所述人脸特征库中,同时根据所述等待时长,匹配出与其匹配的所述缓压动态投影图像,所述缓压动态投影图像为能够缓解客户的心情和压力的动态环境且可投影的图像,通过在所述服务窗口上投影该缓压动态投影图像,用于改善客户所见的服务环境,以舒缓客户的心情和焦虑,提升了客户的满意度,如此,实现了运用人脸识别技术,通过进入服务点的人脸采集和办理业务的人脸匹配的两者时间差,确定客户的等待时长,提高了获取客户的等待时长的准确性,能够提升客户的体验满意度和服务质量。
本发明实现了通过实时通过第一视频采集设备采集到监控视频图像,并将所述监控视频图像输入动态阈值识别模型中;通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值;将所述监控视频图像和所述动态阈值输入人脸识别模型中,通过所述人脸识别模型对所述监控视频图像进行人脸识别,识别出所述监控视频图像中的至少一个待处理人脸图像;通过所述人脸识别模型确定各所述待处理人脸图像在人脸特征库中的相似度值,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并将所有所述入库图像封装入所述人脸特征库;接收到办理时间和通过第二视频采集设备采集到的办理视频图像,通过时长获取模型检索所述办理视频图像,从所述人脸特征库中获取与检索的所述办理视频图像匹配的入库时间;通过所述时长获取模型根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并将确定的所述等待时长写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境。
如此,实现了通过实时采集到监控视频图像,并通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值;将所述监控视频图像和所述动态阈值输入人脸识别模型中,通过所述人脸识别模型对所述监控视频图像进行人脸识别,识别出所述监控视频图像中的至少一个待处理人脸图像;通过所述人脸识别模型将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并封装入所述人脸特征库;接收到办理时间和办理视频图像,通过时长获取模型检索所述办理视频图像,从所述人脸特征库中获取与检索的所述办理视频图像匹配的入库时间;根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境,因此,实现了通过图像阈值识别方法,识别出监控视频图像的动态阈值,通过人脸识别技术,运用动态阈值判断是否入库于人脸特征库,从而确定出客户首次进入服务点的入库时间,再通过人脸识别技术,匹配出客户的办理时间,从而获取等待时长,以及切换至与等待时长匹配的缓压动态投影图像以改变服务环境,提高了获取客户的等待时长的准确性,能够提升客户的体验满意度和服务质量。
在一实施例中,所述步骤S60之后,即所述通过所述时长获取模型根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并将确定的所述等待时长写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境之后,包括:
S601,接收到推荐请求,获取所述推荐请求中的查询时间和地点信息。
可理解地,在客户需要去附近的服务点办理业务时,不知道各服务点的等待时长多久以及去服务点的路程多长的情况下,触发所述推荐请求,表明客户需要获取推荐的服务点,所述推荐请求包括所述查询时间和地点信息,所述查询时间为客户触发所述推荐请求的时间,所述地点信息为客户当前的定位坐标的信息,所述服务点为提供服务的业务办理点。
S602,获取与各服务点对应的所述人脸特征库中的平均等待时长和服务点地址信息;一个所述服务点与一个所述人脸特征库和一个所述服务点地址信息对应;所述平均等待时长为与其对应的所述人脸特征库中的所有所述等待时长的均值。
可理解地,所述平均等待时长为与其对应的所述人脸特征库中的所有所述等待时长的均值,所述服务点地址信息为该服务点的坐标的信息。
S603,将所述查询时间、所述地点信息、获取的所有所述服务点地址信息和所有所述平均等待时长输入服务点推荐模型。
可理解地,所述服务点推荐模型能够实现根据所述查询时间、所述地点信息、获取的所有所述服务点地址信息和所有所述平均等待时长,预测出与所述查询时间和所述地点信息最匹配的服务点的模型。
S604,通过所述服务点推荐模型进行服务点预测,获取预测出的推荐结果,并将所述推荐结果推荐至与发出所述推荐请求对应的终端。
可理解地,所述服务点预测为通过所述地点信息和所述服务点地址信息,预测出所述服务点地址信息抵达所述地点信息的时长,再将该时长与所述平均等待时长相加,将相加的值与所述查询时间累加预测出办理的时间的预测过程,将预测的办理的时间与该服务点的工作结束时间距离按照大到小的顺序排序,并去除预测的办理的时间超出与该服务点的工作结束时间的服务点,将排序后的服务点作为所述推荐结果,并将所述推荐结果推荐至与发出所述推荐请求对应的终端,如此,能够客观地、快速地、准确地向客户推荐可服务的服务点,提高了推荐的准确性和可靠性,提升了客户的体验满意度。
本发明实现了通过接收到推荐请求,获取所述推荐请求中的查询时间和地点信息;获取与各服务点对应的所述人脸特征库中的平均等待时长和服务点地址信息;将所述查询时间、所述地点信息、获取的所有所述服务点地址信息和所有所述平均等待时长输入服务点推荐模型;通过所述服务点推荐模型进行服务点预测,获取预测出的推荐结果,并将所述推荐结果推荐至与发出所述推荐请求对应的终端,如此,实现了通过获取推荐请求中的查询时间和地点信息,以及各服务点的平均等待时长和服务点地址信息,通过服务点推荐模型预测出推荐结果,并推荐给客户,能够客观地、快速地、准确地向客户推荐可服务的服务点,提高了推荐的准确性和可靠性,提升了客户的体验满意度。
在一实施例中,提供一种基于人脸识别的等待时长处理装置,该基于人脸识别的等待时长处理装置与上述实施例中基于人脸识别的等待时长处理方法一一对应。如图6所示,该基于人脸识别的等待时长处理装置包括采集模块11、第一识别模块12、第二识别模块13、封装模块14、接收模块15和确定模块16。各功能模块详细说明如下:
采集模块11,用于实时通过第一视频采集设备采集到监控视频图像,并将所述监控视频图像输入动态阈值识别模型中;
第一识别模块12,用于通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值;
第二识别模块13,用于将所述监控视频图像和所述动态阈值输入人脸识别模型中,通过所述人脸识别模型对所述监控视频图像进行人脸识别,识别出所述监控视频图像中的至少一个待处理人脸图像;
封装模块14,用于通过所述人脸识别模型确定各所述待处理人脸图像在人脸特征库中的相似度值,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并将所有所述入库图像封装入所述人脸特征库;
接收模块15,用于接收到办理时间和通过第二视频采集设备采集到的办理视频图像,通过时长获取模型检索所述办理视频图像,从所述人脸特征库中获取与检索的所述办理视频图像匹配的入库时间;
确定模块16,用于通过所述时长获取模型根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并将确定的所述等待时长写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境。
关于基于人脸识别的等待时长处理装置的具体限定可以参见上文中对于基于人脸识别的等待时长处理方法的限定,在此不再赘述。上述基于人脸识别的等待时长处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于人脸识别的等待时长处理方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于人脸识别的等待时长处理方法。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中基于人脸识别的等待时长处理方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于人脸识别的等待时长处理方法,其特征在于,包括:
实时通过第一视频采集设备采集到监控视频图像,并将所述监控视频图像输入动态阈值识别模型中;
通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值;
将所述监控视频图像和所述动态阈值输入人脸识别模型中,通过所述人脸识别模型对所述监控视频图像进行人脸识别,识别出所述监控视频图像中的至少一个待处理人脸图像;
通过所述人脸识别模型确定各所述待处理人脸图像在人脸特征库中的相似度值,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并将所有所述入库图像封装入所述人脸特征库;
接收到办理时间和通过第二视频采集设备采集到的办理视频图像,通过时长获取模型检索所述办理视频图像,从所述人脸特征库中获取与检索的所述办理视频图像匹配的入库时间;
通过所述时长获取模型根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并将确定的所述等待时长写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境。
2.如权利要求1所述的基于人脸识别的等待时长处理方法,其特征在于,所述通过所述时长获取模型根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并将确定的所述等待时长写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境之后,包括:
接收到推荐请求,获取所述推荐请求中的查询时间和地点信息;
获取与各服务点对应的所述人脸特征库中的平均等待时长和服务点地址信息;一个所述服务点与一个所述人脸特征库和一个所述服务点地址信息对应;所述平均等待时长为与其对应的所述人脸特征库中的所有所述等待时长的均值;
将所述查询时间、所述地点信息、获取的所有所述服务点地址信息和所有所述平均等待时长输入服务点推荐模型;
通过所述服务点推荐模型进行服务点预测,获取预测出的推荐结果,并将所述推荐结果推荐至与发出所述推荐请求对应的终端。
3.如权利要求1所述的基于人脸识别的等待时长处理方法,其特征在于,所述实时通过第一视频采集设备采集到监控视频图像,包括:
实时通过所述第一视频采集设备获取视频片段;
对所述视频片段进行均等划分,得到与预设数量相同数量的均分视频;
从各所述均分视频中抽取出与各所述均分视频一一对应的待识别图像;
通过图像增强模型对所有所述待识别图像进行图像增强处理,采集到所述图像增强模型输出的与所述视频片段对应的所述监控视频图像。
4.如权利要求1所述的基于人脸识别的等待时长处理方法,其特征在于,所述通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值,包括:
将所述监控视频图像分别输入明暗识别模型和清晰度识别模型中;所述动态阈值识别模型包括所述明暗识别模型和所述清晰度识别模型;
通过所述明暗识别模型对所述监控视频图像进行明暗识别,得到与所述监控视频图像对应的明暗值,同时通过所述清晰度识别模型对所述监控视频图像进行清晰度识别,得到与所述监控视频图像对应的清晰度值;
根据所述明暗值和所述清晰度值,确定与所述监控视频图像对应的所述动态阈值。
5.如权利要求4所述的基于人脸识别的等待时长处理方法,其特征在于,所述通过所述明暗识别模型对所述监控视频图像进行明暗识别,得到与所述监控视频图像对应的明暗值,包括:
通过所述明暗识别模型中的颜色空间转换模型,对所述监控视频图像进行颜色空间转换,得到转换图像;
通过所述明暗识别模型中的明暗均值模型,对所述转换图像进行明暗均值计算,得到所述明暗值。
6.如权利要求4所述的基于人脸识别的等待时长处理方法,其特征在于,所述通过所述清晰度识别模型对所述监控视频图像进行清晰度识别,得到与所述监控视频图像对应的清晰度值,包括:
通过所述清晰度识别模型中离散余弦变换模型,对所述监控视频图像进行模糊转换,得到模糊图像;
通过所述清晰度识别模型中的清晰度识别模型,对所述模糊图像进行清晰度计算,得到所述清晰度值。
7.如权利要求1所述的基于人脸识别的等待时长处理方法,其特征在于,所述通过所述人脸识别模型确定各所述待处理人脸图像在人脸特征库中的相似度值,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并将所有所述入库图像封装入所述人脸特征库,包括:
通过所述人脸识别模型计算出所述待处理人脸图像与存储在所述人脸特征库中的历史的入库图像的检索相似度值;
将最大的检索相似度值确定为在人脸特征库中与所述待处理人脸图像对应的相似度值;
将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像;
通过所述人脸识别模型对确定的所述入库图像进行封装,并将封装后的所述入库图像存储入所述人脸特征库。
8.一种基于人脸识别的等待时长处理装置,其特征在于,包括:
采集模块,用于实时通过第一视频采集设备采集到监控视频图像,并将所述监控视频图像输入动态阈值识别模型中;
第一识别模块,用于通过所述动态阈值识别模型对所述监控视频图像进行图像阈值识别,识别出与所述监控视频图像对应的动态阈值;
第二识别模块,用于将所述监控视频图像和所述动态阈值输入人脸识别模型中,通过所述人脸识别模型对所述监控视频图像进行人脸识别,识别出所述监控视频图像中的至少一个待处理人脸图像;
封装模块,用于通过所述人脸识别模型确定各所述待处理人脸图像在人脸特征库中的相似度值,将与小于所述动态阈值的所述相似度值对应的所述待处理人脸图像确定为入库图像,并将所有所述入库图像封装入所述人脸特征库;
接收模块,用于接收到办理时间和通过第二视频采集设备采集到的办理视频图像,通过时长获取模型检索所述办理视频图像,从所述人脸特征库中获取与检索的所述办理视频图像匹配的入库时间;
确定模块,用于通过所述时长获取模型根据所述办理时间和获取的所述入库时间,确定出与所述办理视频图像对应的等待时长,并将确定的所述等待时长写入所述人脸特征库中,以及在服务窗口上切换至与所述等待时长匹配的缓压动态投影图像以改变服务环境。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述基于人脸识别的等待时长处理方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述基于人脸识别的等待时长处理方法。
CN202110321612.0A 2021-03-25 2021-03-25 基于人脸识别的等待时长处理方法、装置、设备及介质 Active CN112818960B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110321612.0A CN112818960B (zh) 2021-03-25 2021-03-25 基于人脸识别的等待时长处理方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110321612.0A CN112818960B (zh) 2021-03-25 2021-03-25 基于人脸识别的等待时长处理方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN112818960A true CN112818960A (zh) 2021-05-18
CN112818960B CN112818960B (zh) 2023-09-05

Family

ID=75863553

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110321612.0A Active CN112818960B (zh) 2021-03-25 2021-03-25 基于人脸识别的等待时长处理方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN112818960B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569645A (zh) * 2021-06-28 2021-10-29 广东技术师范大学 基于图像检测的轨迹生成方法、装置及系统
CN113837075A (zh) * 2021-09-23 2021-12-24 平安银行股份有限公司 基于人脸识别的业务办理方法、装置、电子设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110751025A (zh) * 2019-09-06 2020-02-04 平安普惠企业管理有限公司 基于人脸识别的业务办理方法、装置、设备及介质
CN111241938A (zh) * 2019-12-31 2020-06-05 深圳奇迹智慧网络有限公司 基于图像校验的人脸识别方法、装置和计算机设备
WO2021000644A1 (zh) * 2019-07-04 2021-01-07 深圳壹账通智能科技有限公司 视频处理方法、装置、计算机设备和存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021000644A1 (zh) * 2019-07-04 2021-01-07 深圳壹账通智能科技有限公司 视频处理方法、装置、计算机设备和存储介质
CN110751025A (zh) * 2019-09-06 2020-02-04 平安普惠企业管理有限公司 基于人脸识别的业务办理方法、装置、设备及介质
CN111241938A (zh) * 2019-12-31 2020-06-05 深圳奇迹智慧网络有限公司 基于图像校验的人脸识别方法、装置和计算机设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569645A (zh) * 2021-06-28 2021-10-29 广东技术师范大学 基于图像检测的轨迹生成方法、装置及系统
CN113569645B (zh) * 2021-06-28 2024-03-22 广东技术师范大学 基于图像检测的轨迹生成方法、装置及系统
CN113837075A (zh) * 2021-09-23 2021-12-24 平安银行股份有限公司 基于人脸识别的业务办理方法、装置、电子设备及介质

Also Published As

Publication number Publication date
CN112818960B (zh) 2023-09-05

Similar Documents

Publication Publication Date Title
US11087447B2 (en) Systems and methods for quality assurance of image recognition model
CN108399052B (zh) 图片压缩方法、装置、计算机设备和存储介质
CN109543627B (zh) 一种判断驾驶行为类别的方法、装置、及计算机设备
CN109344742B (zh) 特征点定位方法、装置、存储介质和计算机设备
CN110569721A (zh) 识别模型训练方法、图像识别方法、装置、设备及介质
CN111680746B (zh) 车损检测模型训练、车损检测方法、装置、设备及介质
US11776257B2 (en) Systems and methods for enhancing real-time image recognition
CN110046577B (zh) 行人属性预测方法、装置、计算机设备和存储介质
CN111191568A (zh) 翻拍图像识别方法、装置、设备及介质
US11900676B2 (en) Method and apparatus for detecting target in video, computing device, and storage medium
US11941087B2 (en) Unbalanced sample data preprocessing method and device, and computer device
CN112818960A (zh) 基于人脸识别的等待时长处理方法、装置、设备及介质
CN111461170A (zh) 车辆图像检测方法、装置、计算机设备及存储介质
CN111259915A (zh) 翻拍图像识别的方法、装置、设备及介质
WO2021174940A1 (zh) 人脸检测方法与系统
CN111191533A (zh) 行人重识别的处理方法、装置、计算机设备和存储介质
CN111126208A (zh) 行人归档方法、装置、计算机设备及存储介质
CN114067431A (zh) 图像处理方法、装置、计算机设备和存储介质
KR102018046B1 (ko) 이미지 특징 추출 장치 및 방법
CA3136990A1 (en) PRINCIPAL POINT DETECTION METHOD OF A HUMAN BODY, APPARATUS, COMPUTER DEVICE AND STORAGE MEDIA
CN111159476B (zh) 目标对象的搜索方法、装置、计算机设备及存储介质
CN110163151B (zh) 人脸模型的训练方法、装置、计算机设备和存储介质
CN111340025A (zh) 字符识别方法、装置、计算机设备和计算机可读存储介质
CN109784379B (zh) 纺织品图片特征库的更新方法和装置
CN112383824A (zh) 视频广告过滤方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant