CN108960186B - 一种基于人脸的广告机用户识别方法 - Google Patents

一种基于人脸的广告机用户识别方法 Download PDF

Info

Publication number
CN108960186B
CN108960186B CN201810804277.8A CN201810804277A CN108960186B CN 108960186 B CN108960186 B CN 108960186B CN 201810804277 A CN201810804277 A CN 201810804277A CN 108960186 B CN108960186 B CN 108960186B
Authority
CN
China
Prior art keywords
face
faceid
personid
image
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810804277.8A
Other languages
English (en)
Other versions
CN108960186A (zh
Inventor
杨通
陈翔
杜曦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Kaiwei Network Technology Co ltd
Original Assignee
Nanjing Kaiwei Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Kaiwei Network Technology Co ltd filed Critical Nanjing Kaiwei Network Technology Co ltd
Priority to CN201810804277.8A priority Critical patent/CN108960186B/zh
Publication of CN108960186A publication Critical patent/CN108960186A/zh
Application granted granted Critical
Publication of CN108960186B publication Critical patent/CN108960186B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements

Abstract

本发明涉及一种基于人脸的广告机用户识别方法,广告机在无人脸状态下一直播放全屏广告;当有人脸出现在屏幕中时,通过屏幕进行AR互动截取该人脸的图像,计算该人脸图像的特征值;把该人脸图像的特征值人脸库中的特征值进行匹配,对用户进行识别。本发明还对计算人脸图像的特征值的方法进行了改进,从而可以在保证人脸识别准确率的基础上提高识别速度。本发明通过人脸作为身份特征对广告机进行身份识别,从而可以有针对性的推送个性化的广告内容,避免现有技术中采用指纹识别影响用户体验度,甚至可能具有相似指纹的两个不同用户可能会同时通过指纹验证的缺陷。

Description

一种基于人脸的广告机用户识别方法
技术领域
本发明涉及一种基于人脸的广告机用户识别方法,属于人脸识别技术领域。
背景技术
广告机是新一代的智能设备,通过终端软件控制、网络信息传输和多媒体终端显示构成一个完整的广告播控系统,并通过图片、文字、视频、小插件(天气、汇率等)等多媒体素材进行广告宣传。广告机最初的构想是将广告变被动为主动,所以广告机的互动性使得它具备很多公共服务功能,并以此来吸引顾客主动浏览广告。
随着人工智能技术的发展,人们对广告机的需求越来越智能化,因此能够快速而准确地对个人进行身份的识别并且为个人建立一个与之相对应的唯一身份ID将会是不可或缺的一步。
现有的身份识别技术,比如手机上的指纹识别,其指纹的识别精度范围是一个重大的挑战,识别过于精细时可能会导致用户再次输入指纹时无法通过识别,需要多次输入指纹,从而影响用户体验度;相反,识别过于粗糙时则会产生指纹无法与用户产生一一对应关系,具有相似指纹的两个不同用户可能会同时通过指纹验证。
而人脸作为个人最具有身份特征的部分,具有唯一性,其特征可以在无需刻意输入的情况下获取,因此用人脸来对个人进行唯一身份ID的对应是很好的选择。但是现有的人脸识别技术主要着重于追求准确度上的提升,然而要想让人脸识别技术在生活中的运用更加普遍化,更加用户友好,识别的速度成为亟待解决的技术问题。
基于深度学习的卷积神经网络模型是人脸识别技术的基石,该网络通过梯度下降反馈来不断来减小模型输出值与真实值的差从而逼近真实结果。比如现有的神经网络模型ResNet-50,其预测准确度虽已达到97%以上,但是该模型离投入到实际产品中使用仍有着很大提升空间。一些改进后的网络模型例如Facenet等,其计算精确性通过利用残差单元使其模型的准确性得到了提升,但其仍面临着占用内存过大、计算速度过低等问题。
发明内容
本发明要解决技术问题是:提供一种识别速度快、占用资源低的基于人脸的广告机用户识别方法。
为了解决上述技术问题,本发明提出的技术方案是:一种基于人脸的广告机用户识别方法,广告机中预存有包含n个人脸集的人脸库,n个人脸集对应的PersonID分别记为Pd1,Pd2,···,Pdn,其中PersonID为Pdj的人脸集中有k个FaceID fdj i与之相对应,其中i∈[1,k],j∈[1,n];
广告机在无人脸状态下一直播放全屏广告;
当有人脸出现在屏幕中时,广告机停止播放全屏广告,并在屏幕下方继续播放广告,同时通过屏幕进行AR互动截取该人脸的图像,计算该人脸图像的特征值作为FaceIDfd;把FaceID fd依次和PersonID为Pdj的人脸集中所有的FaceID fdj i的平均值进行对比,i∈[1,k],j∈[1,n],从而得到相似度百分比分别为η12,···,ηn
取ηl=max{η12,···,ηn},X为预设百分比阈值,如果X<ηl,则ηl对应的人脸集的PersonID为Pdl,此时广告机检测到的人脸对应为PersonID Pdl的用户;如果X>ηl,则认为目前人脸库中的所有PersonID均不与广告机检测到的人脸匹配;
其中,计算人脸图像的特征值的方法为:
第一步、读取人脸图像样本数据集,每幅人脸图像为3通道,其高度为112个像素,宽度为112个像素;
第二步、建立深度化可分离卷积模型,所述深度化可分离卷积模型在两个卷积模块之间级联了多个残差瓶颈模块,如下表所示:
输入图像大小 模块名称 通道数 重复次数 步幅间距
112*112*3 Conv3*3 64 1 2
56*56*64 Depthwise conv3*3 64 1 1
56*56*64 bottleneck 64 5 2
28*28*64 bottleneck 128 1 2
14*14*128 bottleneck 128 6 1
14*14*128 bottleneck 128 1 2
7*7*128 bottleneck 128 2 1
7*7*128 Conv1*1 512 1 1
7*7*512 linear GDConv7*7 512 1 1
1*1*512 linear conv1*1 128 1 1
表中,第一列为各模块的输入图像大小,第二列为模块名称,第三列为通道数,第四列为该模块的重复次数,第四列为步幅间距,卷积核采用3*3;
第三步、利用梯度下降算法更新深度化可分离卷积模型参数
1)通过所述深度化可分离卷积模型将所述样本数据集的人脸图像映射成512维特征向量;
2)计算损失函数,所述损失函数由Softmax函数和ArcFace函数加权构成,其中,Softmax函数的表达式如下:
Figure GDA0003444123210000031
式中,x表示样本经深度化可分离卷积模型映射而成的特征向量,N表示所述样本数据集的大小,i取值1~N,yi表示样本xi对应的标签;W向量表示待优化参数,包括
Figure GDA0003444123210000032
和Wj
Figure GDA0003444123210000033
表示样本xi在其标签yi处的权重,Wj表示输出节点j处的权重;b向量包括
Figure GDA0003444123210000034
和bj
Figure GDA0003444123210000035
表示样本xi在其标签yi处的偏差,bj表示输出节点j处的偏差;
ArcFace函数的表达式如下:
Figure GDA0003444123210000036
式中,
Figure GDA0003444123210000037
Figure GDA0003444123210000038
为样本xi与其对应标签yi的权重
Figure GDA0003444123210000039
的夹角,θj为样本xi与输出节点j处的权重Wj的夹角;m、s为预设参数,0.2≤m≤2,50≤s≤100;
最终的损失函数为:
Ltotal=Lsoftmax+Larcface
3)计算损失函数的梯度下降距离
Figure GDA00034441232100000310
其中μ是预设的学习率;
4)确定损失函数的梯度下降距离是否小于预设阈值ε,如果是则执行第四步,否则更新W向量后再执行步骤1),更新W向量的表达式如下:
Figure GDA00034441232100000311
第四步、通过更新参数后的深度化可分离卷积模型将从VR互动中截取的人脸图像映射成512维特征向量作为所需的特征值。
本发明通过人脸作为身份特征对广告机进行身份识别,从而可以有针对性的推送个性化的广告内容,避免现有技术中采用指纹识别影响用户体验度,甚至可能具有相似指纹的两个不同用户可能会同时通过指纹验证的缺陷。本发明对现有的人脸识别技术进行了改进,在追求准确度上大幅度提高了人脸识别的速度。
本发明计算人脸特征值的思想得益于2018年由Mark Sandler,Andrew Howard,Menglong Zhu,Andrey Zhmoginov,Liang-Chieh Chen发表的论文《MobileNetV2:InvertedResiduals and Linear Bottlenecks》(以下为叙述方便,简称为“引用论文”)。本发明在引用论文的基础上,对深度化神经网络的模型结构、损失函数等都做了优化,不仅保证了人脸识别的准确率,而且提升了人脸识别的速度。
本发明中的深度化可分离卷积(Depthwise Separable Convolution)网络模型可参考引用论文。其中深度化卷积是指在网络模型中相邻的两个卷积模块中,用尽可能多的卷积核连接输入通道,当卷积数量达到一定程度时,每一个通道都有一个自己的卷积核,这样就相当于每一个通道都被赋予了不同的权重。而以人脸作为输入层数据的图像一般不同位置像素点所携带的人脸数据信息是不一样的(靠近图片中央的位置会携带较多的人脸信息,靠近图片边角的位置则携带较少的人脸信息),所以这种给每个通道赋予不用卷积核的网络相当于给每个通道赋予了不同权重,因而将更加适用于以人脸作为输入层的图像。
本发明的改进之处在于对两个卷积模块之间级联了若干残差瓶颈模块。这是因为申请人发现现在普遍用到的卷积神经网络里都会用到ReLU模块或是PReLU模块(可参见引用论文),这些非线性函数总是会造成原始数据的丢失,而残差瓶颈模块的目的正是为了减少原始数据的丢失,其原理是通过增加卷积模块与卷积模块之间的连接层数来增加输入图像层与输出域之间的维度差,从而减少了ReLU或是PReLU造成的信息丢失。
本发明通过简化网络层次,优化网络结构,在保证识别准确率在高于99%的前提下,使得其在ARMv8移动终端上的识别速度达到了小于300ms,超出目前的主流解决方案。该结果将会使移动端设备拥有准确且快速的人脸识别功能。
现有技术中,在大多数可用的卷积神经网络模型中,Softmax损失函数被用作训练深层模型的监督信号。本发明对于损失函数的选择方面,在保留Softmax函数的基础之上,还增加了ArcFace损失函数,Softmax函数主要解决类间距离(不同人之间鉴别能力)的优化,而ArcFace函数的采用可以扩大每个分类面之间的间距,从而使得靠近边界的数据在分类过程中准确率更高,这样就在保证人脸识别准确性的基础上,大幅提高了人脸识别速度。
具体实施方式
实施例
本实施例的基于人脸的广告机用户识别方法,其中广告机中预存有包含n个人脸集的人脸库,n个人脸集对应的PersonID分别记为Pd1,Pd2,···,Pdn,其中PersonID为Pdj的人脸集中有k个FaceID fdj i与之相对应,其中i∈[1,k],j∈[1,n]。
本实施例的广告机用户识别方法如下:
广告机在无人脸状态下一直播放全屏广告;
当有人脸出现在屏幕中时,广告机停止播放全屏广告,并在屏幕下方继续播放广告,同时通过屏幕进行AR互动截取该人脸的图像,计算该人脸图像的特征值作为FaceIDfd;把FaceID fd依次和PersonID为Pdj的人脸集中所有的FaceID fdj i的平均值进行对比,i∈[1,k],j∈[1,n],从而得到相似度百分比分别为η12,···,ηn
优选的,对于从VR互动中截取的人脸图像,计算该人脸图像的特征值之前,首先通过MCTNN算法提取五个特征点,然后进行人脸仿射变换使人脸端正化。具体来说,假设每一幅图片数据用MTCNN算法提取的五个特征点的初始坐标分别为(x1',y1')、(x2',y2')、(x3',y3')、(x4',y4')和(x5',y5');在画布中确定五个初始坐标点(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)和(x5,y5),使得这五个点在画布中具有对称性;对每一幅图片数据中提取的五个特征点与画布中确定的五个初始坐标点之间建立仿射变换方程,根据仿射变换方程对每一幅图片数据进行姿势校正使人脸对齐。
取ηl=max{η12,···,ηn},X为预设百分比阈值,如果X<ηl,则ηl对应的人脸集的PersonID为Pdl,此时广告机检测到的人脸对应为PersonID Pdl的用户;如果X>ηl,则认为目前人脸库中的所有PersonID均不与广告机检测到的人脸匹配。
优选的,当X<ηl时,广告机检测到的人脸对应为PersonID Pdl的用户,此时把FaceID fd与人脸集Pdl中的所有FaceID进行对比,将相似度百分比最低的FaceID的值替换为FaceIDfd,并将人脸集Pdl的PersonID作为该FaceID fd对应的PersonID;当X>ηl时,创建一个对应此FaceID fd的新PersonID补充到人脸库中。
其中,计算人脸图像的特征值的方法为:
第一步、读取人脸图像样本数据集,每幅人脸图像为3通道,其高度为112个像素,宽度为112个像素;
现有的海量数据库,例如VGGFace2,其中的部分数据存在极高的相似性,并且有一些非人脸的污染数据存在其中。因此对数据库中的数据进行合并和清理是非常必要的一步,具体方法为:
对人脸数据集中已有的人脸数据样本通过FaceNet方法进行映射,得到在X维特征空间的一系列特征向量集合Λ={λ123,···},其中每一组特征向量λi均为X维,我们通过比较两组特征向量的夹角来判断其相似性。假设Λ中的两组X维特征向量分别为λi={vi1,vi2,...,vix},λj={vj1,vj2,...,vjx},则其夹角
Figure GDA0003444123210000051
在计算特征向量的两两夹角之前,预先设定某一角度的余弦阈值为0.6~0.9。当两组特征向量的夹角θ的余弦值小于预设阈值时,则两组特征向量对应的人脸数据样本具有相似性,并对具有相似性的人脸数据样本进行去重处理。
本实施例中X取512,即将人脸数据样本通过FaceNet方法进行映射为512维特征向量来判断其相似性。这样不仅保留了数据的多样性,而且提高了模型的训练速度。
第二步、建立深度化可分离卷积模型,所述深度化可分离卷积模型在相邻的两个卷积模块之间级联了多个残差瓶颈模块,如下表所示:
输入图像大小 模块名称 通道数 重复次数 步幅间距
112*112*3 Conv3*3 64 1 2
56*56*64 Depthwise conv3*3 64 1 1
56*56*64 bottleneck 64 5 2
28*28*64 bottleneck 128 1 2
14*14*128 bottleneck 128 6 1
14*14*128 bottleneck 128 1 2
7*7*128 bottleneck 128 2 1
7*7*128 Conv1*1 512 1 1
7*7*512 linear GDConv7*7 512 1 1
1*1*512 linear conv1*1 128 1 1
表中,第一列为各模块的输入图像大小,第二列为模块名称,第三列为通道数,第四列为该模块的重复次数,第四列为步幅间距,卷积核采用3*3。
本实施例在两个卷积模块之间加入了一些残差瓶颈模块(bottleneck),从而得到本发明的深度化可分离卷积模型以及模型中各模块的连接方式。为了简化说明,该表中的PReLU函数层和批量归一化BN层以及下采样单元层,均已略去,可参考引用论文。
训练时我们把长度为112像素,宽度为112像素,3通道的图像作为输入,经过本模型进行训练,输出128维的特征向量,从而完成从输入图像到输出特征值的映射。
第三步、利用梯度下降算法更新深度化可分离卷积模型参数
1)通过所述深度化可分离卷积模型将所述样本数据集的人脸图像映射成512维特征向量;
2)计算损失函数,所述损失函数由Softmax函数和ArcFace函数加权构成,其中,Softmax函数的表达式如下:
Figure GDA0003444123210000071
式中,x表示样本经深度化可分离卷积模型映射而成的特征向量,N表示所述样本数据集的大小,i取值1~N,yi表示样本xi对应的标签;W向量表示待优化参数,包括
Figure GDA0003444123210000072
和Wj
Figure GDA0003444123210000073
表示样本xi在其标签yi处的权重,Wj表示输出节点j处的权重;b向量包括
Figure GDA0003444123210000074
和bj
Figure GDA0003444123210000075
表示样本xi在其标签yi处的偏差,bj表示输出节点j处的偏差。
本实施例中Softmax函数、W向量、b向量、输出节点j均与2016年由Yandong Wen,Kaipeng Zhang,Zhifeng Li和Yu Qiao发表的论文《A Discriminative Feature LearningApproach for Deep Face Recognition》中相同,其表达式、计算方法与该论文中的Softmax函数均一致。
ArcFace函数的表达式如下:
Figure GDA0003444123210000076
式中,
Figure GDA0003444123210000077
Figure GDA0003444123210000078
为样本xi与其对应标签yi的权重
Figure GDA0003444123210000079
的夹角,θj为样本xi与输出节点j处的权重Wj的夹角;m、s为预设参数,0.2≤m≤2,50≤s≤100;
最终的损失函数为:
Ltotal=Lsoftmax+Larcface
3)计算损失函数的梯度下降距离
Figure GDA00034441232100000710
其中μ是预设的学习率,可根据经验获得,本实施例中μ取0.1;
4)确定损失函数的梯度下降距离是否小于预设阈值ε,其中预设阈值ε通常可取0.01,可根据经验调整;如果梯度下降距离是否小于预设阈值ε则执行第四步,否则更新W向量后再执行步骤1),更新W向量的表达式如下:
Figure GDA00034441232100000711
第四步、通过更新参数后的深度化可分离卷积模型进行人脸识别,即通过更新后的深度化可分离卷积模型输出人脸特征值,计算不同人脸图像特征值的相似度进行人脸识别,具体识别方法可参考引用论文。
本发明不局限于上述实施例所述的具体技术方案,除上述实施例外,本发明还可以有其他实施方式。对于本领域的技术人员来说,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等形成的技术方案,均应包含在本发明的保护范围之内。

Claims (3)

1.一种基于人脸的广告机用户识别方法,其特征在于:广告机中预存有包含n个人脸集的人脸库,n个人脸集对应的PersonID分别记为Pd1,Pd2,···,Pdn,其中PersonID为Pdj的人脸集中有k个FaceID fdj i与之相对应,其中i∈[1,k],j∈[1,n];
广告机在无人脸状态下一直播放全屏广告;
当有人脸出现在屏幕中时,广告机停止播放全屏广告,并在屏幕下方继续播放广告,同时通过屏幕进行AR互动截取该人脸的图像,计算该人脸图像的特征值作为FaceID fd;把FaceID fd依次和PersonID为Pdj的人脸集中所有的FaceID fdj i的平均值进行对比,i∈[1,k],j∈[1,n],从而得到相似度百分比分别为η12,···,ηn
取ηl=max{η12,···,ηn},X为预设百分比阈值,如果X<ηl,则ηl对应的人脸集的PersonID为Pdl,此时广告机检测到的人脸对应为PersonID Pdl的用户;如果X>ηl,则认为目前人脸库中的所有PersonID均不与广告机检测到的人脸匹配;
其中,计算人脸图像的特征值的方法为:
第一步、读取人脸图像样本数据集,每幅人脸图像为3通道,其高度为112个像素,宽度为112个像素;
第二步、建立深度化可分离卷积模型,所述深度化可分离卷积模型在两个卷积模块之间级联了多个残差瓶颈模块,如下表所示:
输入图像大小 模块名称 通道数 重复次数 步幅间距 112*112*3 Conv3*3 64 1 2 56*56*64 Depthwise conv3*3 64 1 1 56*56*64 bottleneck 64 5 2 28*28*64 bottleneck 128 1 2 14*14*128 bottleneck 128 6 1 14*14*128 bottleneck 128 1 2 7*7*128 bottleneck 128 2 1 7*7*128 Conv1*1 512 1 1 7*7*512 linear GDConv7*7 512 1 1 1*1*512 linear conv1*1 128 1 1
表中,第一列为各模块的输入图像大小,第二列为模块名称,第三列为通道数,第四列为该模块的重复次数,第四列为步幅间距,卷积核采用3*3;
第三步、利用梯度下降算法更新深度化可分离卷积模型参数
1)通过所述深度化可分离卷积模型将所述样本数据集的人脸图像映射成512维特征向量;
2)计算损失函数,所述损失函数由Softmax函数和ArcFace函数加权构成,其中,Softmax函数的表达式如下:
Figure FDA0003444123200000021
式中,x表示样本经深度化可分离卷积模型映射而成的特征向量,N表示所述样本数据集的大小,i取值1~N,yi表示样本xi对应的标签;W向量表示待优化参数,包括
Figure FDA0003444123200000022
和Wj
Figure FDA0003444123200000023
表示样本xi在其标签yi处的权重,Wj表示输出节点j处的权重;b向量包括
Figure FDA0003444123200000024
和bj
Figure FDA0003444123200000025
表示样本xi在其标签yi处的偏差,bj表示输出节点j处的偏差;
ArcFace函数的表达式如下:
Figure FDA0003444123200000026
式中,
Figure FDA0003444123200000027
Figure FDA0003444123200000028
为样本xi与其对应标签yi的权重
Figure FDA0003444123200000029
的夹角,θj为样本xi与输出节点j处的权重Wj的夹角;m、s为预设参数,0.2≤m≤2,50≤s≤100;
最终的损失函数为:
Ltotal=Lsoftmax+Larcface
3)计算损失函数的梯度下降距离
Figure FDA00034441232000000210
其中μ是预设的学习率;
4)确定损失函数的梯度下降距离是否小于预设阈值,如果是则执行第四步,否则更新W向量后再执行步骤1),更新W向量的表达式如下:
Figure FDA00034441232000000211
第四步、通过更新参数后的深度化可分离卷积模型将从VR互动中截取的人脸图像映射成512维特征向量作为所需的特征值。
2.根据权利要求1所述的基于人脸的广告机用户识别方法,其特征在于:当X<ηl时,广告机检测到的人脸对应为PersonID Pdl的用户,此时把FaceID fd与人脸集Pdl中的所有FaceID进行对比,将相似度百分比最低的FaceID的值替换为FaceIDfd,并将人脸集Pdl的PersonID作为该FaceID fd对应的PersonID;当X>ηl时,创建一个对应此FaceID fd的新PersonID补充到人脸库中。
3.根据权利要求1所述的基于人脸的广告机用户识别方法,其特征在于:对于从VR互动中截取的人脸图像,计算该人脸图像的特征值之前,首先通过MCTNN算法提取五个特征点,与原始画布中确定的五个初始坐标点建立仿射变换方程,然后进行仿射变换使人脸端正化。
CN201810804277.8A 2018-07-20 2018-07-20 一种基于人脸的广告机用户识别方法 Active CN108960186B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810804277.8A CN108960186B (zh) 2018-07-20 2018-07-20 一种基于人脸的广告机用户识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810804277.8A CN108960186B (zh) 2018-07-20 2018-07-20 一种基于人脸的广告机用户识别方法

Publications (2)

Publication Number Publication Date
CN108960186A CN108960186A (zh) 2018-12-07
CN108960186B true CN108960186B (zh) 2022-07-05

Family

ID=64481973

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810804277.8A Active CN108960186B (zh) 2018-07-20 2018-07-20 一种基于人脸的广告机用户识别方法

Country Status (1)

Country Link
CN (1) CN108960186B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858362A (zh) * 2018-12-28 2019-06-07 浙江工业大学 一种基于倒置残差结构和角度联合损失函数的移动端人脸检测方法
CN111191541A (zh) * 2019-12-20 2020-05-22 南京理工大学 基于人脸识别的校园招聘无感签到方法
CN113435264A (zh) * 2021-06-08 2021-09-24 广州紫为云科技有限公司 基于寻找黑盒替代模型的人脸识别对抗攻击方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760833A (zh) * 2016-02-14 2016-07-13 北京飞搜科技有限公司 一种人脸特征识别方法
CN107944458A (zh) * 2017-12-08 2018-04-20 北京维大成科技有限公司 一种基于卷积神经网络的图像识别方法和装置
CN108109010A (zh) * 2017-12-26 2018-06-01 南京开为网络科技有限公司 一种智能ar广告机

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760833A (zh) * 2016-02-14 2016-07-13 北京飞搜科技有限公司 一种人脸特征识别方法
CN107944458A (zh) * 2017-12-08 2018-04-20 北京维大成科技有限公司 一种基于卷积神经网络的图像识别方法和装置
CN108109010A (zh) * 2017-12-26 2018-06-01 南京开为网络科技有限公司 一种智能ar广告机

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于卷积神经网络的人脸识别系统设计与实现;曹东旭;《中国优秀硕士学位论文全文数据库信息科技辑》;20180215;第I138-2067页 *
残差网络ResNet笔记;AlanMa;《https://www.jianshu.com/p/e58437f39f65》;20170518;第1-15页 *

Also Published As

Publication number Publication date
CN108960186A (zh) 2018-12-07

Similar Documents

Publication Publication Date Title
CN109993160B (zh) 一种图像矫正及文本与位置识别方法及系统
CN111709909B (zh) 基于深度学习的通用印刷缺陷检测方法及其模型
CN110413924B (zh) 一种半监督多视图学习的网页分类方法
Ji et al. Spectral-spatial constraint hyperspectral image classification
CN108985236B (zh) 一种基于深度化可分离卷积模型的人脸识别方法
CN109063649B (zh) 基于孪生行人对齐残差网络的行人重识别方法
CN108960186B (zh) 一种基于人脸的广告机用户识别方法
CN106446015A (zh) 一种基于用户行为偏好的视频内容访问预测与推荐方法
KR20230107415A (ko) 이미지 내 객체를 식별하기 위한 방법 및 상기 방법을실행하기 위한 모바일 디바이스
CN108509893A (zh) 基于微表情识别的影视评分方法、存储介质及智能终端
CN111160427B (zh) 一种基于神经网络的海量流量数据类型的检测方法
CN113095156B (zh) 一种基于逆灰度方式的双流网络签名鉴定方法及装置
CN113706547B (zh) 一种基于类别同异性引导的无监督域适应语义分割方法
CN111709313A (zh) 基于局部和通道组合特征的行人重识别方法
CN110610230A (zh) 一种台标检测方法、装置及可读存储介质
WO2023123923A1 (zh) 人体重识别方法、人体重识别装置、计算机设备及介质
Lv et al. Chinese character CAPTCHA recognition based on convolution neural network
CN107967481A (zh) 一种基于局部性约束和显著性的图像分类方法
CN114724218A (zh) 视频检测方法、装置、设备及介质
CN113033345B (zh) 基于公共特征子空间的v2v视频人脸识别方法
CN113705310A (zh) 特征学习的方法、目标物体的识别方法和对应装置
Yang et al. Person re-identification based on multi-scale convolutional network
CN117152459A (zh) 图像检测方法、装置、计算机可读介质及电子设备
Bhattacharya et al. Simplified face quality assessment (sfqa)
CN110968735B (zh) 一种基于球面相似度层次聚类的无监督行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant