CN111325157A - 人脸抓拍方法、计算机存储介质及电子设备 - Google Patents
人脸抓拍方法、计算机存储介质及电子设备 Download PDFInfo
- Publication number
- CN111325157A CN111325157A CN202010112839.XA CN202010112839A CN111325157A CN 111325157 A CN111325157 A CN 111325157A CN 202010112839 A CN202010112839 A CN 202010112839A CN 111325157 A CN111325157 A CN 111325157A
- Authority
- CN
- China
- Prior art keywords
- face
- frame
- video image
- detection
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Abstract
本发明提供了一种人脸抓拍方法、计算机存储介质及电子设备,所述方法包括以下步骤:S1、获取输入的视频图像;S2、判断输入的视频图像是否为初始帧,若为初始帧,则对所述视频图像进行人脸检测以实现人脸框定位,若不是初始帧,则对所述视频图像进行人脸跟踪以实现人脸框定位;S3、对人脸框定位得到的人脸进行关键点检测,选取关键点位置正的人脸输出人脸框信息。根据本发明实施例的人脸抓拍方法,可以极大降低单帧人脸定位平均耗时;采用带人脸置信度的关键点模型进行人脸优选去重,避免短时间内同一人员的多次重复比对,并通过优选,选择关键点正的人脸送入后台比对,可很好的提升人脸识别系统的效率。
Description
技术领域
本发明涉及人脸识别领域,更具体地,涉及一种人脸抓拍方法、计算机存储介质及电子设备。
背景技术
人脸抓拍算法是一种基于摄像头等图像采集/存储设备得到的图像,来确定图像是否包含人脸,并准确定位人脸在图像中的位置的技术。
这种技术被广泛地运用在公安、交通、学校、刑侦、娱乐等领域。其技术路线可以总结为:遍历图像中的可能存在人脸的区域,提取人脸的特征信息,根据置信度来判断是否属于人脸。早期的方案多采用手工设计特征的方法,如CN201610953612.1使用MWR AdaBoost算法对候选区域进行人脸检测,利用SVM进行特征分类。其优点是操作方便且运行速度较快,但是对场景的泛化能力较差,难以实现在复杂多变的实际场景中的应用。
随着深度学习技术的发展以及芯片计算能力的提升,越来越多基于深度学习的方法得以提出,相对传统手工特征的方法,现有深度学习方法极大提升了场景泛化能力,然而仍然存在计算量大、不适合在低功耗的嵌入式设备上运行的痛点。例如专利CN201810090197.0,采用Dlib作为人类检测算法,该算法基于传统卷积神经网络,存在模型体积大,计算开销大等问题。
基于深度学习的方法已逐渐出现在一些技术方案之中,例如专利CN201811109879中利用MTCNN作为人脸检测器,MTCNN是一种多级级联的方法,在某些场合可以达到实时的人脸检测,然而由于特征提取能力的限制,该方法不具备良好的泛化性能,在某些应用场景,效果不及预期。此外MTCNN不是端到端的方案,检测速度波动较大。此外,也有人提出了一些端到端的人脸抓拍方法,例如在专利CN201810506447中,发明人使用基于Single ShotDetector(SSD)的人脸检测算法,该方法采用学界较常用的VGG16作为特征提取骨干网络,缺点是网络体积较大、难以在移动端达到实时检测效果。
发明内容
有鉴于此,本发明提供一种人脸抓拍方法、计算机存储介质及电子设备,能够大幅提升运算开销,降低耗时,提高人脸识别效率。
为解决上述技术问题,一方面,本发明提供一种人脸抓拍方法,包括以下步骤:S1、获取输入的视频图像;S2、判断输入的视频图像是否为初始帧,若为初始帧,则对所述视频图像进行人脸检测以实现人脸框定位,若不是初始帧,则对所述视频图像进行人脸跟踪以实现人脸框定位;S3、对人脸框定位得到的人脸进行关键点检测,选取关键点位置正的人脸输出人脸框信息。
根据本发明实施例的人脸抓拍方法,采用检测和跟踪相结合的方法,利用检测得到初始人脸框,由跟踪来实现后续图像的定位,可以极大降低单帧人脸定位平均耗时;采用带人脸置信度的关键点模型进行人脸优选去重,避免短时间内同一人员的多次重复比对,并通过优选,选择关键点正的人脸送入后台比对,可很好的提升人脸识别系统的效率。
根据本发明的一些实施例,在步骤S2中,以MobileNet-SSD为基础进行人脸检测,其低层的卷积通道数为3*3*16,并采用5*5的深度可分离检测层组合。
根据本发明的一些实施例,MobileNet-SSD采用C-RELU结构进行升维。
根据本发明的一些实施例,固定检测中Anchor的比例为1:1、1:1.2和1:1.5。
根据本发明的一些实施例,在步骤S2中,采用KCF算法进行人脸跟踪。
根据本发明的一些实施例,每跟踪5-10帧后对人脸进行一次检测。
根据本发明的一些实施例,在步骤S3中,由深度神经网络模型输出的关键点分布和人脸置信度信息,对人脸进行选取,选择置信度高于预定值且关键点位置正的人脸输出人脸框信息。
根据本发明的一些实施例,所述预定值为0.7。
第二方面,本发明实施例提供一种计算机存储介质,包括一条或多条计算机指令,所述一条或多条计算机指令在执行时实现如上述实施例所述的方法。
根据本发明第三方面实施例的电子设备,包括存储器和处理器,所述存储器用于存储一条或多条计算机指令;所述处理器用于调用并执行所述一条或多条计算机指令,从而实现如上述任一实施例所述的方法。
附图说明
图1为根据本发明实施例的人脸抓拍方法的流程图;
图2为根据本发明实施例的人脸抓拍方法中人脸检测的网络结构图;
图3为根据本发明实施例的人脸抓拍方法中人脸关键点定位和置信度判断网络结构图;
图4为本发明实施例的电子设备的示意图。
附图标记:
电子设备300;
存储器310;操作系统311;应用程序312;
处理器320;网络接口330;输入设备340;硬盘350;显示设备360。
具体实施方式
下面将结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
下面首先结合附图具体描述根据本发明实施例的人脸抓拍方法。
如图1所示,根据本发明实施例的人脸抓拍方法包括以下步骤:
S1、获取输入的视频图像。
S2、判断输入的视频图像是否为初始帧,若为初始帧,则对所述视频图像进行人脸检测以实现人脸框定位,若不是初始帧,则对所述视频图像进行人脸跟踪以实现人脸框定位。
S3、对人脸框定位得到的人脸进行关键点检测,选取关键点位置正的人脸输出人脸框信息。
换言之,根据本发明实施例的人脸抓拍方法主要由人脸检测、人脸跟踪和人脸去重三个部分构成,其中,在对人脸进行检测之前,首先获取需要进行人脸识别的视频图像,然后对获取的视频图像进行判断以确定其图像是否为初始帧,若该视频图像为初始帧,说明该视频图像为首次获取,则对视频图像进行人脸检测,从而实现人脸框定位;若该视频图像不是初始帧,说明该视频图像不是首次获取,则不再对人脸进行检测,而是通过对人脸进行跟踪来预测后续图像中的人脸框位置。
在现代人脸识别系统中,往往存在人脸重复识别的情况,即在某一个较短的时间段内,对同一个人重复抓拍并不断送入后台进行特征提取和比对的情况,从而造成额外的存储资源和计算资源浪费。根据本发明实施例的人脸抓拍方法采用一个带置信度人脸关键点网络模型作为人脸去重依据,即对每张由检测或跟踪得到的人脸,进行关键点检测,由深度神经网络模型输出的关键点分布和人脸置信度信息,对序列人脸进行优选,选择关键点位置正的人脸送入后台比对,不断节省了资源开销,同时也提高了单次对比识别成功的概率。
其中需要说明的是,关键点位置正,为人脸的姿态在预设的范围内,例如左右偏转少于30度,上下偏转小于15度,人脸倾斜小于30度。在本实施例中通过关键点定位获得图像中人脸的5个2D关键点(分别是左眼,右眼,鼻尖,嘴的左角和嘴的右角),再由Opencv中POSIT的姿态估计算法将5个世界坐标系的模板3D关键点通过旋转、平移等变换投射至这5个2D关键点,进而估计得变换参数,最后求得2D平面中的人头的姿态参数,分别为Yaw:摇头左正右负、Pitch:点头上负下正、Roll:摆头(歪头)左负右正。人脸正,即关键点位置正指的是:-30<Yaw<30-15<Pitch<15-30<Roll<30。即左右偏转少于30度,上下偏转小于15度,人脸倾斜小于30度。
由此,根据本发明实施例的人脸抓拍方法,采用检测和跟踪相结合的方法,利用检测得到初始人脸框,由跟踪来实现后续图像的定位,可以极大降低单帧人脸定位平均耗时;采用带人脸置信度的关键点模型进行人脸优选去重,避免短时间内同一人员的多次重复比对,并通过优选,选择关键点正的人脸送入后台比对,可很好的提升人脸识别系统的效率。
根据本发明的一个实施例,在步骤S2中,以MobileNet-SSD为基础进行人脸检测,其低层的卷积通道数为3*3*16,并采用5*5的深度可分离检测层组合。优选地,MobileNet-SSD采用C-RELU结构进行升维。进一步地,固定检测中Anchor的比例为1:1、1:1.2和1:1.5。
具体地,根据本发明实施例的人脸抓拍方法中,人脸检测以谷歌MobileNet-SSD为基础针对人脸检测任务进行优化,首先降低低层的卷积通道数从而提升整体速度,其次采用C-RELU结构进行升维,以保证用于检测的特征层包含足够的信息,此外通过分离卷积,在计算量基本不变的情况下,有效提高了目标的感受野,最后根据人脸的固有特性,固定检测Anchor比例为1:1、1:1.2和1:1.5。最终得到的端到端的深度神经网络模型在移动端耗时较MobileNet-SSD降低约一半,准确率也有一定提升。
也就是说,在本申请中对视频图像进行人脸检测的方法是以谷歌mobilenet-ssd为基础,针对人脸检测任务进行优化,如图2所示,主要改进是减少低层通道数量来提升运算速度,同时采用5*5的深度可分离卷积替换原有3*3卷积来弥补通道数减少可能导致的特征提取不足风险,最后采用C-RELU结构升维,以确保特征提取层可获得足够的信息用于人脸框定位。同时,为了增强模型鲁棒性和泛化能力,对数据采取了随机裁剪、旋转、颜色、光照、对比度等诸多变换,模型可适用于复杂多变的场景。
考虑到移动端由于计算资源受限,现有高效且鲁棒性好的算法难以达到实时计算,根据本发明实施例的人脸抓拍方法中采用KCF(High-Speed Tracking withKernelized Correlation Filters)来实现人脸跟踪,检测到人脸之后,对人脸进行跟踪来预测后续图像中的人脸框位置。由于人脸跟踪速耗时远小于人脸检测耗时(约1/3),考虑到跟踪算法存在一定的边框漂移和ID丢失风险,因此,采用每跟踪5-10帧后进行一次检测的方法,例如可以是5帧,既保证了较低的单帧平均耗时,又避免了人脸框定位的精度的损失。
换句话说,根据本发明实施例的人脸抓拍方法在检测得到人脸后,后续帧采用跟踪实现人脸框的定位,相比于检测,可大大提升人脸框定位速度,采用每隔5-10帧或者丢帧即检测的策略来实现速度和精度的平衡。检测的间隔帧数可根据实际应用场景设置,对于人员移动较快的场景可以使用较小的检测帧间隔以获取较高的定位精度,对于人员移动较快的场合则可以适当增加帧间隔以提升效率。
根据本发明的一个实施例,在步骤S3中,由深度神经网络模型输出的关键点分布和人脸置信度信息,对人脸进行选取,选择置信度高于预定值且关键点位置正的人脸输出人脸框信息。可选地,所述预定值为0.7。人脸置信度数值范围为0-1,一般情况下,清晰正脸置信度会较高,在本发明中,优选地,取置信度阈值为0.7。
具体地,人脸优选去重部分是基MTCNN中的ONET部分,由于经过前序部分,输入的人脸框已经很少,由于ONET部分网络结构极为见到,引入的计算量极小,如图3所示,可实现高效的关键点定位,并输出人脸置信度,即可根据关键点选择置信度高的正脸,作为算法的输出,从而提升效率,不断节省了资源开销,同时也提高了单次对比识别成功的概率。
总而言之,根据本发明实施例的人脸抓拍方法,是通过深度神经网络方法获取初始人脸框,结合KCF方法跟踪和关键点定位实现一种适合移动端运行的人脸抓拍方法,也是一种深度学习和传统方法结合的高效人脸抓拍技术,通过轻量化的人脸检测、快速人脸跟踪,再结合关键点定位技术来实现快速高效的人脸抓拍。
根据本发明实施例的人脸抓拍方法,基于5*5的深度可分离卷积提升感受野和C-RELU结构进行数据降维,搭建的轻量化骨干网络,该结构在保证特征提取能力不变同时极大的降低前向运算开销,使得模型在低成本移动端硬件上运行成为可能;采用检测和跟踪相结合的方法,利用检测得到初始人脸框,由跟踪来实现后续图像的定位,每隔固定帧(可根据应用要求设置5到10帧)利用检测进行人脸框修正和ID更新。最终极大降低单帧人脸定位平均耗时;采用带人脸置信度的关键点模型进行人脸优选去重,避免短时间内同一人员的多次重复比对,并通过优选,选择置信度高并且关键点正的人脸送入后台比对,可很好的提升人脸识别系统的效率。
根据本发明实施例的人脸抓拍方法,采用轻量级的深度可分离卷积,在保证精度损失极小的情况下很好的降低计算量。同时,通过扩充卷积尺寸,数据增强等手段,极大提高了模型的鲁棒性,使得适用于多个场景的要求。此外本方案中引入了跟踪来降低视频序列的检测耗时,利用关键点作为优选去重方案,可极大提高人脸识别系统的效率。
此外,本发明还提供一种计算机存储介质,所述计算机存储介质包括一条或多条计算机指令,所述一条或多条计算机指令在执行时实现上述任一所述的人脸抓拍方法。
也就是说,所述计算机存储介质存储有计算机程序,所述计算机程序被处理器运行时,使得所述处理器执行上述任一所述的人脸抓拍方法。
如图4所示,本发明实施例提供了一种电子设备300,包括存储器310和处理器320,所述存储器310用于存储一条或多条计算机指令,所述处理器320用于调用并执行所述一条或多条计算机指令,从而实现上述任一所述的方法。
也就是说,电子设备300包括:处理器320和存储器310,在所述存储器310中存储有计算机程序指令,其中,在所述计算机程序指令被所述处理器运行时,使得所述处理器320执行上述任一所述的方法。
进一步地,如图4所示,电子设备300还包括网络接口330、输入设备340、硬盘350、和显示设备360。
上述各个接口和设备之间可以通过总线架构互连。总线架构可以是可以包括任意数量的互联的总线和桥。具体由处理器320代表的一个或者多个中央处理器(CPU),以及由存储器310代表的一个或者多个存储器的各种电路连接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其它电路连接在一起。可以理解,总线架构用于实现这些组件之间的连接通信。总线架构除包括数据总线之外,还包括电源总线、控制总线和状态信号总线,这些都是本领域所公知的,因此本文不再对其进行详细描述。
所述网络接口330,可以连接至网络(如因特网、局域网等),从网络中获取相关数据,并可以保存在硬盘350中。
所述输入设备340,可以接收操作人员输入的各种指令,并发送给处理器320以供执行。所述输入设备340可以包括键盘或者点击设备(例如,鼠标,轨迹球(trackball)、触感板或者触摸屏等。
所述显示设备360,可以将处理器320执行指令获得的结果进行显示。
所述存储器310,用于存储操作系统运行所必须的程序和数据,以及处理器320计算过程中的中间结果等数据。
可以理解,本发明实施例中的存储器310可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)或闪存。易失性存储器可以是随机存取存储器(RAM),其用作外部高速缓存。本文描述的装置和方法的存储器310旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器310存储了如下的元素,可执行模块或者数据结构,或者他们的子集,或者他们的扩展集:操作系统311和应用程序312。
其中,操作系统311,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序312,包含各种应用程序,例如浏览器(Browser)等,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序312中。
本发明上述实施例揭示的方法可以应用于处理器320中,或者由处理器320实现。处理器320可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器320中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器320可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器310,处理器320读取存储器310中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ASIC)、数字信号处理器DSP)、数字信号处理设备(DSPD)、可编程逻辑设备(PLD)、现场可编程门阵列(FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本文所述功能的模块(例如过程、函数等)来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
具体地,处理器320还用于读取所述计算机程序,执行上述任一所述的方法。
在本申请所提供的几个实施例中,应该理解到,所揭露方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理包括,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述收发方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种人脸抓拍方法,其特征在于,包括以下步骤:
S1、获取输入的视频图像;
S2、判断输入的视频图像是否为初始帧,若为初始帧,则对所述视频图像进行人脸检测以实现人脸框定位,若不是初始帧,则对所述视频图像进行人脸跟踪以实现人脸框定位;
S3、对人脸框定位得到的人脸进行关键点检测,选取关键点位置正的人脸输出人脸框信息。
2.根据权利要求1所述的方法,其特征在于,在步骤S2中,以MobileNet-SSD为基础进行人脸检测,其低层的卷积通道数为3*3*16,并采用5*5的深度可分离检测层组合。
3.根据权利要求2所述的方法,其特征在于,MobileNet-SSD采用C-RELU结构进行升维。
4.根据权利要求2所述的方法,其特征在于,固定检测中Anchor的比例为1:1、1:1.2和1:1.5。
5.根据权利要求1所述的方法,其特征在于,在步骤S2中,采用KCF算法进行人脸跟踪。
6.根据权利要求5所述的方法,其特征在于,每跟踪5-10帧后对人脸进行一次检测。
7.根据权利要求1所述的方法,其特征在于,在步骤S3中,由深度神经网络模型输出的关键点分布和人脸置信度信息,对人脸进行选取,选择置信度高于预定值且关键点位置正的人脸输出人脸框信息。
8.根据权利要求7所述的方法,其特征在于,所述预定值为0.7。
9.一种计算机存储介质,其特征在于,包括一条或多条计算机指令,所述一条或多条计算机指令在执行时实现如权利要求1-8中任一项所述的方法。
10.一种电子设备,包括存储器和处理器,其特征在于,
所述存储器用于存储一条或多条计算机指令;
所述处理器用于调用并执行所述一条或多条计算机指令,从而实现如权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010112839.XA CN111325157A (zh) | 2020-02-24 | 2020-02-24 | 人脸抓拍方法、计算机存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010112839.XA CN111325157A (zh) | 2020-02-24 | 2020-02-24 | 人脸抓拍方法、计算机存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111325157A true CN111325157A (zh) | 2020-06-23 |
Family
ID=71163602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010112839.XA Pending CN111325157A (zh) | 2020-02-24 | 2020-02-24 | 人脸抓拍方法、计算机存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111325157A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257502A (zh) * | 2020-09-16 | 2021-01-22 | 深圳微步信息股份有限公司 | 一种监控视频行人识别与跟踪方法、装置及存储介质 |
WO2023087891A1 (zh) * | 2021-11-18 | 2023-05-25 | 中兴通讯股份有限公司 | 实时人脸图像驱动方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909888A (zh) * | 2017-01-22 | 2017-06-30 | 南京开为网络科技有限公司 | 应用于移动设备端的人脸关键点跟踪系统及方法 |
CN108229442A (zh) * | 2018-02-07 | 2018-06-29 | 西南科技大学 | 基于ms-kcf的图像序列中人脸快速稳定检测方法 |
CN109145771A (zh) * | 2018-08-01 | 2019-01-04 | 武汉普利商用机器有限公司 | 一种人脸抓拍方法及装置 |
CN109376704A (zh) * | 2018-11-30 | 2019-02-22 | 高新兴科技集团股份有限公司 | 一种人脸活体检测方法 |
CN109711390A (zh) * | 2019-01-17 | 2019-05-03 | 深圳英飞拓科技股份有限公司 | 人脸抠图图片的优选方法及装置 |
CN110544272A (zh) * | 2019-09-06 | 2019-12-06 | 腾讯科技(深圳)有限公司 | 脸部跟踪方法、装置、计算机设备及存储介质 |
CN110705478A (zh) * | 2019-09-30 | 2020-01-17 | 腾讯科技(深圳)有限公司 | 人脸跟踪方法、装置、设备及存储介质 |
-
2020
- 2020-02-24 CN CN202010112839.XA patent/CN111325157A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909888A (zh) * | 2017-01-22 | 2017-06-30 | 南京开为网络科技有限公司 | 应用于移动设备端的人脸关键点跟踪系统及方法 |
CN108229442A (zh) * | 2018-02-07 | 2018-06-29 | 西南科技大学 | 基于ms-kcf的图像序列中人脸快速稳定检测方法 |
CN109145771A (zh) * | 2018-08-01 | 2019-01-04 | 武汉普利商用机器有限公司 | 一种人脸抓拍方法及装置 |
CN109376704A (zh) * | 2018-11-30 | 2019-02-22 | 高新兴科技集团股份有限公司 | 一种人脸活体检测方法 |
CN109711390A (zh) * | 2019-01-17 | 2019-05-03 | 深圳英飞拓科技股份有限公司 | 人脸抠图图片的优选方法及装置 |
CN110544272A (zh) * | 2019-09-06 | 2019-12-06 | 腾讯科技(深圳)有限公司 | 脸部跟踪方法、装置、计算机设备及存储介质 |
CN110705478A (zh) * | 2019-09-30 | 2020-01-17 | 腾讯科技(深圳)有限公司 | 人脸跟踪方法、装置、设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257502A (zh) * | 2020-09-16 | 2021-01-22 | 深圳微步信息股份有限公司 | 一种监控视频行人识别与跟踪方法、装置及存储介质 |
WO2023087891A1 (zh) * | 2021-11-18 | 2023-05-25 | 中兴通讯股份有限公司 | 实时人脸图像驱动方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Henry et al. | Multinational license plate recognition using generalized character sequence detection | |
CN109558832B (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
Xu et al. | Fast vehicle and pedestrian detection using improved Mask R-CNN | |
CN111832568B (zh) | 车牌识别方法、车牌识别模型的训练方法和装置 | |
Min et al. | Traffic sign recognition based on semantic scene understanding and structural traffic sign location | |
WO2023082784A1 (zh) | 一种基于局部特征注意力的行人重识别方法和装置 | |
US20230267735A1 (en) | Method for structuring pedestrian information, device, apparatus and storage medium | |
CN110457974B (zh) | 图像叠加方法、装置、电子设备及可读存储介质 | |
CN112149762A (zh) | 目标跟踪方法、目标跟踪装置及计算机可读存储介质 | |
CN111325157A (zh) | 人脸抓拍方法、计算机存储介质及电子设备 | |
WO2023207778A1 (zh) | 数据修复方法、装置、计算机及可读存储介质 | |
Dong et al. | EGFNet: Edge-aware guidance fusion network for RGB–thermal urban scene parsing | |
Yang et al. | PFF-FPN: a parallel feature fusion module based on FPN in pedestrian detection | |
CN112528903B (zh) | 人脸图像获取方法、装置、电子设备及介质 | |
CN116229406B (zh) | 车道线检测方法、系统、电子设备及存储介质 | |
CN110991421B (zh) | 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备 | |
CN111242084B (zh) | 机器人控制方法、装置、机器人及计算机可读存储介质 | |
CN113228105A (zh) | 一种图像处理方法、装置和电子设备 | |
Wang et al. | Information complementary attention-based multidimension feature learning for person re-identification | |
US20230394875A1 (en) | Method and device for multi-dnn-based face recognition using parallel-processing pipelines | |
WO2023105800A1 (en) | Object detection device, object detection method, and object detection system | |
TWI783572B (zh) | 物件追蹤方法及物件追蹤裝置 | |
Abirami et al. | Accurate vehicle number plate recognition and real-time identification using raspberry pi | |
WO2022205841A1 (zh) | 机器人导航方法、装置、终端设备及计算机可读存储介质 | |
Che et al. | Traffic light recognition for real scenes based on image processing and deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |