WO2019223254A1 - 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法 - Google Patents

多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法 Download PDF

Info

Publication number
WO2019223254A1
WO2019223254A1 PCT/CN2018/114743 CN2018114743W WO2019223254A1 WO 2019223254 A1 WO2019223254 A1 WO 2019223254A1 CN 2018114743 W CN2018114743 W CN 2018114743W WO 2019223254 A1 WO2019223254 A1 WO 2019223254A1
Authority
WO
WIPO (PCT)
Prior art keywords
face detection
feature
model
lightweight
feature map
Prior art date
Application number
PCT/CN2018/114743
Other languages
English (en)
French (fr)
Inventor
姚寒星
盛文娟
Original Assignee
北京亮亮视野科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京亮亮视野科技有限公司 filed Critical 北京亮亮视野科技有限公司
Publication of WO2019223254A1 publication Critical patent/WO2019223254A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Definitions

  • the invention relates to the technical fields of computer vision, pattern recognition, target detection, convolutional neural networks, and the like, and particularly relates to a method for constructing a multi-scale lightweight face detection model and a face detection method based on the model.
  • Face detection technology is a computer vision technology that accurately locates and extracts human faces in digital images of any scene. This technology is the first step in a face recognition system, which recognizes face information based on accurately extracting faces from images.
  • the face recognition system has a wide range of applications in the fields of face authentication, access control, security monitoring, and human-computer interaction.
  • CNN Convolutional Neural Network
  • Most current face detection algorithms are designed based on CNN models.
  • the CNN is mainly composed of a feature extraction layer and a feature detection layer.
  • the feature extraction layer is mainly composed of neurons that can learn weights and bias constants.
  • the CNN model learns weights and biases by iterative training on the data of the face training set, so that the model has the functions of face feature extraction and detection.
  • a digital image can be input to detect the position and size of the face.
  • the detection accuracy is determined by the model's ability to extract and detect facial features.
  • the CNN model abstracts image features layer by layer, which means that as the network level deepens, the feature map semantic information passed on the network is continuously strengthened.
  • the shallow network stores feature maps with low semantic information
  • the deep network stores feature maps with high semantic information.
  • faces of different sizes may be included at the same time, such as small-sized faces and large-sized faces. If the multi-scale problem is not considered in the face detection model, it will be included in certain-sized people. Missed detection during face detection, such as missed detection during small-sized face detection.
  • the more feature extraction layers of the model the stronger the ability to extract facial features, and the higher the detection accuracy.
  • the present application provides a method for constructing a multi-scale lightweight face detection model and a face detection method based on the model, so as to improve the accuracy of the detection results and effectively reduce the size of the detection model.
  • This application provides a method for constructing a multi-scale lightweight face detection model, including:
  • the present application builds a lightweight feature pyramid network module based on separated anti-aliasing convolution and channel pooling technology, and connects the feature pyramid network module to a lightweight face detection convolutional neural network model. And training, it is beneficial to obtain a multi-scale lightweight face detection model that can not only improve the accuracy of face detection, but also effectively reduce the size of the detection model.
  • the method further includes:
  • test result does not meet the specified criteria, return to performing the iterative training in step B;
  • the trained multi-scale lightweight face detection model is saved.
  • the step A includes:
  • A1 Select feature mapping layers with different levels of semantic information in the lightweight face detection convolutional neural network model as the base layer of the feature pyramid network, and arrange the base layers from deep to shallow;
  • A2 From deep to shallow, successively fuse the features of two adjacent base layers in order to form a feature pyramid network module containing a feature map of fused multilayer semantic information.
  • the step A1 includes:
  • a feature mapping layer of different levels of semantic information with a size that doubles in order from the deep to the shallow and the number of channels is reduced by half is used as the base layer of the feature pyramid network, and The base layers are arranged from deep to shallow.
  • the above processing facilitates subsequent upsampling and channel fusion operations.
  • fusing the features of two adjacent base layers as described in step A2 includes:
  • A21 Slice the deeper feature maps of two adjacent base layers according to channels and divide them into two parts on average. The number of channels in each part is reduced to the number of shallower feature map channels.
  • A24 Perform a separate anti-aliasing convolution on the deeper feature map after upsampling to eliminate the jagged boundary caused by upsampling;
  • A25 Perform the pixel-by-pixel and channel-by-channel summation of the deep feature map and the shallow feature map after anti-aliasing convolution processing to perform feature fusion.
  • multi-scale feature information is obtained, which is beneficial to use it in subsequent detection, thereby improving the accuracy of face detection and reducing the rate of missed detections.
  • the deeper feature map is sliced by channel and divided into two parts on average, which is helpful to reduce the memory access time of the operation.
  • the step A22 includes:
  • the two deeper feature maps after slicing are taken to the maximum value on the corresponding channel of each pixel to regenerate a new deeper feature map so that the deeper feature map has the same number of channels as the shallower feature map.
  • the illumination invariance of the feature map is enhanced, and the deeper feature map is achieved in a fast calculation manner to achieve the same number of channels as the shallower feature map.
  • the step A23 includes:
  • the adjacent interpolation method is used to copy the deeper feature map values in three copies around, so that the width and height of the deeper feature maps are doubled to the shallower feature maps, respectively. size.
  • the adjacent interpolation method is used to copy the feature map values in three copies around, which is conducive to saving the amount of upsampling calculation.
  • the step A24 includes:
  • the deeper feature map is subjected to a channel-by-channel convolution operation with a convolution kernel size of 3 to eliminate jagged boundaries caused by upsampling.
  • the deeper feature map is subjected to a Depth-wise Convolution operation with a convolution kernel size of 3, which can suppress the boundary aliasing caused by the upsampling operation while reducing the computing power required for the convolution operation .
  • This application also provides a face detection method of a multi-scale lightweight face detection model constructed based on the above method, including:
  • the digital image is input into the multi-scale lightweight face detection model for face detection to obtain a face position and a face size.
  • this application proposes separate anti-aliasing convolution and channel pooling techniques in a feature pyramid network, and connects the improved feature pyramid network to a lightweight face detection network framework to achieve multi-scale light weight.
  • Magnitude face detection that is, while improving the accuracy of face detection, it can also effectively reduce the model size at the time of detection.
  • the method of the invention can be transplanted to a small computing platform to perform an efficient face detection task.
  • the innovative method proposed by the present invention can also be applied to other target detection tasks.
  • FIG. 1 is a schematic flowchart of a method for constructing a multi-scale lightweight face detection model according to an embodiment of the present application
  • FIG. 2 is a schematic diagram of a feature pyramid network structure provided by an embodiment of the present application; among them, 1 is a high-level semantic high-level feature mapping, 2 is a middle-level semantic middle-level feature mapping, 3 is a low-level semantic low-level feature mapping, and 4 is an adjacent two-level feature. Mapping fusion operation, 5 is a feature mapping that fuses multiple layers of semantic information;
  • FIG. 3 is a schematic flowchart of a feature fusion process of a feature pyramid network module according to an embodiment of the present application; where 1 is a higher-level feature map, the size is half of a lower-level feature map to be fused, and the number of channels is doubled.
  • 2 is a slice operation
  • 3 is a pixel-by-pixel maximum operation
  • 4 is an upsampling operation
  • 5 is a lower-level feature map
  • 6 is a pixel-by-pixel sum operation
  • 7 is a feature map that fuses multi-level semantic information. Lower-level feature mappings are consistent.
  • the present invention proposes to improve a feature pyramid network based on separated anti-aliasing convolution and channel pooling technology, and to access the improved feature pyramid network to a lightweight Face detection model framework to achieve multi-scale lightweight face detection.
  • the feature pyramid network can increase the algorithm's ability to detect faces of different sizes and improve the accuracy of the algorithm.
  • the present invention reduces the amount of data storage and computational complexity, and connects it to a lightweight face detection model. It can reduce the model scale while improving the accuracy of the algorithm, so that it can complete high-accuracy real-time target detection tasks on a computing platform with limited computing resources.
  • the present invention provides a method for constructing a multi-scale lightweight face detection model.
  • the model can be applied to a mobile or embedded platform to complete a target detection task.
  • the construction method includes:
  • a lightweight feature pyramid network module is constructed, and this module is connected to a lightweight face detection convolutional neural network (CNN) model to form a multi-scale lightweight Magnitude face detection model.
  • the lightweight face detection convolutional neural network model may be a convolutional neural network model (CNN) framework for target detection tasks combined with a lightweight backbone network.
  • CNN convolutional neural network model
  • SSD SingleShot MultiBox Detector
  • the lightweight feature pyramid network module in step S1 includes:
  • the step S11 includes:
  • a feature mapping layer of different levels of semantic information with a size that doubles in order from the deep to the shallow and the number of channels is reduced by half is used as the base layer of the feature pyramid network, and The base layers are arranged from deep to shallow.
  • the fusion of the features of two adjacent base layers includes:
  • the two deeper feature maps after the slice are mapped to the maximum value of the corresponding channel of each pixel, so that the deeper feature map and the shallower feature map have the same number of channels.
  • S123 Upsampling the deeper feature map after channel pooling, and expanding the width and height by two times to the shallower feature map size; specifically:
  • the adjacent interpolation method is used to copy the feature map values in triplicate around, so that the width and height are respectively doubled to the shallower feature map size.
  • Obtain a specified number of digital images containing a face (for example, a certain number of digital images of a face can be obtained from the public face detection training data set WiderFace as needed), and mark the position and size of the face to form a
  • a set of labeled face digital images is used as a training data set.
  • the training data set is used to train the multi-scale lightweight face detection model formed in S1 to obtain a trained multi-scale lightweight face detection model that can be used for face detection.
  • test result does not meet the specified criteria, return to execute the iterative training in the specified step S2;
  • test result meets the specified criteria, S5 is executed to save the trained multi-scale lightweight face detection model for face detection.
  • the formulation criteria include: the accuracy of detection is higher than a specified value, and the complexity of calculation during detection is lower than a specified value.
  • this application also provides a face detection method based on the above-mentioned multi-scale lightweight face detection model, including:
  • the digital image is input into the multi-scale lightweight face detection model for face detection to obtain a face position and a face size.
  • M1 Based on separated anti-aliasing convolution and channel pooling, design a lightweight feature pyramid network module, and connect this module to a lightweight face detection convolutional neural network (CNN) model to form a multi-scale light Magnitude face detection model. (This step is the same as S1 in the first embodiment, and is not repeated here.)
  • CNN convolutional neural network
  • M2 32203 images were obtained from the public face detection training dataset WiderFace dataset, and the positions and sizes of the faces were labeled. A total of 393703 faces were labeled. Using it as a training set, the multi-scale lightweight face detection model in M1 is trained to obtain the trained multi-scale lightweight face detection model.
  • 3 of the 6 comparison models selected have higher test accuracy than the method of the present invention, but none of the detection models belong to a lightweight network, and their application on a platform with limited resources is limited.
  • the other 3 test results The accuracy is lower than the method of the present invention. Therefore, the model of the present application can not only ensure the accuracy of the detection result, but also can be adapted to the embedded platform.
  • the detection result has the highest accuracy. .
  • convolution is used to eliminate the boundary aliasing caused by upsampling, that is, to perform anti-aliasing operation. It is assumed that the input feature map is H, W is wide, the number of channels is C, the size of the convolution kernel is 3, and the convolution bias The amount of shift is 1, the number of paddings is 1, the number of offsets is 1, and the calculation force required to use channel-by-channel convolution is:
  • channel pooling part in S122 of the first embodiment or M1 of the second application of the present application it is necessary to reduce the number of channels of the deeper feature map to make it consistent with that of the shallower feature map. Assuming that the height of the deeper feature map is H, the width is W, and the number of channels is C, then channel pooling is required.
  • the computing power is:
  • the channel pooling reduces the computing power to 1 / C, and the convolution kernel storage space is reduced to 0.
  • this application can achieve the accuracy of face detection while reducing the size of the detection model (including reducing the complexity of calculation and the size of parameters), thereby saving computing resources to adapt to limited resources.
  • Face detection tasks on embedded platforms The detection model and detection method of the invention can be transplanted to a small computing platform to perform an efficient face detection task.
  • the innovative method proposed by the present invention can also be applied to other target detection tasks.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

一种多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法,其特征在于,包括:A、基于分离式反走样卷积和通道池化技术,构建轻量化的特征金字塔网络模块,并将所述特征金字塔网络模块接入到轻量级人脸检测卷积神经网络模型中,形成多尺度轻量级人脸检测模型;B、获取指定数量的标记有人脸位置和尺寸的人脸数字图像作为训练数据集,并利用所述训练数据集对所述多尺度轻量级人脸检测模型进行迭代训练,以获取训练后的多尺度轻量级人脸检测模型。能够实现在提升对人脸检测的准确度的同时,还可以有效减少检测模型的规模,以适应资源有限的嵌入式平台的人脸检测任务。

Description

多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法 技术领域
本发明涉及计算机视觉、模式识别、目标检测、卷积神经网络等技术领域,特别涉及一种多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法。
背景技术
人脸检测技术是在任意场景的数字图像中精准定位和提取人脸的计算机视觉技术。该技术是人脸识别系统的首要步骤,人脸识别系统是在图像中精准提取人脸的基础上识别人脸信息的。人脸识别系统在人脸验证、接入控制、安全监控、人机交互等领域有广泛的应用。随着卷积神经网络(Convolutional Neural Network,简称CNN)研究的日益深入和其在计算机视觉领域的突破性进展,当前的人脸检测算法大多是基于CNN模型设计的。CNN主要由特征提取层和特征检测层组成,特征提取层主要由可学习权重和偏置常数的神经元组成。在人脸检测的应用场景下,CNN模型通过对人脸训练集数据的迭代训练,学习权重和偏置,使模型具有人脸特征提取和检测的功能。模型训练好后,输入一副数字图像,就可以检测人脸位置及尺寸,检测准确度由模型对人脸特征提取和检测能力决定。
一方面,CNN模型在特征提取过程中,逐层抽象图像特征,这就是说随着网络层次的加深,网络中传递的特征映射(Feature Map)语义信息不断加强。浅层网络存储低语义信息的特征映射,深层网络存储高语义信息的特征映射。对于一幅固定尺寸的数字图像而言,可能同时包含不同尺寸的人脸,例如小尺寸人脸和大尺寸人脸,人脸检测模型中如果不考虑多尺度问题,会在某些尺寸的人脸检测时发生漏检,例如在小尺寸人脸检测时发生漏检。另一方面,模型的 特征提取层越多,对人脸特征的提取能力越强,检测准确度也会越高。但是,更多的特征提取层也意味着模型具有更多的可学习权重和偏置常数,参数存储量和计算复杂度随之上升。当前,移动端和嵌入式视觉应用越来越广泛,更多的人脸检测任务会在计算资源有限的平台实时进行。因此,目前亟需一种多尺度轻量级人脸检测模型,以实现既提升检测结果的准确度,又有效减少检测模型的规模,以适应资源有限的嵌入式平台的人脸检测任务。
发明内容
有鉴于此,本申请提供一种多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法,以实现既提升检测结果的准确度,又有效减少检测模型的规模,以适应资源有限的嵌入式平台的人脸检测任务。具体的:
本申请提供一种多尺度轻量级人脸检测模型的构建方法,包括:
A、基于分离式反走样卷积和通道池化技术,构建轻量化的特征金字塔网络模块,并将所述特征金字塔网络模块接入到轻量级人脸检测卷积神经网络模型中,形成多尺度轻量级人脸检测模型;
B、获取指定数量的标记有人脸位置和尺寸的人脸数字图像作为训练数据集,并利用所述训练数据集对所述多尺度轻量级人脸检测模型进行迭代训练,以获取训练后的多尺度轻量级人脸检测模型。
由上,本申请基于分离式反走样卷积和通道池化技术,构建轻量化的特征金字塔网络模块,并将所述特征金字塔网络模块接入到轻量级人脸检测卷积神经网络模型中,并进行训练,有利于获取既能够实现提升对人脸检测的准确度,又有效减少检测模型的规模的多尺度轻量级人脸检测模型。
优选地,所述步骤B之后还包括:
C、获取指定数量的标记有人脸位置和尺寸的人脸数字图像作为测试数据集,并利用所述测试数据集对所述训练后的多尺度轻量级人脸检测模型进行测试;
若测试结果不符合指定标准则返回执行步骤B中的所述迭代训练;
若测试结果符合指定标准,则保存所述训练后的多尺度轻量级人脸检测模型。
由上,有利于获取最优的多尺度轻量级人脸检测模型。
优选地,所述步骤A包括:
A1、选取轻量级人脸检测卷积神经网络模型中具有不同级别语义信息的特征映射层作为所述特征金字塔网络的基础层,并将所述基础层由深至浅排列;
A2、由深至浅,依次将相邻的两个基础层特征进行融合,以形成包含有融合多层语义信息的特征映射的特征金字塔网络模块。
由上,通过上述构建的特征金字塔网络模块,接入到轻量级人脸检测卷积神经网络模型中后,有利于使得最终构建的人脸检测模型能够进行多尺度特征的检测,从而提高人脸检测的准确度,减少漏检率。
优选地,所述步骤A1包括:
在所述轻量级人脸检测卷积神经网络模型中由深至浅选择尺寸依次增加一倍、通道数依次减小一半的不同级别语义信息的特征映射层作为特征金字塔网络的基础层,并将所述基础层由深至浅排列。
由上,通过上述处理有利于后续的上采样和通道融合操作。
优选地,步骤A2所述将相邻的两个基础层特征进行融合包括:
A21、将相邻的两个基础层中较深层特征映射按通道切片,平均分为两部分,每部分通道数分别减小至较浅层特征映射通道数;
A22、将切片后的两部分进行通道池化,使较深层特征映射与较浅层特征映射的通道数相等;
A23、对通道池化后的较深层特征映射上采样,将宽和高分别扩大两倍至较浅层特征映射尺寸;
A24、对上采样后的较深层特征映射进行分离式反走样卷积,以消除上采样造成的锯齿状边界;
A25、将进行反走样卷积处理后的深层特征映射与浅层特征映射进行逐像素、逐通道求和,以进行特征融合。
由上,通过上述的特征融合,得到多尺度特征信息,有利于将其用于后续的检测中,从而提高人脸检测的准确度,减少漏检率。其中,A21中将较深层特征映射按通道切片,平均分为两部分,有利于减少操作的内存访问时间。
优选地,所述步骤A22包括:
将切片后的两部分较深层特征映射在每一像素的对应通道上取最大值以重新生成一新的较深层特征映射,以使得较深层特征映射与较浅层特征映射的通道数相等。
由上,使得在增强特征映射的光照不变性的同时,以一种快速计算的方式使较深层特征映射达到与较浅层特征映射通道数一致的目的。
优选地,所述步骤A23包括:
所述对通道池化后的较深层特征映射上采样时,使用临近插值的方法,将较深层特征映射值在周围复制三份,以使得其宽和高分别扩大两倍至较浅层特征映射尺寸。
由上,使用临近插值的方法,将特征映射值在周围复制三份,有利于节省上采样的计算量。
优选地,所述步骤A24包括:
将较深层特征映射进行卷积核尺寸为3的逐通道卷积操作,以消除上采样造成的锯齿状边界。
由上,将较深层特征映射进行卷积核尺寸为3的逐通道卷积操作(Depth-wise Convolution),可以在抑制上采样操作造成的边界锯齿的同时,减少卷积操作所需的计算力。
本申请还提供一种基于上述方法构建的多尺度轻量级人脸检测模型的人脸检测方法,包括:
获取包含有人脸的数字图像;
将所述数字图像输入到所述多尺度轻量级人脸检测模型中进行 人脸检测,以获取人脸位置及人脸尺寸。
由上,有利于实现在人脸检测时既提升对人脸检测的准确度,又有效减少检测模型的规模。
综上所述,本申请在特征金字塔网络中提出分离式反走样卷积和通道池化技术,并将改进的特征金字塔网络接入到轻量级人脸检测网络框架中,以实现多尺度轻量级人脸检测,即,在提升对人脸检测的准确度的同时,还可以有效减少检测时模型规模。本发明方法可移植到小型计算平台执行高效人脸检测任务。同时,本发明提出的创新方法也可应用到其他目标检测任务。
附图说明
图1为本申请实施例提供的多尺度轻量级人脸检测模型的构建方法的流程示意图;
图2为本申请实施例提供的特征金字塔网络结构示意图;其中,1为高级语义高层特征映射,2为中级语义的中层特征映射,3为低级语义的低层特征映射,4为相邻两层特征映射的融合操作,5为融合多层语义信息的特征映射;
图3是本申请实施例中的特征金字塔网络模块的特征融合过程的流程示意图;其中,1为较高层特征映射,尺寸为待融合的较低层特征映射的一半,通道数为其两倍,2为切片操作,3为逐像素取最大值操作,4为上采样操作,5为较低层特征映射,6为逐像素求和操作,7为融合多级语义信息的特征映射,数据大小与较低层特征映射一致。
具体实施方式
为了使本发明的目的、技术方案及有益效果更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解为此处所描述的具体实施例仅仅用以解释本发明,并不用于限制本发明的保护范围。
本发明为了在资源有限的计算平台上实现准确快速的人脸检测应用,提出基于分离式反走样卷积和通道池化技术改进特征金字塔网络,并将改进的特征金字塔网络接入到轻量级人脸检测模型框架中,以实现多尺度轻量级人脸检测。特征金字塔网络可以增加算法对不同尺寸人脸的检测能力,提升算法准确度,本发明在此基础上减少数据存储量和计算复杂度,并将其接入到轻量级人脸检测模型中,可以在提升算法准确度的同时减小模型规模,使之可以在计算资源有限的计算平台上完成高准确度的实时目标检测任务。
实施例一
如图1所示,本发明提供了一种多尺度轻量级人脸检测模型的构建方法,该模型可应用于移动或嵌入式平台,完成目标检测任务,所述构建方法包括:
S1,基于分离式反走样卷积和通道池化,构建轻量化的特征金字塔网络模块,并将该模块接入到轻量级人脸检测卷积神经网络(CNN)模型中,形成多尺度轻量级人脸检测模型。其中,所述轻量级人脸检测卷积神经网络模型可以是:结合轻量级主干网络的用于目标检测任务的卷积神经网络模型(CNN)框架。如结合移动网络(MobileNets)的单箱探测器(Single Shot MultiBox Detector,简称SSD)模型框架等。
其中,如图2所示,所述步骤S1中的构建轻量化的特征金字塔网络模块包括:
S11、选取轻量级人脸检测卷积神经网络模型中具有不同级别语义信息的特征映射层作为所述特征金字塔网络的基础层,并将所述基础层由深至浅排列;
其中,所述步骤S11、包括:
在所述轻量级人脸检测卷积神经网络模型中由深至浅选择尺寸依次增加一倍、通道数依次减小一半的不同级别语义信息的特征映射层作为特征金字塔网络的基础层,并将所述基础层由深至浅排列。
S12、由深至浅,依次将相邻的两个基础层特征进行融合,以形成包含有融合多层语义信息的特征映射的特征金字塔网络模块。
其中,如图3所示,所述将相邻的两个基础层特征进行融合包括:
S121、将相邻的两个基础层中较深层特征映射按通道切片,平均分为两部分,每部分通道数分别减小至较浅层特征映射通道数;
S122、将切片后的两部分进行通道池化,使较深层特征映射与较浅层特征映射的通道数相等;具体的:
将切片后的两部分较深层特征映射在每一像素的对应通道上取最大值,以使得较深层特征映射与较浅层特征映射的通道数相等。
S123、对通道池化后的较深层特征映射上采样,将宽和高分别扩大两倍至较浅层特征映射尺寸;具体的:
所述对通道池化后的较深层特征映射上采样时,使用临近插值的方法,将特征映射值在周围复制三份,以使得宽和高分别扩大两倍至较浅层特征映射尺寸。
S124、对上采样后的较深层特征映射进行分离式反走样卷积,以消除上采样造成的锯齿状边界;具体的:将较深层特征映射进行卷积核尺寸为3的逐通道卷积操作,以消除上采样造成的锯齿状边界。
S125、将进行反走样卷积处理后的深层特征映射与浅层特征映射进行逐像素、逐通道求和,以进行所述深层和浅层特征融合。
S2,获取指定数量的包含人脸的数字图像(例如可以从公开的人脸检测训练数据集Wider Face中根据需要获取一定数量的人脸数字图像),并标记其中的人脸位置和尺寸,构成带标签的人脸数字图像集,将其作为训练数据集。并利用该训练数据集对S1中形成的多尺度轻量级人脸检测模型进行训练,得到训练好的可用于人脸检测的多尺度轻量级人脸检测模型。
S3,获取指定数量的包含人脸的数字图像(例如可以从公开人脸检测测试数据集Face Detection Data Set and Benchmark,简称 FDDB)中根据需要获取一定数量的人脸数字图像,并标记其中的人脸位置和尺寸,构成带标签的人脸数字图像集,将其作为测试数据集,利用所述测试数据集对所述训练后的多尺度轻量级人脸检测模型进行测试,以获取符合指定标准的多尺度轻量级人脸检测模型。
S4,判断测试结果是否符合指定标准;
其中,若测试结果不符合指定标准则,返回执行所述指定步骤S2中的迭代训练;
若测试结果符合指定标准,则执行S5,保存所述训练后的多尺度轻量级人脸检测模型以用于人脸检测。
其中的制定标准包括:检测的准确度高于一指定的值,以及检测时计算的复杂度低于一指定的值。
另外,本申请还提供一种基于上述的多尺度轻量级人脸检测模型的人脸检测方法,包括:
获取包含有人脸的数字图像;
将所述数字图像输入到所述多尺度轻量级人脸检测模型中进行人脸检测,以获取人脸位置及人脸尺寸。
实施例二
为了详细说明本发明的具体实施方式及验证本发明的有效性,现结合具体的例子说明如下:
M1、基于分离式反走样卷积和通道池化,设计轻量化的特征金字塔网络模块,并将该模块接入到轻量级人脸检测卷积神经网络(CNN)模型中,形成多尺度轻量级人脸检测模型。(该步骤与实施例一中的S1相同,在此不再赘述)
M2、从公开的人脸检测训练数据集Wider Face数据集中获取32203副图像,并对其中的人脸位置和尺寸进行了标记,共标记了393703张人脸。将其作为训练集,对M1中的多尺度轻量级人脸检测模型进行训练,以获取训练后的多尺度轻量级人脸检测模型。
M3、从公开人脸检测测试数据集(Face Detection Data Set and  Benchmark,简称FDDB)中获取2845幅图像,并对其中的人脸位置和尺寸进行了标记,共标记了5171张人脸。将其作为测试数据集,利用所述测试数据集对所述训练后的多尺度轻量级人脸检测模型进行测试。
其中,下表1为本申请的检测模型与另外6个现有的人脸检测模型在100个误检时的检测率比较结果:
Figure PCTCN2018114743-appb-000001
表1
其中,选取的6个对比模型中有3个模型的测试准确度高于本发明方法,但是该检测模型都不属于轻量级网络,在资源有限平台上的应用受限,另外3个测试结果准确度都低于本发明方法。因此,本申请的模型既能够保证检测结果的准确度,又能够适应嵌入式平台,且在能够应用于资源有限的嵌入式平台的人脸检测任务的各个模型中,是检测结果准确度最高的。
另外,关于本申请的能够有效减少检测模型的规模(包括减少计算的复杂度和参数的规模)的具体的体现如下:
关于在本申请的实施例一的S124或实施例二M1中的可分离反走样卷积部分。此时使用卷积是为了消除上采样造成的边界锯齿现象,即执行反走样操作,假设输入特征映射的高为H,宽为W,通道数为C,卷积核尺寸为3,卷积偏移量为1,填充数为1,偏置数 为1,使用逐通道卷积所需计算力为:
(3×3+1)×C×H×W
而如果使用普通卷积所需的计算力为:
(3×3×C+1)×C×H×W
则此处使用可分离式卷积可以将计算力大致减小至普通卷积的1/C,同时,所需的卷积核存储空间也大致降低为原来的1/C。
关于在本申请的实施例一的S122或实施例二M1中的通道池化部分。此时需要减小较深层特征映射的通道数,使之与较浅层特征映射的一致,假设较深层特征映射的高为H,宽为W,通道数为C,则使用通道池化所需的计算力为:
Figure PCTCN2018114743-appb-000002
如果不使用通道池化,常规做法是使用卷积核尺寸为1的卷积操作,所需计算力为:
Figure PCTCN2018114743-appb-000003
另外还需存储
Figure PCTCN2018114743-appb-000004
的卷积核。
则此处通道池化将计算力大致减小至原来的1/C,卷积核存储空间减小为0。
综上所述,本申请可以实现在提升对人脸检测的准确度的同时还可以有效减少检测模型的规模(包括减少计算的复杂度和参数的规模),从而节省计算资源以适应资源有限的嵌入式平台的人脸检测任务。本发明检测模型和检测方法可移植到小型计算平台执行高效人脸检测任务。同时,本发明提出的创新方法也可应用到其他目标检测任务。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

  1. 一种多尺度轻量级人脸检测模型的构建方法,其特征在于,包括:
    A、基于分离式反走样卷积和通道池化技术,构建轻量化的特征金字塔网络模块,并将所述特征金字塔网络模块接入到轻量级人脸检测卷积神经网络模型中,形成多尺度轻量级人脸检测模型;
    B、获取指定数量的标记有人脸位置和尺寸的人脸数字图像作为训练数据集,并利用所述训练数据集对所述多尺度轻量级人脸检测模型进行迭代训练,以获取训练后的多尺度轻量级人脸检测模型。
  2. 根据权利要求1所述的方法,其特征在于,所述步骤B之后还包括:
    C、获取指定数量的标记有人脸位置和尺寸的人脸数字图像作为测试数据集,并利用所述测试数据集对所述训练后的多尺度轻量级人脸检测模型进行测试;
    若测试结果不符合指定标准则返回执行步骤B中所述迭代训练;
    若测试结果符合指定标准,则保存所述训练后的多尺度轻量级人脸检测模型以用于人脸检测。
  3. 根据权利要求1所述的方法,其特征在于,步骤A所述基于分离式反走样卷积和通道池化技术,构建轻量化的特征金字塔网络模块,包括:
    A1、选取轻量级人脸检测卷积神经网络模型中具有不同级别语义信息的特征映射层作为所述特征金字塔网络的基础层,并将所述基础层由深至浅排列;
    A2、由深至浅,依次将相邻的两个基础层特征进行融合,以形成包含有融合多层语义信息的特征映射的特征金字塔网络模块。
  4. 根据权利要求3所述的方法,其特征在于,所述步骤A1包括:
    在所述轻量级人脸检测卷积神经网络模型中由深至浅选择尺寸 依次增加一倍、通道数依次减小一半的不同级别语义信息的特征映射层作为特征金字塔网络的基础层,并将所述基础层由深至浅排列。
  5. 根据权利要求3所述的方法,其特征在于,步骤A2所述将相邻的两个基础层特征进行融合包括:
    A21、将相邻的两个基础层中较深层特征映射按通道切片,平均分为两部分,每部分通道数分别减小至较浅层特征映射通道数;
    A22、将切片后的两部分进行通道池化,使较深层特征映射与较浅层特征映射的通道数相等;
    A23、对通道池化后的较深层特征映射上采样,将宽和高分别扩大两倍至较浅层特征映射尺寸;
    A24、对上采样后的较深层特征映射进行分离式反走样卷积,以消除上采样造成的锯齿状边界;
    A25、将进行反走样卷积处理后的深层特征映射与浅层特征映射进行逐像素、逐通道求和,以进行特征融合。
  6. 根据权利要求5所述的方法,其特征在于,所述步骤A22包括:
    将切片后的两部分较深层特征映射在每一像素的对应通道上取最大值,以使得较深层特征映射与较浅层特征映射的通道数相等。
  7. 根据权利要求5所述的方法,其特征在于,所述步骤A23包括:
    所述对通道池化后的较深层特征映射上采样时,使用临近插值的方法,将较深层特征映射值在周围复制三份,使得其宽和高分别扩大两倍至较浅层特征映射尺寸。
  8. 根据权利要求5所述的方法,其特征在于,所述步骤A24包括:
    将较深层特征映射进行卷积核尺寸为3的逐通道卷积操作,以消除上采样造成的锯齿状边界。
  9. 一种人脸检测方法,基于权利要求1-8任一项所述方法构建的多尺度轻量级人脸检测模型,其特征在于,包括:
    获取包含有人脸的数字图像;
    将所述数字图像输入到所述多尺度轻量级人脸检测模型中进行人脸检测,以获取人脸位置及人脸尺寸。
PCT/CN2018/114743 2018-05-21 2018-11-09 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法 WO2019223254A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810490357.0A CN108647668A (zh) 2018-05-21 2018-05-21 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法
CN201810490357.0 2018-05-21

Publications (1)

Publication Number Publication Date
WO2019223254A1 true WO2019223254A1 (zh) 2019-11-28

Family

ID=63757311

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/114743 WO2019223254A1 (zh) 2018-05-21 2018-11-09 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法

Country Status (2)

Country Link
CN (1) CN108647668A (zh)
WO (1) WO2019223254A1 (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111144310A (zh) * 2019-12-27 2020-05-12 创新奇智(青岛)科技有限公司 一种基于多层信息融合的人脸检测方法及系统
CN111260662A (zh) * 2020-01-16 2020-06-09 南开大学 超小参数量的分割模型的实现方法
CN111340039A (zh) * 2020-02-12 2020-06-26 杰创智能科技股份有限公司 一种基于特征选择的目标检测方法
CN111461213A (zh) * 2020-03-31 2020-07-28 华中科技大学 一种目标检测模型的训练方法、目标快速检测方法
CN111507304A (zh) * 2020-04-29 2020-08-07 广州市百果园信息技术有限公司 自适应刚性先验模型训练方法、人脸跟踪方法及相关装置
CN111723685A (zh) * 2020-06-01 2020-09-29 齐齐哈尔大学 基于支路特征融合卷积网络的遥感场景分类方法
CN111815731A (zh) * 2020-07-15 2020-10-23 山东省眼科研究所 图像处理方法、装置及计算机可读存储介质
CN111914993A (zh) * 2020-06-05 2020-11-10 西安理工大学 基于非均匀分组的多尺度轻量型深度卷积神经网络模型
CN111950515A (zh) * 2020-08-26 2020-11-17 重庆邮电大学 一种基于语义特征金字塔网络的小人脸检测方法
CN112232292A (zh) * 2020-11-09 2021-01-15 泰康保险集团股份有限公司 应用于移动端的人脸检测方法及装置
CN112464701A (zh) * 2020-08-26 2021-03-09 北京交通大学 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法
CN112699826A (zh) * 2021-01-05 2021-04-23 风变科技(深圳)有限公司 人脸检测方法、装置、计算机设备和存储介质
CN112733848A (zh) * 2021-01-08 2021-04-30 中国电子科技集团公司第二十八研究所 基于多尺度特征和扩张型逆残差全连接的目标检测方法
CN112836657A (zh) * 2021-02-08 2021-05-25 中国电子科技集团公司第三十八研究所 一种基于轻量化YOLOv3的行人检测方法及系统
CN113011344A (zh) * 2021-03-23 2021-06-22 安徽一视科技有限公司 一种基于机器视觉的引体向上数量计算方法
CN113011442A (zh) * 2021-03-26 2021-06-22 山东大学 一种基于双向自适应特征金字塔的目标检测方法及系统
CN113111719A (zh) * 2021-03-16 2021-07-13 苏州海宸威视智能科技有限公司 基于重结构化类脑卷积的无人机视角下的车辆检测方法
CN113159063A (zh) * 2021-03-30 2021-07-23 电子科技大学 一种基于改进的RetinaNet小目标检测方法
CN113420660A (zh) * 2021-06-23 2021-09-21 西安电子科技大学 一种红外图像目标检测模型构建方法、预测方法及系统
CN113674222A (zh) * 2021-07-29 2021-11-19 宁波大学 基于改进fssd的汽车差速器壳体表面缺陷的快速检测方法
CN113887718A (zh) * 2021-09-02 2022-01-04 哈尔滨工业大学 一种基于相对激活率的通道剪枝方法和装置及轻量级流量特征提取网络模型简化的方法
CN113902904A (zh) * 2021-09-30 2022-01-07 北京工业大学 一种轻量化网络架构系统
CN114155591A (zh) * 2021-12-02 2022-03-08 海南伍尔索普电子商务有限公司 一种基于多尺度信息融合的人脸静默活体检测方法
CN114882560A (zh) * 2022-05-10 2022-08-09 福州大学 一种基于轻量级人像检测的图像智能裁剪方法
CN115909001A (zh) * 2023-03-09 2023-04-04 和普威视光电股份有限公司 一种融合密集嵌套跳跃连接的目标检测方法及系统
CN117670527A (zh) * 2024-02-02 2024-03-08 北京佳格天地科技有限公司 基于地块数据的农户贷款授信额度确定方法及系统

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647668A (zh) * 2018-05-21 2018-10-12 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法
CN110084777A (zh) * 2018-11-05 2019-08-02 哈尔滨理工大学 一种基于深度学习的微小零件定位跟踪方法
CN109770922B (zh) * 2018-12-28 2022-03-29 新大陆数字技术股份有限公司 嵌入式疲劳检测系统及方法
CN109886079A (zh) * 2018-12-29 2019-06-14 杭州电子科技大学 一种车辆检测与跟踪方法
CN110147740B (zh) * 2019-04-30 2021-07-09 北京迈格威科技有限公司 人脸识别方法、装置、设备和存储介质
CN110210314B (zh) * 2019-05-06 2023-06-13 深圳华付技术股份有限公司 人脸检测方法、装置、计算机设备及存储介质
CN110197142A (zh) * 2019-05-16 2019-09-03 谷东科技有限公司 微弱光线条件下的物体识别方法、装置、介质及终端设备
CN110414372A (zh) * 2019-07-08 2019-11-05 北京亮亮视野科技有限公司 增强的人脸检测方法、装置及电子设备
CN110414574A (zh) * 2019-07-10 2019-11-05 厦门美图之家科技有限公司 一种目标检测方法、计算设备及存储介质
CN111191508A (zh) * 2019-11-28 2020-05-22 浙江省北大信息技术高等研究院 人脸识别方法及装置
CN111368707B (zh) * 2020-03-02 2023-04-07 佛山科学技术学院 基于特征金字塔与密集块的人脸检测方法、系统、设备及介质
CN111967305B (zh) * 2020-07-01 2022-03-18 华南理工大学 一种基于轻量级卷积神经网络的实时多尺度目标检测方法
CN111967326B (zh) * 2020-07-16 2021-09-28 北京交通大学 一种基于轻量化多尺度特征提取的步态识别方法
CN112069992A (zh) * 2020-09-04 2020-12-11 西安西图之光智能科技有限公司 一种基于多监督稠密对齐的人脸检测方法、系统及存储介质
CN112766176B (zh) * 2021-01-21 2023-12-01 深圳市安软科技股份有限公司 轻量化卷积神经网络的训练方法及人脸属性识别方法
CN113128558B (zh) * 2021-03-11 2022-07-19 重庆邮电大学 基于浅层空间特征融合与自适应通道筛选的目标检测方法
CN112926506B (zh) * 2021-03-24 2022-08-12 重庆邮电大学 一种基于卷积神经网络的非受控人脸检测方法及系统
CN113128624B (zh) * 2021-05-11 2023-06-16 山东财经大学 一种基于多尺度字典的图网络人脸恢复方法
CN113837015A (zh) * 2021-08-31 2021-12-24 艾普工华科技(武汉)有限公司 一种基于特征金字塔的人脸检测方法及系统
CN115457367B (zh) * 2022-09-22 2023-09-26 淮阴工学院 一种基于Light-Net的轻量级目标检测方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104866829A (zh) * 2015-05-25 2015-08-26 苏州大学 一种基于特征学习的跨年龄人脸验证方法
CN105426850A (zh) * 2015-11-23 2016-03-23 深圳市商汤科技有限公司 一种基于人脸识别的关联信息推送设备及方法
CN105912990A (zh) * 2016-04-05 2016-08-31 深圳先进技术研究院 人脸检测的方法及装置
CN107194380A (zh) * 2017-07-03 2017-09-22 上海荷福人工智能科技(集团)有限公司 一种复杂场景下人脸识别的深度卷积网络及学习方法
CN108647668A (zh) * 2018-05-21 2018-10-12 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104866829A (zh) * 2015-05-25 2015-08-26 苏州大学 一种基于特征学习的跨年龄人脸验证方法
CN105426850A (zh) * 2015-11-23 2016-03-23 深圳市商汤科技有限公司 一种基于人脸识别的关联信息推送设备及方法
CN105912990A (zh) * 2016-04-05 2016-08-31 深圳先进技术研究院 人脸检测的方法及装置
CN107194380A (zh) * 2017-07-03 2017-09-22 上海荷福人工智能科技(集团)有限公司 一种复杂场景下人脸识别的深度卷积网络及学习方法
CN108647668A (zh) * 2018-05-21 2018-10-12 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111144310A (zh) * 2019-12-27 2020-05-12 创新奇智(青岛)科技有限公司 一种基于多层信息融合的人脸检测方法及系统
CN111260662A (zh) * 2020-01-16 2020-06-09 南开大学 超小参数量的分割模型的实现方法
CN111260662B (zh) * 2020-01-16 2023-05-26 南开大学 超小参数量的分割模型的实现方法
CN111340039B (zh) * 2020-02-12 2023-10-17 杰创智能科技股份有限公司 一种基于特征选择的目标检测方法
CN111340039A (zh) * 2020-02-12 2020-06-26 杰创智能科技股份有限公司 一种基于特征选择的目标检测方法
CN111461213A (zh) * 2020-03-31 2020-07-28 华中科技大学 一种目标检测模型的训练方法、目标快速检测方法
CN111461213B (zh) * 2020-03-31 2023-06-02 华中科技大学 一种目标检测模型的训练方法、目标快速检测方法
CN111507304A (zh) * 2020-04-29 2020-08-07 广州市百果园信息技术有限公司 自适应刚性先验模型训练方法、人脸跟踪方法及相关装置
CN111723685A (zh) * 2020-06-01 2020-09-29 齐齐哈尔大学 基于支路特征融合卷积网络的遥感场景分类方法
CN111723685B (zh) * 2020-06-01 2022-07-26 齐齐哈尔大学 基于支路特征融合卷积网络的遥感场景分类方法
CN111914993B (zh) * 2020-06-05 2024-04-16 西安理工大学 基于非均匀分组的多尺度深度卷积神经网络模型构建方法
CN111914993A (zh) * 2020-06-05 2020-11-10 西安理工大学 基于非均匀分组的多尺度轻量型深度卷积神经网络模型
CN111815731B (zh) * 2020-07-15 2024-04-26 山东省眼科研究所 图像处理方法、装置及计算机可读存储介质
CN111815731A (zh) * 2020-07-15 2020-10-23 山东省眼科研究所 图像处理方法、装置及计算机可读存储介质
CN112464701B (zh) * 2020-08-26 2023-06-30 北京交通大学 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法
CN111950515A (zh) * 2020-08-26 2020-11-17 重庆邮电大学 一种基于语义特征金字塔网络的小人脸检测方法
CN112464701A (zh) * 2020-08-26 2021-03-09 北京交通大学 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法
CN112232292A (zh) * 2020-11-09 2021-01-15 泰康保险集团股份有限公司 应用于移动端的人脸检测方法及装置
CN112232292B (zh) * 2020-11-09 2023-12-26 泰康保险集团股份有限公司 应用于移动端的人脸检测方法及装置
CN112699826A (zh) * 2021-01-05 2021-04-23 风变科技(深圳)有限公司 人脸检测方法、装置、计算机设备和存储介质
CN112699826B (zh) * 2021-01-05 2024-05-28 风变科技(深圳)有限公司 人脸检测方法、装置、计算机设备和存储介质
CN112733848B (zh) * 2021-01-08 2022-11-04 中国电子科技集团公司第二十八研究所 基于多尺度特征和扩张型逆残差全连接的目标检测方法
CN112733848A (zh) * 2021-01-08 2021-04-30 中国电子科技集团公司第二十八研究所 基于多尺度特征和扩张型逆残差全连接的目标检测方法
CN112836657A (zh) * 2021-02-08 2021-05-25 中国电子科技集团公司第三十八研究所 一种基于轻量化YOLOv3的行人检测方法及系统
CN113111719A (zh) * 2021-03-16 2021-07-13 苏州海宸威视智能科技有限公司 基于重结构化类脑卷积的无人机视角下的车辆检测方法
CN113011344A (zh) * 2021-03-23 2021-06-22 安徽一视科技有限公司 一种基于机器视觉的引体向上数量计算方法
CN113011442A (zh) * 2021-03-26 2021-06-22 山东大学 一种基于双向自适应特征金字塔的目标检测方法及系统
CN113159063A (zh) * 2021-03-30 2021-07-23 电子科技大学 一种基于改进的RetinaNet小目标检测方法
CN113159063B (zh) * 2021-03-30 2022-11-18 电子科技大学 一种基于改进的RetinaNet小目标检测方法
CN113420660A (zh) * 2021-06-23 2021-09-21 西安电子科技大学 一种红外图像目标检测模型构建方法、预测方法及系统
CN113674222A (zh) * 2021-07-29 2021-11-19 宁波大学 基于改进fssd的汽车差速器壳体表面缺陷的快速检测方法
CN113887718B (zh) * 2021-09-02 2024-04-26 哈尔滨工业大学 一种基于相对激活率的通道剪枝方法和装置及轻量级流量特征提取网络模型简化的方法
CN113887718A (zh) * 2021-09-02 2022-01-04 哈尔滨工业大学 一种基于相对激活率的通道剪枝方法和装置及轻量级流量特征提取网络模型简化的方法
CN113902904A (zh) * 2021-09-30 2022-01-07 北京工业大学 一种轻量化网络架构系统
CN113902904B (zh) * 2021-09-30 2024-04-19 北京工业大学 一种轻量化网络架构系统
CN114155591A (zh) * 2021-12-02 2022-03-08 海南伍尔索普电子商务有限公司 一种基于多尺度信息融合的人脸静默活体检测方法
CN114882560A (zh) * 2022-05-10 2022-08-09 福州大学 一种基于轻量级人像检测的图像智能裁剪方法
CN115909001A (zh) * 2023-03-09 2023-04-04 和普威视光电股份有限公司 一种融合密集嵌套跳跃连接的目标检测方法及系统
CN117670527B (zh) * 2024-02-02 2024-04-09 北京佳格天地科技有限公司 基于地块数据的农户贷款授信额度确定方法及系统
CN117670527A (zh) * 2024-02-02 2024-03-08 北京佳格天地科技有限公司 基于地块数据的农户贷款授信额度确定方法及系统

Also Published As

Publication number Publication date
CN108647668A (zh) 2018-10-12

Similar Documents

Publication Publication Date Title
WO2019223254A1 (zh) 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法
US11908244B2 (en) Human posture detection utilizing posture reference maps
JP7386545B2 (ja) 画像中の物体を識別するための方法、及び当該方法を実施するためのモバイル装置
US10860837B2 (en) Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition
CN108734210B (zh) 一种基于跨模态多尺度特征融合的对象检测方法
WO2020259213A1 (zh) 行为识别的方法、装置、终端设备及存储介质
WO2020048396A1 (zh) 一种连续图像的目标检测方法、装置、设备及存储介质
US20190318822A1 (en) Deep image classification of medical images
CN110782420A (zh) 一种基于深度学习的小目标特征表示增强方法
CN107705322A (zh) 运动目标识别跟踪方法和系统
CN107066955B (zh) 一种从局部人脸区域还原整张人脸的方法
WO2020177189A1 (zh) 图像精细化阴影区域分割系统、方法、装置
CN112633159B (zh) 人-物交互关系识别方法、模型训练方法及对应装置
CN111428664B (zh) 一种基于深度学习技术的计算机视觉的实时多人姿态估计方法
WO2021190122A1 (zh) 人体关键点的检测方法、装置、电子设备及存储介质
WO2023151237A1 (zh) 人脸位姿估计方法、装置、电子设备及存储介质
JP6107531B2 (ja) 特徴抽出プログラム及び情報処理装置
Liu et al. Hand gesture recognition based on single-shot multibox detector deep learning
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN114926892A (zh) 一种基于深度学习的眼底图像匹配方法、系统和可读介质
JP7141518B2 (ja) 指静脈照合方法、装置、コンピュータ機器、及び記憶媒体
CN111797705A (zh) 一种基于人物关系建模的动作识别方法
Gajjar et al. Intersection over Union based analysis of Image detection/segmentation using CNN model
CN114724175B (zh) 行人图像的检测网络、检测方法、训练方法、电子设备和介质
Dayananda Kumar et al. Depth based static hand gesture segmentation and recognition

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18919885

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 01/04/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 18919885

Country of ref document: EP

Kind code of ref document: A1