CN111860174A - 融合RepGT-RepBox函数的遮挡人脸检测方法 - Google Patents
融合RepGT-RepBox函数的遮挡人脸检测方法 Download PDFInfo
- Publication number
- CN111860174A CN111860174A CN202010573445.4A CN202010573445A CN111860174A CN 111860174 A CN111860174 A CN 111860174A CN 202010573445 A CN202010573445 A CN 202010573445A CN 111860174 A CN111860174 A CN 111860174A
- Authority
- CN
- China
- Prior art keywords
- face
- positive
- repgt
- repbox
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了融合RepGT‑RepBox函数的遮挡人脸检测方法,具体按照以下步骤实施:步骤1:步骤1、卷积层提取图像feature map;步骤2:RPN提取人脸候选区域,在提取人脸候选区时使用融合RepGT‑RepBox函数的损失函数L,更加精准地选取包括人脸的候选区域;步骤3:ROI池化层将人脸候选区域的特征转换成固定大小;步骤4:分类和回归层判断人脸具体位置。本发明遮挡人脸检测方法,可以有效遮挡对于人脸的干扰,加快训练速度,提高识别准确率。
Description
技术领域
本发明属于人脸检测技术领域,具体涉及一种融合RepGT-RepBox函数的遮挡人脸检测方法。
背景技术
人脸识别技术都是基于人脸关键特征提取对比完成识别的,其中,特征的完整性是算法成败的一个极为关键的因素,但是当受到外界干扰较多,外界的条件发生明显变化的时候,由于传统方法过于依赖明显的、完整的图像特征,一旦由于人脸发生遮挡,造成部分特征的消失,导致人脸图像特征不完整时,这种算法就会失效,导致无法和库中人脸信息进行对比。遮挡造成的人脸识别的困难主要体现在由遮挡所引发的特征损失、对准误差和局部混叠等方面。
Faster R-CNN框架由四个部分组成:1)卷积层(conv layers),用于提取图片的特征,输入为整张图片,输出为提取出的特征称为feature map。2)RPN网络(Region ProposalNetwork),用于推荐人脸候选区域,输出为多个候选区域。3)ROI pooling池化层,将不同大小的输入转换为固定长度的输出。4)分类和回归,这一层的输出是最终目的,输出候选区域所属的类,和候选区域在图像中的精确位置。
遮挡情形下周围其他目标的影响会干扰最终输出结果,检测的关键是使产生的proposals能够更加接近真实目标框。在RPN层融合RepGT-RepBox损失函数的遮挡人脸检测方法优点在于使得预测框和所负责的真实目标距离缩小,而使得其与周围非负责目标框距离增大,更加准确的判断行人位置。
综上所述,本文提出融合RepGT-RepBox损失函数的Faster-RCNN遮挡人脸检测方法,不仅训练速度快,并且提高遮挡情形下人脸识别率。
发明内容
本发明的目的是提供一种融合RepGT-RepBox函数的遮挡人脸检测方法,可以有效遮挡对于人脸的干扰,加快训练速度,提高识别准确率。
本发明所采用的技术方案如下:融合RepGT-RepBox函数的遮挡人脸检测方法,具体按照以下步骤实施:
步骤1:步骤1、卷积层提取图像feature map;
步骤2:RPN提取人脸候选区域,在提取人脸候选区时使用融合RepGT-RepBox函数的损失函数L,更加精准地选取包括人脸的候选区域;
步骤3:ROI池化层将人脸候选区域的特征转换成固定大小;
步骤4:分类和回归层判断人脸具体位置。
本发明的特征还在于,
步骤1的具体实施方式如下:
步骤1.1、首先要获取人脸图像,人脸图像来自WiderFace公开数据集,此数据集包含大量面部遮挡图片,将图像缩放至固定M×N大小;
步骤1.2、使用基于VGG16的Faster RCNN卷积层提取图像feature map。
步骤1.2中,所述Faster RCNN卷积层包括13个conv层,13个relu层,4个pooling层,依次通过这些层后可得到输入图像的feature map,conv、relu、pooling三种层的参数如下:
(1)13个conv层的参数均相同,具体为:kernel_size=3,pad=1,stride=1;
(2)13个relu层均使用激活函数;
(3)4个pooling层的参数均相同,具体为:kernel_size=2,stride=2,经过此层后得出大小为(M/16)×(N/16)的feature map,kenel_size 4=16。
步骤2的具体实施方式如下:
步骤2.1、先使用3*3的卷积核对feature map进行卷积运算,使feature map的特征更加集中;
步骤2.2、使用generate_anchors函数在feature map生成anchors,假设featuremap中每个点上有k个anchors,所以anchors数量是celi(M/16)×celi(N/16)×K,celi()表示向上取整运算;
步骤2.3、使用softmax判断得到的anchors属于positive anchors还是negativeanchors,提取出positive anchors为初步positive proposals候选区域;
步骤2.4、接着使用损失函数L计算positive anchors的bounding boxregression的偏移量,通过L的值,判断positive anchors是否范围超过人脸边界,剔除严重超出边界的anchors;以获得精确的positive proposals;
步骤2.5、排除掉超出人脸边界的positive anchors后,对剩下的positiveanchors进行Non-Maximum Suppression运算;
步骤2.6、对于进行了NMS后的positive anchors按分数从大到小排序,提取前Q个结果作为人脸候选区域positive proposals。
步骤2.4中,所述损失函数L的表达式具体如下:
L=LAttr+α*LRepGT+β*LRepBox (1)
式(1)中,LAttr为预测框与真实目标框所产生的损失值;LRepGT为预测框与相邻真实目标框所产生的损失值;LRepBox为预测框与相邻真实目标的预测框所产生的损失值;α和β为两个相关系数。
LAttr的定义为:
式(2)中,ρ+为所有positive proposals的集合,P∈ρ+,BP是P的预测框,G为真实目标框,为P匹配一个与之有最大IoU值的真实目标框G;SmoothL1用来度量两个框的逼近程度,计算出BP和距离的最小损失值,即使目的预测框与真实目标框更加接近;其中x为BP和之间的距离。
LRepGT具体为:
LRepBox具体为:
步骤3的具体实施方式如下:
步骤3.1、输入是RPN层产生的前Q个positive proposals人脸候选区域和卷积层产生的原始的feature map,遍历每个Q个positive proposals将其映射到feature map上,从而将在feature map上确定一个区域(定义为RB*);
步骤3.2、在feature map上确定的区域RB*,根据池化参数pooled_w,pooled_h,将这个RB*区域划分为w*h个相同大小的小区域,对于每个小区域进行max pooling(最大池化)形成了一个w*h的feature map;Q个positive proposals遍历完后,会产生Q*w*h大小的feature map,为输出的新的大小统一的特征数组,同时作为下一层的输入。
步骤4的具体实施方式如下:
步骤4.1、ROI pooling池化层之后,利用softmax对上一步得到的Q*w*h个featuremap进行全连接操作,利用Softmax进行具体类别的分类;
步骤4.2、对人脸positive proposals进行bounding box regression微调人脸框大小,进一步确定人脸区域,排除遮挡物的干扰。
发明的有益效果是:
(1)本发明方法可以有效提高候选可见人脸区域选择准确度,提升检测模型对于遮挡人脸图像的鲁棒性,抑制遮挡为特征区域带来的损失和干扰,对于图像中人脸进行更好地定位和提取。
(2)本发明方法针对遮挡对人脸图像检测造成的干扰问题,以Faster RCNN模型为基干,在RPN层融合RepGT-RepBox损失函数的遮挡人脸检测方法,使得人脸预测框和真实人脸目标距离缩小,有效减少了遮挡因素的干扰更加精准地选取人脸候选区域,对于遮挡人脸图像具有更高的检测准确率和召回率。
(3)本发明方法RPN提取层融合RepGT-RepBox损失函数的遮挡人脸检测方法,可以有效遮挡对于人脸的干扰,加快训练速度,提高识别准确率。
附图说明
图1是本发明融合RepGT-RepBox函数的遮挡人脸检测方法的流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种融合RepGT-RepBox函数的遮挡人脸检测方法,如图1所示,包括以下步骤:
步骤1:步骤1、卷积层提取图像feature map;
步骤1的具体实施方式如下:
步骤1.1、首先要获取人脸图像,人脸图像来自WiderFace公开数据集,此数据集包含大量面部遮挡图片,将图像缩放至固定M×N大小;
步骤1.2、使用基于VGG16的Faster RCNN卷积层提取图像feature map。
步骤1.2中,Faster RCNN卷积层包括13个conv层,13个relu层,4个pooling层,依次通过这些层后可得到输入图像的feature map,conv、relu、pooling三种层的参数如下:
(1)13个conv层的参数均相同,具体为:kernel_size=3,pad=1,stride=1;
(2)13个relu层均使用激活函数;
(3)4个pooling层的参数均相同,具体为:kernel_size=2,stride=2,经过此层后得出大小为(M/16)×(N/16)的feature map,kenel_size 4=16。
步骤2:RPN提取人脸候选区域,在提取人脸候选区时使用融合RepGT-RepBox函数的损失函数L,更加精准地选取包括人脸的候选区域;
步骤2的具体实施方式如下:
步骤2.1、先使用3*3的卷积核对feature map进行卷积运算,使feature map的特征更加集中;
步骤2.2、使用generate_anchors函数在feature map生成anchors,(anchors为不同长宽的矩形边框)假设feature map中每个点上有k个anchors,所以anchors数量是celi(M/16)×celi(N/16)×K,celi()表示向上取整运算;
步骤2.3、使用softmax判断得到的anchors属于positive(目标人脸)anchors还是negative(背景信息)anchors,提取出positive anchors为初步positive proposals候选区域;
步骤2.4、接着使用损失函数L计算positive anchors的bounding boxregression(边框回归)的偏移量,通过L的值,判断positive anchors是否范围超过人脸边界,剔除严重超出边界的anchors;以获得精确的positive proposals,L中融合了RepGT-RepBox函数,RepGT-RepBox损失函数进一步排除遮挡的干扰信息;
步骤2.4中,所述损失函数L的表达式具体如下:
L=LAttr+α*LRepGT+β*LRepBox (1)
式(1)中,LAttr(Attraction term)为预测框与真实目标框所产生的损失值;LRepGT(repulsion term)为预测框与相邻真实目标框所产生的损失值;LRepBox(repulsion Box)为预测框与相邻真实目标的预测框所产生的损失值;α(alpha)和β(beta)为两个相关系数,通过两个相关系数α(alpha)和β(beta)来平衡两部分repulsion损失值。
在损失函数L中新融合了RepGT-RepBox函数,LAttr采用SmoothL1距离损失函数,LAttr的定义为:
式(2)中,ρ+为所有positive proposals的集合,P∈ρ+,BP是P的预测框,G为真实目标框,为P匹配一个与之有最大IoU值的真实目标框G;SmoothL1用来度量两个框的逼近程度,计算出BP和距离的最小损失值,即使目的预测框与真实目标框更加接近;其中x为BP和之间的距离。
LRepGT目的是使预测框尽可能远离与之相邻的真实目标框,给定一个P∈ρ_+,其相邻的真实目标框为为除真实目标框之外IoU值最大的框,真实目标框预测框BP和相邻的真实目标框之间的距离定义为:Smoothln是在区间(0,1)连续可微分的平滑ln函数。
LRepGT具体为:
LRepBox目的是使预测框尽量远离相邻真实目标的预测框。将ρ+分为不同的子集Pi、Pj......Pn。
LRepBox具体为:
步骤2.5、排除掉超出人脸边界的positive anchors后,对剩下的positiveanchors进行Non-Maximum Suppression(非极大值抑制NMS)运算;
步骤2.6、对于进行了NMS后的positive anchors按分数从大到小排序,提取前Q个结果作为人脸候选区域positive proposals。
步骤3:ROI池化层将人脸候选区域的特征转换成固定大小;
步骤3的具体实施方式如下:
步骤3.1、输入是RPN层产生的前Q个positive proposals人脸候选区域和卷积层产生的原始的feature map,遍历每个Q个positive proposals将其映射到feature map上,从而将在feature map上确定一个区域(定义为RB*);
步骤3.2、在feature map上确定的区域RB*,根据池化参数pooled_w,pooled_h,将这个RB*区域划分为w*h个相同大小的小区域,对于每个小区域进行max pooling(最大池化)形成了一个w*h的feature map;Q个positive proposals遍历完后,会产生Q*w*h大小的feature map,为输出的新的大小统一的特征数组,同时作为下一层的输入。
步骤4:分类和回归层判断人脸具体位置。
步骤4的具体实施方式如下:
步骤4.1、ROI pooling池化层之后,利用softmax对上一步得到的Q*w*h个featuremap进行全连接操作,利用Softmax进行具体类别的分类。
步骤4.2、对人脸positive proposals进行bounding box regression(边框回归)微调人脸框大小,进一步确定人脸区域,排除遮挡物的干扰。
Claims (10)
1.融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,具体按照以下步骤实施:
步骤1:步骤1、卷积层提取图像feature map;
步骤2:RPN提取人脸候选区域,在提取人脸候选区时使用融合RepGT-RepBox函数的损失函数L,更加精准地选取包括人脸的候选区域;
步骤3:ROI池化层将人脸候选区域的特征转换成固定大小;
步骤4:分类和回归层判断人脸具体位置。
2.根据权利要求1所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤1的具体实施方式如下:
步骤1.1、首先要获取人脸图像,人脸图像来自WiderFace公开数据集,此数据集包含大量面部遮挡图片,将图像缩放至固定M×N大小;
步骤1.2、使用基于VGG16的Faster RCNN卷积层提取图像feature map。
3.根据权利要求2所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤1.2中,所述Faster RCNN卷积层包括13个conv层,13个relu层,4个pooling层,依次通过这些层后可得到输入图像的feature map,conv、relu、pooling三种层的参数如下:
(1)13个conv层的参数均相同,具体为:kernel_size=3,pad=1,stride=1;
(2)13个relu层均使用激活函数;
(3)4个pooling层的参数均相同,具体为:kernel_size=2,stride=2,经过此层后得出大小为(M/16)×(N/16)的feature map,kenel_size4=16。
4.根据权利要求3所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤2的具体实施方式如下:
步骤2.1、先使用3*3的卷积核对feature map进行卷积运算,使feature map的特征更加集中;
步骤2.2、使用generate_anchors函数在feature map生成anchors,假设feature map中每个点上有k个anchors,所以anchors数量是celi(M/16)×celi(N/16)×K,celi()表示向上取整运算;
步骤2.3、使用softmax判断得到的anchors属于positiveanchors还是negativeanchors,提取出positive anchors为初步positive proposals候选区域;
步骤2.4、接着使用损失函数L计算positive anchors的bounding box regression的偏移量,通过L的值,判断positive anchors是否范围超过人脸边界,剔除严重超出边界的anchors;以获得精确的positive proposals;
步骤2.5、排除掉超出人脸边界的positive anchors后,对剩下的positive anchors进行Non-Maximum Suppression运算;
步骤2.6、对于进行了NMS后的positive anchors按分数从大到小排序,提取前Q个结果作为人脸候选区域positive proposals。
5.根据权利要求4所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤2.4中,所述损失函数L的表达式具体如下:
L=LAttr+α*LRepGT+β*LRepBox (1)
式(1)中,LAttr为预测框与真实目标框所产生的损失值;LRepGT为预测框与相邻真实目标框所产生的损失值;LRepBox为预测框与相邻真实目标的预测框所产生的损失值;α和β为两个相关系数。
9.根据权利要求5所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤3的具体实施方式如下:
步骤3.1、输入是RPN层产生的前Q个positive proposals人脸候选区域和卷积层产生的原始的feature map,遍历每个Q个positive proposals将其映射到feature map上,从而将在feature map上确定一个区域;
步骤3.2、在feature map上确定的区域RB*,根据池化参数pooled_w,pooled_h,将这个RB*区域划分为w*h个相同大小的小区域,对于每个小区域进行max pooling形成了一个w*h的feature map;Q个positive proposals遍历完后,会产生Q*w*h大小的feature map,为输出的新的大小统一的特征数组,同时作为下一层的输入。
10.根据权利要求5所述的融合RepGT-RepBox函数的遮挡人脸检测方法,其特征在于,步骤4的具体实施方式如下:
步骤4.1、ROI pooling池化层之后,利用softmax对上一步得到的Q*w*h个feature map进行全连接操作,利用Softmax进行具体类别的分类;
步骤4.2、对人脸positive proposals进行bounding box regression微调人脸框大小,进一步确定人脸区域,排除遮挡物的干扰。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010573445.4A CN111860174A (zh) | 2020-06-22 | 2020-06-22 | 融合RepGT-RepBox函数的遮挡人脸检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010573445.4A CN111860174A (zh) | 2020-06-22 | 2020-06-22 | 融合RepGT-RepBox函数的遮挡人脸检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111860174A true CN111860174A (zh) | 2020-10-30 |
Family
ID=72987815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010573445.4A Pending CN111860174A (zh) | 2020-06-22 | 2020-06-22 | 融合RepGT-RepBox函数的遮挡人脸检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111860174A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112733650A (zh) * | 2020-12-29 | 2021-04-30 | 深圳云天励飞技术股份有限公司 | 目标人脸检测方法、装置、终端设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909690A (zh) * | 2019-11-26 | 2020-03-24 | 电子科技大学 | 一种基于区域生成的遮挡人脸图像检测方法 |
CN111310718A (zh) * | 2020-03-09 | 2020-06-19 | 成都川大科鸿新技术研究所 | 一种遮挡人脸图像高准确率检测对比方法 |
-
2020
- 2020-06-22 CN CN202010573445.4A patent/CN111860174A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909690A (zh) * | 2019-11-26 | 2020-03-24 | 电子科技大学 | 一种基于区域生成的遮挡人脸图像检测方法 |
CN111310718A (zh) * | 2020-03-09 | 2020-06-19 | 成都川大科鸿新技术研究所 | 一种遮挡人脸图像高准确率检测对比方法 |
Non-Patent Citations (3)
Title |
---|
MAGIC_LL: "论文阅读 || 目标检测系列 —— Faster RCNN详解", 《CNSD:HTTPS://BLOG.CSDN.NET/MAGIC_LL/ARTICLE/DETAILS/103346113》, pages 1 - 9 * |
XINLONG WANG等: "Repulsion Loss: Detecting Pedestrians in a Crowd", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, pages 3 - 4 * |
张瑞国: "基于Face R-CNN 的人脸检测研究", 《电脑知识与技术》, vol. 14, no. 19, pages 3 - 4 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112733650A (zh) * | 2020-12-29 | 2021-04-30 | 深圳云天励飞技术股份有限公司 | 目标人脸检测方法、装置、终端设备及存储介质 |
CN112733650B (zh) * | 2020-12-29 | 2024-05-07 | 深圳云天励飞技术股份有限公司 | 目标人脸检测方法、装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112861720B (zh) | 基于原型卷积神经网络的遥感图像小样本目标检测方法 | |
CN105844669B (zh) | 一种基于局部哈希特征的视频目标实时跟踪方法 | |
JP3740065B2 (ja) | 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法 | |
CN109635686B (zh) | 结合人脸与外观的两阶段行人搜索方法 | |
CN107808138B (zh) | 一种基于FasterR-CNN的通信信号识别方法 | |
CN105069457B (zh) | 图像识别方法和装置 | |
CN106557740B (zh) | 一种遥感图像中油库目标的识别方法 | |
CN101872415A (zh) | 适用于iptv的视频拷贝检测方法 | |
CN110689044A (zh) | 一种结合目标间关系的目标检测方法及系统 | |
CN110852207A (zh) | 基于面向对象影像分类技术的蓝色屋顶建筑物提取方法 | |
CN109583329A (zh) | 基于道路语义路标筛选的回环检测方法 | |
Li et al. | Saliency transfer: An example-based method for salient object detection. | |
CN116229112A (zh) | 一种基于多重注意力的孪生网络目标跟踪方法 | |
Chhabra et al. | State-of-the-art: A systematic literature review of image segmentation in latent fingerprint forensics | |
CN112258403A (zh) | 一种在动态烟雾中提取疑似烟雾区域的方法 | |
Yang et al. | A feature temporal attention based interleaved network for fast video object detection | |
CN111159475A (zh) | 基于多摄像头视频图像的行人再识别路径生成方法 | |
CN111860174A (zh) | 融合RepGT-RepBox函数的遮挡人脸检测方法 | |
CN117011346A (zh) | 鼓风机图像配准算法 | |
CN109271902B (zh) | 复杂背景下基于时域经验模态分解的红外弱小目标检测方法 | |
CN113379794B (zh) | 基于注意力-关键点预测模型的单目标跟踪系统及方法 | |
CN114882490A (zh) | 一种基于点引导定位的无受限场景车牌检测分类方法 | |
CN115375742A (zh) | 生成深度图像的方法及系统 | |
CN112380970B (zh) | 基于局部区域搜索的视频目标检测方法 | |
CN114782983A (zh) | 基于改进特征金字塔和边界损失的道路场景行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |