CN112580443B - 基于嵌入式设备改进CenterNet的行人检测方法 - Google Patents
基于嵌入式设备改进CenterNet的行人检测方法 Download PDFInfo
- Publication number
- CN112580443B CN112580443B CN202011402378.6A CN202011402378A CN112580443B CN 112580443 B CN112580443 B CN 112580443B CN 202011402378 A CN202011402378 A CN 202011402378A CN 112580443 B CN112580443 B CN 112580443B
- Authority
- CN
- China
- Prior art keywords
- loss
- branch
- gaussian kernel
- embedded equipment
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种基于嵌入式设备改进CenterNet的行人检测方法,包括以下步骤:步骤S1:使用BiFPN结构改进优化CenterNet的骨干网络;步骤S2:统计行人数据集标注框宽高比,并据此设置好每个标注框对应的高斯核分布;步骤S3:据步骤S2设置好的高斯核分布宽高比改进训练过程中的高斯核以及损失函数;步骤S4:按步骤S2中统计行人检测框宽高比的数据集进行训练;步骤S5:将训练好的模型进行量化、加速,移植到嵌入式设备;步骤S6:在嵌入式设备上开启服务端,对模型移植后的检测效果进行评估。改进后的CenterNet模型能够有效的提取深度特征,避免复杂的网络结构带来的庞大参数量,在嵌入式设备上有更快的运行速度,同时在行人检测的精度上也得到提升。
Description
技术领域
本发明属于图像检测领域,特别涉及一种骨干网络有效提取特征结构和头部网络及对应损失改进的方法,并使用嵌入式设备实现,最终实现具体效果评测。
背景技术
目标检测是计算机视觉和数字图像处理的一个方向,广泛用于工业检测、航空、航天、智能视频监控等领域,使用计算机视觉检测目标用以减少人力的使用,提高灵活性具有重要意义。在实际应用过程中,虽然大部分网络可以在TPU、GPU等大型运算设备上取得较好的实时性,但是在一些具体场景中需要使用移动设备进行计算,虽然检测领域中单步法中有多种阉割版的网络结构应对这种问题,但是随之带来的是精度的大幅下降。
发明内容
本发明的目的在于克服上述现有技术或算法的缺点,基于CenterNet检测网络提出了一种针对于多行人的可应用于嵌入式设备的检测网络,在保证精度的情况下,减少参数量与计算量。原CenterNet使用的backbone是多层特征融合的DLA34和Hourglass101,这类模型参数量大,前向传播速度较慢,不适合使用在嵌入式这类计算能力有限的设备上,所以根据BiFPN结构提出一种新的特征提取结构,其参数量在嵌入式设备上可以满足实时性的同时,保证了精度不会出现大幅降低。同时针对行人这一特定的类别,通过改进高斯核形式降低因遮挡造成的精度降低。
本发明的一种基于嵌入式设备改进CenterNet的行人检测方法,其包括以下步骤:
S1、将CenterNet的骨干网络按照BiFPN结构重新设计,将下采样过程中不同层次的特征进行放缩,同时按照不同的权值进行融合,在融合之前按照当前层级的输出将被融合层的分辨率进行调整,使分辨率一致,然后按照式 以不同的权值对分辨率相同的特征图进行融合,i表示特征图的层数、j表示对应特征图的权值排序的序号、Ii表示融合过程中的所有被融合前的特征图、wi为其对应的权值、∑jwj表示所有的权值之和、O表示融合后结果特征图的输出、∈为足够小的数;
S2、按照特定的行人数据集统计宽高比,设置每个检测框相对应的高斯核分布,并按照这个方差改进高斯核分布,设原方差为σp,公式为: gw和gh为标注框对应的宽和高,Yxy表示高斯核函数分布形式,为原输入图像中行人目标中心点下采样后在热力图HeatMap上的对应位置,x、y是围绕这一中心点绘制高斯核的双自变量;
S3、根据步骤S2中的高斯核分布设置focalloss损失函数形式如下:
最终的损失为HeatMap分支损失、offset分支损失与scale损失之和,offset分支损失和scale损失按照原模型损失函数进行设置,最后按照Ldet=Lk+λsizeLsize+λoffLoff将损失进行线性融合,Ldet表示三个损失线性相加的总损失、λsize表示scale分支的损失系数、λoff表示offset分支损失的系数、Lk表示HeatMap分支的损失、Lsize表示scale分支的损失、Loff表示offset分支的损失;
S4、按照步骤S2、S3中修改的网络进行训练,训练过程中使用仿射变换进行预处理,让原始图像经过仿射变换到输入图像的中心,然后通过亮度调节和中心裁剪做数据增强;
S5、将训练好的模型参数用FP16类型进行精度校准,部署到嵌入式设备,并使用TensorRT进行加速;
S6、在嵌入式设备上开启服务,从客户端到嵌入式设备发送评测数据,验证改进后算法的提升。
优选地,所述步骤S1中骨干网络提取特征时,首先将输入图像经过标准的卷积、批标准化、激活层、最大池化处理,然后在经过不同层的残差块后进行下采样,依据这些下采样后的不同层级的特征图进行融合。
优选地,所述步骤S6中评测时,保证在一次评测中输入的图分辨率不变,同时在计算传播时间时,减去因网络传输所损失的时间,只计算预处理、模型推理、后处理、所有分支的预测结果合并的时间,并使用同一批数据评测传播时间。
与现有技术相比,本发明具有以下有益效果:
(1)能够有效的提取深度特征,避免复杂的网络结构带来的庞大参数量;
(2)在保证精度的情况下,能够实现快速推理。
(3)本发明通过统计行人标注框的长宽比,设定了适用于行人的高斯核分布形式,有效的避免了因行人相互遮挡带来的检测精度下降。
附图说明
图1为本发明的的基于嵌入式设备改进CenterNet的行人检测方法的总体流程图;
图2为改进后的CenterNet网络示意图;
图3为BiFPN结构示意图;
图4(a)为行人遮挡图示意图;
图4(b)为对应的高斯核图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要注意的为,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
如图1所示,本实例是一种基于嵌入式设备改进CenterNet的行人检测方法,其实现步骤如下:
S1、如图3所示,基于BiFPN结构这一能有效提取特征的网络结构,将原CenterNet的骨干网络按照此结构重新设计,同时将下采样过程中不同层次的特征进行放缩按照不同的权值进行融合。首先将输入图像经过标准的卷积、批标准化、激活层、最大池化处理,然后在经过不同层的残差块后进行下采样,依据这些下采样后的不同层级的特征图进行融合。在融合之前按照当前层级的输出将被融合层的分辨率进行调整,使分辨率一致,然后按照式以不同的权值对分辨率相同的特征图进行融合,式中,i表示特征图的层数、j表示对应特征图的权值排序的序号,Ii表示融合过程中的所有被融合前的特征图、wi为其对应的权值,是一个可训练的参数,∑jwj表示所有的权值之和、O表示融合后结果特征图的输出,∈为足够小的数。图2中展示了本实施例依据BiFPN结构重新设计的CenterNet行人检测模型,从图2的网络结构可以看出,输入图像首先经过一个卷积层Conv1、批标准化Bn1、激活层Relu、最大池化maxpool的结构得到一个64维的特征图,然后使用残差块ResBolock进一步提取特征,分别将残差块下采样输出的特征相对应的进行分辨率调整,并且按图中BiFPN结构进行融合,经过BiFPN结构之后得到对应输入的不同层融合之后的特征,将这些特征经过卷积Conv,可变形卷积DeConv送入到包含HeatMap、offset、scale在内的头部分支,最后再在不同的分支分别进行卷积,得到各个头部检测分支的对应结果。
S2、按照特定的行人数据集统计宽高比,设置每个检测框对应的高斯核分布,并按照这个方差改进高斯核分布,设原方差为σp,公式为 gw和gh为标注框对应的宽和高,为原输入图像中行人目标中心点下采样后在热力图HeatMap上的对应位置,x、y是围绕这一中心点绘制高斯核的双自变量,Yxy表示高斯核函数分布形式。本实施例在行人数据集CrowdHuman上的训练集提取每张图对应的宽高比,计算输入图像反射变换后的大小,并据此重新标定标注框在经过下采样后对应位置的中心点按照上述公式绘制高斯核,原图与绘制的效果分别如图4(a)、图4(b)所示,相比原来的在x和y方向上同分布的形式,更加符合行人检测框的基本形式,可以避免因行人遮挡带来的精度降低。
S3、根据步骤S2中的高斯核分布设置focalloss损失函数形式如下:
式中,Lk表示头部网络中HeatMap分支的损失,表示HeatMap分支相对应Yxy的预测值,α、β是focal loss的参数,N代表中心点(检测到的行人)数量,Yy表示仅在y方向上对损失函数进行衰减。最终的损失为HeatMap分支损失、offset分支损失、scale损失之和,offset分支损失和scale按照原模型损失函数进行设置,最后按照Ldet=Lk+λsizeLsize+λoffLoff将损失进行线性融合,Ldet表示三个损失线性相加的总损失,Lk表示HeatMap分支的损失,Lsize表示scale分支的损失,Loff表示offset分支的损失,λsize表示scale分支的损失系数,λoff表示offset分支损失的系数。本实例中由于只有行人这一个类,所以HeatMap为单通道,同时设置λsize=0.1,λoff=1进行加权。
S4、按照步骤S2、S3中修改的网络进行训练,训练过程中使用仿射变换进行预处理,即让原始图像经过仿射变换到输入图像的中心,然后通过亮度调节和中心裁剪做数据增强。训练过程中采用固定分辨率256×256,512×512,1024×1024……将图片按照比原有分辨率大且最接近的分辨率通过仿射变换映射到中心位置,这样既能防止图像畸变带来的精度下降,又能不让训练速度减慢,使用数据增强时设置亮度调节在0.5以内,Adam优化训练70个epoch,初始学习率0.1,在第45、60个epoch进行0.01的衰减。
S5、将训练好的模型参数用FP16进行精度校准,部署到嵌入式设备,并使用TensorRT进行加速。首先根据训练的网络进行前向传播,然后根据各头部网络分支的预测结果,输出预测框左上角的位置和右下角的位置。使用TensorRT加速时,将参数用FP16类型进行精度校准,同时通过对卷积层、BN层、偏置层间的横向或纵向合并组成CBR结构,从而减少参数量,在嵌入式设备Jetson TX2上完成部署,调用Jetson TX2的CUDA核计算,其中CUDA版本设为9.2,TensorRT版本设为4.0。
S6、在嵌入式设备上开启服务,从客户端到嵌入式设备发送评测数据,完成算法的实现。本实例评测时,保证在一次评测中输入的图分辨率不变,同时在计算传播时间时,减去因传输所损失的时间,仅计算预处理、模型推理、后处理、结果合并的时间,并使用一批数据评测传播时间,使评测结果可重复得到。本实例数据评测过程中在S5部署的嵌入式设备Jetson TX2上进行测试,首先使用Flask在嵌入式设备上开启服务,接收PC客户端发送的测试数据,其中测试数据选用CrownHuman的全部测试集,最终评测指标包括前向推理时间,即从接收到图片送入模型到计算得检测框左上角位置和右下角位置时的时间,检测精度即AP值,按照交并比0.3计算,最后得到0.786的AP和25.274的平FPS,在行人的检测精度和检测速度上都取得了比原CenterNet模型更佳的效果。
以上所述各实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应该理解:其依然能对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (3)
1.一种基于嵌入式设备改进CenterNet的行人检测方法,其特征在于,其包括以下步骤:
S1、将CenterNet的骨干网络按照BiFPN结构重新设计,将下采样过程中不同层次的特征进行放缩,同时按照不同的权值进行融合,在融合之前按照当前层级的输出将被融合层的分辨率进行调整,使分辨率一致,然后按照式 以不同的权值对分辨率相同的特征图进行融合,i表示特征图的层数、j表示对应特征图的权值排序的序号、Ii表示融合过程中的所有被融合前的特征图、wi为其对应的权值、∑jwj表示所有的权值之和、O表示融合后结果特征图的输出、∈为足够小的数;
S2、按照特定的行人数据集统计宽高比,设置每个检测框相对应的高斯核分布,并按照这个方差改进高斯核分布,设原方差为σp,公式为: gw和gh为标注框对应的宽和高,Yxy表示高斯核函数分布形式,为原输入图像中行人目标中心点下采样后在热力图HeatMap上的对应位置,x、y是围绕这一中心点绘制高斯核的双自变量;
S3、根据步骤S2中的高斯核分布设置focal loss损失函数形式如下:
最终的损失为HeatMap分支损失、offset分支损失与scale损失之和,offset分支损失和scale损失按照原模型损失函数进行设置,最后按照Ldet=Lk+λsizeLsize+λoffLoff将损失进行线性融合,Ldet表示三个损失线性相加的总损失、λsize表示scale分支的损失系数、λoff表示offset分支损失的系数、Lk表示HeatMap分支的损失、Lsize表示scale分支的损失、Loff表示offset分支的损失;
S4、按照步骤S2、S3中修改的网络进行训练,训练过程中使用仿射变换进行预处理,让原始图像经过仿射变换到输入图像的中心,然后通过亮度调节和中心裁剪做数据增强;
S5、将训练好的模型参数用FP16类型进行精度校准,部署到嵌入式设备,并使用TensorRT进行加速;
S6、在嵌入式设备上开启服务,从客户端到嵌入式设备发送评测数据,验证改进后算法的提升。
2.根据权利要求1所述的基于嵌入式设备改进CenterNet的行人检测方法,其特征在于,所述步骤S1中骨干网络提取特征时,首先将输入图像经过标准的卷积、批标准化、激活层、最大池化处理,然后在经过不同层的残差块后进行下采样,依据这些下采样后的不同层级的特征图进行融合。
3.根据权利要求1所述的基于嵌入式设备改进CenterNet的行人检测方法,其特征在于,所述步骤S6中评测时,保证在一次评测中输入的图分辨率不变,同时在计算传播时间时,减去因网络传输所损失的时间,只计算预处理、模型推理、后处理、所有分支的预测结果合并的时间,并使用同一批数据评测传播时间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011402378.6A CN112580443B (zh) | 2020-12-02 | 2020-12-02 | 基于嵌入式设备改进CenterNet的行人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011402378.6A CN112580443B (zh) | 2020-12-02 | 2020-12-02 | 基于嵌入式设备改进CenterNet的行人检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112580443A CN112580443A (zh) | 2021-03-30 |
CN112580443B true CN112580443B (zh) | 2022-03-15 |
Family
ID=75126998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011402378.6A Active CN112580443B (zh) | 2020-12-02 | 2020-12-02 | 基于嵌入式设备改进CenterNet的行人检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112580443B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113361375B (zh) * | 2021-06-02 | 2022-06-07 | 武汉理工大学 | 一种基于改进BiFPN的车辆目标识别方法 |
CN115690704B (zh) * | 2022-09-27 | 2023-08-22 | 淮阴工学院 | 基于LG-CenterNet模型的复杂道路场景目标检测方法及装置 |
CN115984277B (zh) * | 2023-03-20 | 2023-05-30 | 中国烟草总公司四川省公司 | 一种卷烟箱外包装油污破损检测系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109582993A (zh) * | 2018-06-20 | 2019-04-05 | 长安大学 | 城市交通场景图像理解与多视角群智优化方法 |
CN110705425A (zh) * | 2019-09-25 | 2020-01-17 | 广州西思数字科技有限公司 | 一种基于图卷积网络的舌象多标签分类学习方法 |
CN110807808A (zh) * | 2019-10-14 | 2020-02-18 | 浙江理工大学 | 一种基于物理引擎和深度全卷积网络的商品识别方法 |
CN111127516A (zh) * | 2019-12-19 | 2020-05-08 | 苏州智加科技有限公司 | 无搜索框的目标检测和跟踪方法及系统 |
CN111553387A (zh) * | 2020-04-03 | 2020-08-18 | 上海物联网有限公司 | 一种基于Yolov3的人员目标检测方法 |
CN111598843A (zh) * | 2020-04-24 | 2020-08-28 | 国电南瑞科技股份有限公司 | 基于深度学习的电力变压器呼吸器目标缺陷检测方法 |
CN111767881A (zh) * | 2020-07-06 | 2020-10-13 | 中兴飞流信息科技有限公司 | 一种基于ai技术的自适应人群密度估计装置 |
CN111797681A (zh) * | 2020-05-21 | 2020-10-20 | 哈尔滨工业大学 | 基于计算机视觉的挖掘机姿态智能估计方法 |
CN111815570A (zh) * | 2020-06-16 | 2020-10-23 | 浙江大华技术股份有限公司 | 区域入侵检测方法及其相关装置 |
CN111964763A (zh) * | 2020-08-17 | 2020-11-20 | 浙江东鼎电子股份有限公司 | 一种动态平板秤称重区域汽车断续行驶行为检测方法 |
CN112001302A (zh) * | 2020-08-21 | 2020-11-27 | 无锡锡商银行股份有限公司 | 基于人脸感兴趣区域分割的人脸识别方法 |
-
2020
- 2020-12-02 CN CN202011402378.6A patent/CN112580443B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109582993A (zh) * | 2018-06-20 | 2019-04-05 | 长安大学 | 城市交通场景图像理解与多视角群智优化方法 |
CN110705425A (zh) * | 2019-09-25 | 2020-01-17 | 广州西思数字科技有限公司 | 一种基于图卷积网络的舌象多标签分类学习方法 |
CN110807808A (zh) * | 2019-10-14 | 2020-02-18 | 浙江理工大学 | 一种基于物理引擎和深度全卷积网络的商品识别方法 |
CN111127516A (zh) * | 2019-12-19 | 2020-05-08 | 苏州智加科技有限公司 | 无搜索框的目标检测和跟踪方法及系统 |
CN111553387A (zh) * | 2020-04-03 | 2020-08-18 | 上海物联网有限公司 | 一种基于Yolov3的人员目标检测方法 |
CN111598843A (zh) * | 2020-04-24 | 2020-08-28 | 国电南瑞科技股份有限公司 | 基于深度学习的电力变压器呼吸器目标缺陷检测方法 |
CN111797681A (zh) * | 2020-05-21 | 2020-10-20 | 哈尔滨工业大学 | 基于计算机视觉的挖掘机姿态智能估计方法 |
CN111815570A (zh) * | 2020-06-16 | 2020-10-23 | 浙江大华技术股份有限公司 | 区域入侵检测方法及其相关装置 |
CN111767881A (zh) * | 2020-07-06 | 2020-10-13 | 中兴飞流信息科技有限公司 | 一种基于ai技术的自适应人群密度估计装置 |
CN111964763A (zh) * | 2020-08-17 | 2020-11-20 | 浙江东鼎电子股份有限公司 | 一种动态平板秤称重区域汽车断续行驶行为检测方法 |
CN112001302A (zh) * | 2020-08-21 | 2020-11-27 | 无锡锡商银行股份有限公司 | 基于人脸感兴趣区域分割的人脸识别方法 |
Non-Patent Citations (3)
Title |
---|
Anomalous entities detection and localization in pedestrian flows;Habib Ullah 等;《ResearchGate》;20180531;正文第1-17页 * |
一种轻量化的多目标实时检测模型;邱博 等;《北京航空航天大学学报》;20200930;第1778-1785页 * |
改进GA-PSO优化SVM的行人检测算法;王谦 等;《测控技术》;20191231;第51-56页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112580443A (zh) | 2021-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112580443B (zh) | 基于嵌入式设备改进CenterNet的行人检测方法 | |
CN110378844B (zh) | 基于循环多尺度生成对抗网络的图像盲去运动模糊方法 | |
CN113936339B (zh) | 基于双通道交叉注意力机制的打架识别方法和装置 | |
CN111583198A (zh) | 结合FasterR-CNN+ResNet101+FPN的绝缘子图片缺陷检测方法 | |
CN112257794A (zh) | 一种基于yolo的轻量级的目标检测方法 | |
CN110598600A (zh) | 一种基于unet神经网络的遥感图像云检测方法 | |
CN113688723A (zh) | 一种基于改进YOLOv5的红外图像行人目标检测方法 | |
CN111062410B (zh) | 基于深度学习的星型信息桥气象预测方法 | |
CN112580561B (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN112632311A (zh) | 一种基于深度学习的云层变化趋势预测方法 | |
CN109784205B (zh) | 一种基于多光谱巡检图像的杂草智能识别方法 | |
CN113011308A (zh) | 一种引入注意力机制的行人检测方法 | |
CN115131214A (zh) | 基于自注意力的室内老人图像超分辨率重构方法及系统 | |
CN113901928A (zh) | 一种基于动态超分辨率的目标检测方法、输电线路部件检测方法及系统 | |
CN116977674A (zh) | 图像匹配方法、相关设备、存储介质及程序产品 | |
CN114511636A (zh) | 一种基于双滤注意力模块的果实计数方法及系统 | |
CN111553337A (zh) | 一种基于改进锚框的高光谱多目标检测方法 | |
CN111027542A (zh) | 一种基于Faster RCNN算法改进的目标检测方法 | |
CN111126185A (zh) | 一种针对道路卡口场景的深度学习车辆目标识别方法 | |
CN114722914A (zh) | 基于双目视觉和语义分割网络的大田环境障碍物检测方法 | |
CN117037258B (zh) | 面部图像的检测方法、装置、存储介质及电子设备 | |
CN113989612A (zh) | 基于注意力及生成对抗网络的遥感影像目标检测方法 | |
CN116912483A (zh) | 目标检测方法、电子设备以及存储介质 | |
CN113902958A (zh) | 基于锚点自适应的基建现场人员检测方法 | |
CN112380985A (zh) | 变电站入侵异物实时检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |