CN113158738A - 一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质 - Google Patents

一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质 Download PDF

Info

Publication number
CN113158738A
CN113158738A CN202110115168.7A CN202110115168A CN113158738A CN 113158738 A CN113158738 A CN 113158738A CN 202110115168 A CN202110115168 A CN 202110115168A CN 113158738 A CN113158738 A CN 113158738A
Authority
CN
China
Prior art keywords
module
feature map
target
target detection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110115168.7A
Other languages
English (en)
Other versions
CN113158738B (zh
Inventor
唐琎
汤松林
吴志虎
李思蓝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202110115168.7A priority Critical patent/CN113158738B/zh
Publication of CN113158738A publication Critical patent/CN113158738A/zh
Application granted granted Critical
Publication of CN113158738B publication Critical patent/CN113158738B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质,所述方法包括:采集港口环境下轮胎吊作业监控范围内的图像数据,利用图像数据中的含检测目标的图像构建样本集;将样本集进行聚类以获取k个先验瞄框;对样本集中的图像进行预处理,并输入基于注意力机制的yolov3目标检测模型进行训练得到港口环境下的目标检测模型;在所述yolov3目标检测模型中的FPN网络架构中增设通道及空间注意力模块CA‑SAM;最后利用目标检测模型进行目标检测。本发明实现了港口环境下实时监测轮胎吊工作环境中是否有车辆和行人等检测目标,充分利用了yolov3目标检测算法在速度和精度上的优势。

Description

一种基于注意力机制的港口环境下目标检测方法、系统、终端 及可读存储介质
技术领域
本发明属于目标检测技术领域,具体涉及一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质。
背景技术
在港口环境下,司机在中控室通过摄像机视频画,远程操作轮胎吊进行作业。在司机进行工作时,其工作区域可能进入行人或者车辆。然而,当有人或车辆进入时,若司机未看到人或车辆时,其操作的集装箱可能碰到车或者人,导致安全事件发生。
针对上述问题,目前的解决方案是司机在中控室操控轮胎吊作业时,同时查看轮胎吊机身所载摄像机的拍摄画面中是否有车辆或行人,若有则停止作业,等车辆或行人通过后再进行作业。这种解决方案会导致司机的作业效率降低,因为司机需要时刻警惕是否有异常车辆或行人进入工作区域;而且行人和车辆的目标体积较小,存在司机未发现的情况,从而容易导致安全事故发生。
近年来,基于深度学习的目标检测算法越来越受到人们的关注。其中,yolov3目标检测算法在速度和精度上达到了一定的权衡,其不仅速度快而且精度较高。在此背景下,研究一种基于yolov3目标检测算法的港口环境下实时监测轮胎吊工作环境中是否有车辆和行人的方法尤其重要。
发明内容
本发明的目的是提供一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质,所述方法为轮胎吊司机工作时提供了一种辅助的监控手段,一定程度可提高轮胎吊司机工作效率并有助于减少安全事故的发生。
一方面,本发明提供的一种基于注意力机制的港口环境下目标检测方法,包括如下步骤:
步骤S1:采集港口环境下轮胎吊作业监控范围内的图像数据,利用图像数据中的含检测目标的图像构建样本集;
步骤S2:将样本集进行K-means聚类以获取k个先验瞄框PriorAnchor;
步骤S3:对样本集中的图像进行预处理,并输入基于注意力机制的yolov3目标检测模型进行训练,得到港口环境下的目标检测模型;
其中,在所述yolov3目标检测模型中的FPN网络架构中增设通道及空间注意力模块CA-SAM,所述通道及空间注意力模块CA-SAM包括通道注意力子模块和空间注意力子模块,分别表示为CA子模块和 SA子模块;
所述CA子模块中对输入的特征图Fc分别进行最大池化(MaxPool)、平均池化(AvgPool)以及将 MaxPool与AvgPool的结果进行通道拼接(Concat)操作,再输入至共享参数的多层神经网络(MLP网络),再将所述MLP网络的通道输出结果相加形成通道注意力Mc特征图,然后将输入特征图Fc与所述通道注意力Mc特征图进行点乘输出的全局最大化与全局平均化的特征图Fc′;
所述SA子模块对全局最大化与全局平均化的特征图Fc′进行不同的卷积操作;
所述目标检测模型的输入参数为预处理后的图像,输出结果包括对应图像的预测框中是否存在检测目标;
步骤S4:利用所述港口环境下目标检测模型进行目标检测。
本发明提供的所述方法利用yolov3目标检测模型实现了港口环境下实时监测轮胎吊工作环境中是否有车辆和行人等检测目标,充分利用了yolov3目标检测算法在速度和精度上的优势。另外,本发明根据港口环境下目标检测的独有特性以及需求对yolov3目标检测算法进行了优化,在yolov3目标检测模型中,选择DarkNet53网络提取特征,然后用使用FPN网络架构进行特征融合。本发明在FPN网络中增加了通道及空间注意力模块。
其中,针对CA子模块,由于目标分类网络所输入的图像相对于整个图像来说其是占了较大比重;而目标检测任务相对来说其目标相对图像较小,若直接采用均值操作神经网络可能无法学到较好的特征。而全局最大池化是特征图上的极值,能更好的反应某个特征通道对物体的响应,因此考虑将全局池化与平均池化进行通道上的拼接,让网络自动学习特征;并且可以并行加入全局平均池化与全局最大池化。
针对SA子模块,对进行全局最大化与全局平均化的特征图进行不同的卷积操作,而不是简单的使用单个卷积操作,可以提升卷积神经网络学习邻域语义特征的能力。
可选地,所述SA子模块的实现过程如下:
对特征图Fc′进行MaxPool以及AvgPool操作并将MaxPool以及AvgPool操作后的2个特征图进行 Concat操作,对Concat操作后的特征图分别进行若干个不同大小卷积并再次进行Concat操作,然后再进行1×1的卷积得到空间注意力特征图Ms,最后将空间注意力特征图Ms与特征图Fc′进行点乘得到输出特征图Fs
其他,卷积的大小是有多种实现方式,可以任意选择,譬如对Concat操作后的特征图分别进行1×1、 3×3、5×5的卷积。
可选地,在所述yolov3目标检测模型中的特征金字塔FPN网络架构中设有前景背景分割模块,表示为FBM模块;
其中,所述FBM模块设置在所述空间注意力模块CA-SAM之后,所述FBM模块对所述空间注意力模块CA-SAM输出的特征图Fs分别进行不同膨胀率的膨胀卷积,再进行Concat操作得到特征图,并利用 softmax函数从所述特征图中提取前景特征图,然后将所述前景特征图的维度扩展到与特征图Fs相同,再将其与特征图Fs进行点乘得到特征图Ds。
可选地,所述yolov3目标检测模型中的FPN网络架构的最终检测分支上设有RFB模块,所述RFB 模块利用不同的普通卷积以及不同膨胀卷积对输入的特征图进行操作,并将操作后的多组特征图进行 Concat操作以及卷积降维,再将Concat操作后的特征图进行1×1卷积得到所述yolov3目标检测模型输出的最终的特征图。
可选地,所述RFB模块中卷积的设置如下(其卷积核大小核膨胀率可以根据自己的需要适应性修改的):
对输入的特征图分别进行1×1普通卷积和3*3大小且膨胀率为1的膨胀卷积、3×3普通卷积和3×3大小且膨胀率为3的膨胀卷积、5×5的普通卷积和3×3大小且膨胀率为5的膨胀卷积,然后,将以上三组卷积的特征图进行Concat操作;且将Concat操作后的特征图进行1×1卷积得到最终的特征图。
可选地,步骤S4中利用所述目标检测模型进行目标检测过程为:
获取先验区域以及相机ID号;
将图像输入至所述目标检测模型得到初始的预测结果;
再利用非极大值抑制NMS算法以及基于区域的非极大值抑制RBI算法优化所述初始的预测结果,过程如下A-D:
A:根据置信度对所有预测结果进行置信度降序排序,放入列表list_A中;
B:从所述list_A中取出置信度最高的预测框box_A放入list_B中,在所述list_A中删除所述box_A,再计算box_A与list_A中剩下的所有预测框的IOUi,i表示list_A中第i个预测框;
其中,A矩形框与B矩形框的IOU表示为:
Figure BDA0002920215340000031
C:保留IOUi<δ的预测框,其中δ为预设阈值,重复第B步,直至所述list_A为空,退出循环,得到NMS的预测结果list_B;
D:对NMS后的预测结果list_B使用RBI算法进行结果筛选;其中,计算所述list_B的中的预测框与先验区域的RBI值,若满足RBI值大于阈值thresh,且对应图像的相机ID符合目标检测要求,则将所述预测框放入对应的检测结果,所述RBI值的计算公式如下:
RBI=IOU(area,new_list)>thresh
其中,area为先验区域;new_list为所述list_B的中的预测框;
所述相机ID的检测要求为:图像中预测框内的目标与相机ID配置的检测目标为同一类目标;
其中,若检测目标为车辆和行人,在轮胎吊腿部设置4个摄像机,用于检测先验区域的行人和车辆,在轮胎吊顶部安装1个摄像机,用于检测先验区域的行人。
可选地,所述基于注意力机制的yolov3目标检测模型的训练过程的损失函数Loss如下:
Loss=Lossx,y,w,h+Lossobj+noobj+Losscls+0.1×Lseg
其中,坐标损失Lossx,y,w,h如下:
Figure BDA0002920215340000041
Figure BDA0002920215340000042
式中G代表将原图进行FPN操作后特征图的大小,N表示检测目标的类别数目,
Figure BDA0002920215340000043
表示的是第i个位置是否存在第j类检测目标,存在为1,不存在为0;D为包含预测框predbox与真实框GTbox的最小外接矩形;predbox为预测框,GTbox为真实框;IOU表示矩形框predbox与predbox之间的交并比。
置信度损失Lossobj+noobj式子如下:
Figure BDA0002920215340000044
式中,
Figure BDA0002920215340000045
表示的预测出的第i个位置是否存在第j类检测目标,存在为1,不存在为0;
Figure BDA0002920215340000046
表示第 i个位置是否存在第j类检测目标,存在为1,不存在为0;
Figure BDA0002920215340000047
表示第i个位置存在检测物体时表示为1,否则为0;
Figure BDA0002920215340000048
表示第i个位置不存在检测物体时为1,否则为0;
类别损失Losscls式子如下:
Figure BDA0002920215340000049
其中,
Figure BDA00029202153400000410
表示的是预测出的第i个位置是否存在第j类检测目标,存在为1,不存在为0;pij表示的是第i个位置是否存在第j类检测目标,存在为1,不存在为0。
Lseg为辅助分支的损失,采用二值交叉熵计算损失。
通过使用Pytorch框架,搭建上述yolov3目标检测模型即可得到相港口环境下行人与车辆目标检测模型,使用上述损失函数进行模型参数优化,最终将训练好的模型保存到硬盘以供后续使用。
第二方面,本发明提供的一种基于上述方法的系统,包括:
数据采集以及处理模块:用于采集港口环境下轮胎吊作业监控范围内的图像数据,利用图像数据中的含检测目标的图像构建样本集;
聚类模块:用于将样本集进行K-means聚类以获取k个先验瞄框Prior Anchor;
目标检测模型构建模块:用于对样本集中的图像进行预处理,并输入基于注意力机制的yolov3目标检测模型进行训练,得到港口环境下的目标检测模型;
其中,在所述yolov3目标检测模型中的FPN网络架构中增设通道及空间注意力模块CA-SAM,所述通道及空间注意力模块CA-SAM包括通道注意力子模块和空间注意力子模块,分别表示为CA子模块和 SA子模块;
所述CA子模块中对输入的特征图Fc分别进行MaxPool、AvgPool以及将MaxPool与AvgPool的结果进行Concat操作,再输入至共享参数的MLP网络,再将所述MLP网络的通道输出结果相加形成通道注意力Mc特征图,然后将输入特征图Fc与所述通道注意力Mc特征图进行点乘输出的全局最大化与全局平均化的特征图Fc′;所述SA子模块对全局最大化与全局平均化的特征图Fc′进行不同的卷积操作;
所述目标检测模型的输入参数为预处理后的图像,输出结果包括对应图像的预测框中是否存在检测目标;
目标检测模块:用于利用所述港口环境下目标检测模型进行目标检测。
第三方面,本发明提供的一种终端,包括处理器和存储器,所述存储器存储了计算机程序,所述处理器调用所述计算机程序以执行:所述一种基于注意力机制的港口环境下目标检测方法的步骤。
第四方面,本发明提供的一种可读存储介质,存储了计算机程序,所述计算机程序被处理器调用以执行所述一种基于注意力机制的港口环境下目标检测方法的步骤。
有益效果
本发明公开的一种基于注意力机制的港口环境下目标检测方法实现了港口环境下通过计算机视觉技术辅助司机进行工作周围异常环境的预警,即目标识别,一定程度上克服了现有技术漏检的缺陷,且该方法可广泛应用于港口环境下轮胎吊工作区域环境内行人与车辆检测,以及时预警进而减少安全事故的发生率,更有利于提高司机的工作效率。
此外,本发明根据港口环境下目标检测的独有特性以及需求对yolov3目标检测算法进行了优化,在 yolov3目标检测模型中,选择DarkNet53网络提取特征,然后用使用FPN网络架构进行特征融合。本发明在FPN网络中增加了通道及空间注意力模块。
其中,针对CA子模块,由于目标分类网络所输入的图像相对于整个图像来说其是占了较大比重;而目标检测任务相对来说其目标相对图像较小,若直接采用均值操作神经网络可能无法学到较好的特征。而全局最大池化是特征图上的极值,能更好的反应某个特征通道对物体的响应,因此考虑将全局池化与平均池化进行通道上的拼接,让网络自动学习特征;并且可以并行加入全局平均池化与全局最大池化。针对SA 子模块,对进行全局最大化与全局平均化的特征图进行不同的卷积操作,而不是简单的使用单个卷积操作,可以提升卷积神经网络学习邻域语义特征的能力。
附图说明
图1-a、图1-b分别为港口轮胎吊正面1-5号摄像机安装示意图、港口轮胎吊侧面图1-5号摄像机安装示意图;
图2为数据集目录图;
图3为Darknet53卷积神经网络示意图;
图4-a为改进的注意力多级感受野FPN网络图;图4-b为CA-SAM模块中的改进通道注意力模块CA;图4-c为CA-SAM模块中的改进的空间注意力模块SA;图4-d为前景背景分割模块(FBM模块);图4-e 为嵌入的RFB模块示意图;
图5为实施例1基于yolov3目标检测模型的港口环境下先验区域车辆与行人检测方法的实施流程图;
图6-a为轮胎吊顶部摄像机5号所拍摄的行人在先验区域外的原图;图6-b为检测结果图,行人在先验框外,故未框选行人;
图7-a为轮胎吊腿部相机5号所拍摄的行人在先验区域内的原图;图7-b为检测结果图,行人在先验框内,故框选出行人;
图8-a为轮胎吊腿部相机5号所拍摄的车辆在先验区域内的原图;图8-b为检测结果图,车辆在先验框内,又因为程序设置5号相机不需检测车辆,故未框选车辆;
图9-a为轮胎吊腿部相机1号所拍摄的无检测物体在先验区域内的原图;图9-b为检测结果图,因无需检测物体,故未框选任何物体;
图10-a为轮胎吊腿部相机1号所拍摄的车辆在先验区域内的原图;图10-b为检测结果图,因需检测车辆,故框选出所检测的车辆;
图11-a为轮胎吊腿部相机1号所拍摄的行人在先验区域内的原图;图11-b为检测结果图,因需检测行人,故框选出所检测的行人;
具体实施方式
本发明提供的一种基于注意力机制的港口环境下目标检测方法是为了实现港口环境下的目标检测,该检测目标常常为行人和车辆,因此,本发明下述将以目标为行人和车辆为例进行陈述,其他可行的实施例中,对其不进行具体的限定。下面将结合实施例对本发明做进一步的说明。
本发明实施例设置了先验区域,并检测先验区域是否包含车辆或者行人,若存在则给出其类别以及位置信息;并可根据港口环境相机所设置的相机ID号不同,监控不同的物体。轮胎吊上装有不同得摄像机,用于监控不同区域。附图中图1-a为港口轮胎吊正面图,图1-b为轮胎吊吊侧面示意图,从图可知,本发明在轮胎吊腿部安装有1-4号摄像机,轮胎吊顶部安装有5号摄像机。由于现场的工作需求,在监控时,设置1-4号轮胎吊腿部摄像机所拍摄画面用于可监控周围的车辆与行人,5号轮胎吊摄像机相机所拍摄画面可用于监控行人。
基于上述设置,本发明实施例提供的一种基于注意力机制的港口环境下目标检测方法,包括以下步骤:
步骤S1:在港口环境下,采集车辆与行人数据集。
步骤S2:将数据集划分为训练集与测试集,并进行K-means聚类以获取9个瞄框(Anchor)
步骤S3:将训练集中的图片预处理后输入基于注意力机制的yolov3目标检测模型进行训练,得到港口环境下用于检测车辆与行人的目标检测模型,将最终训练好的模型保存至硬盘。
步骤S4:加载的目标检测模型,设定需要检测的先验区域及相机ID号,输入图像到步骤S3所述的的目标检测模型中,再基于设置的先验区域以及相机ID使用NMS算法以及RBI算法优化初始的预测结果。
所述步骤S1的具体方法为:
步骤S1.1:采集视频数据并保存。其中,本实施例中优选采集视频数据,其他可行的实施例中,对其不进行具体的限定,非视频的图像数据也可以应用于模型训练。
采集各种天气(雨天、阴天、晴天)、不同时间(白天、下午、傍晚、晚上)、各个不同轮胎吊四周环境所拍摄的视频,根据相机的不同保存为mkv格式或mp4格式。
步骤S1.2:将视频数据拆分成图片序列,并对含有车辆或行人的图片进行标注。
采用FFmpeg软件根据不同的视频格式分别进行处理,筛选出具有车辆或者行人的图片序列并保存到硬盘中;使用LabelImg软件进行标注,保存为xml格式。
本实施例中采集各种天气下的数据有利于提高模型的预测可靠性。其中,图像的保存格式是依据所选用的软件算法来确定的,因此,本发明并不局限于上述格式,其可以根据实际需求进行适应性调整。
所述步骤S2的具体方法为:
步骤S2.1:对所标注的数据集划分为训练集和测试集。
使用程序获取输硬盘中数据集的图片路径,将图片路径进行随机打乱,然后按照9:1的比例,将前90%的图片复制到如images目录下的train目录下,后10%的图片标移动到images目录下的val文件夹。同理,将标注好的标注xml文件以同样的方式,将前90%图片所对应的xml复制到annotations目录下的train 目录下,后10%的图片标移动到annotations目录下的val文件夹。在进行yolov3训练时,程序所读取的为 txt文件,故需将xml格式的标注文件转换为txt格式。将annotations目录下的train目录中所对应的xml 标注文件转换为txt格式,并保存到labels目录下的train目录,同理将annotations目录下的val目录下转换为txt格式,并保存到labels目录下的val目录。txt文件中每行的格式为{id,x,y,w,h},其中id表示类别,x,y为图像坐标,w,h为相对图片宽和高归一化到0-1的浮点数,数据集最终目录结构如附图2所示。
步骤S2.2:对数据集进行K-means聚类,获取合适的k个Prior Anchor,本实施例中k=9。
K-means进行anchor聚类的算法步骤如下:
1)将所有图片中的检测目标所属的矩形框提取出来,将每个矩形框转化为对应的宽(w)与高(h),共得到 n组宽高,每个宽与高的组合称之为Anchor box。
2)从n个Anchor中随机挑选k组Anchor box,称之为Prior Anchor。
3)计算每个Anchor与k个Prior Anchor之间的距离。在对Anchor进行聚类时,距离度量如式(1)所示,离那个Prior Anchor的距离越近,则将该Anchor划分到对应PriorAnchor类别的Anchor box。计算完所有的Anchor box属于的类别后,使用均值法更新K个Prior Anchor的值;
Dis[i]=1-IOU(boxes[i],clusters) (1)
3)重复第2)步,直到所有Anchor box所属的类别不发生改变。
式中,Dis[i]为距离度量向量,包含了Anchor与k个Prior Anchor的距离值。boxes[i]表示第i个矩形框,cluster表示k个anchor列表,IOU为boxes[i]与k个Prior Anchor之间的IOU。
当计算A矩形框与B矩形框的IOU时,IOU可表示为如(2)式:
Figure BDA0002920215340000081
其中,A∩B表示A矩形与B矩形相交的面积,A∪B表示A矩形面积加上B矩形面积减去A∩B 面积。IOU的范围为[0,1]。故Dis[i]=1-IOU(boxes[i],clusters),范围为[0,1]。其值越小表示两者的IOU越大,其维度为1*K。
所述步骤S3的具体方法为:
步骤S3.1:训练图像的预处理。
为了增强yolov3模型的鲁棒性,需对训练集的图像数据进行预处理以增强图像数据的多样性。本实施例中设定的预处理的方式主要包括:1)图像像素内容的变换;2)图像空间几何变换;3)图像与标签归一化。
S3.1.1:图像像素内容的变换
①依据选取的随机概率p,对图像的整体亮度进行改变。若p小于0.5,则像素值保持不变;否则像素值如式(3)进行变换,对图片中的每个像素值img加上delta,delta取值范围为[-32,32]。当像素值小于0 时取0,像素值大于255时,取255。
img=img+delta,ifp<0.5 (3)
②依据概率p,对图像的整体对比度进行改变。若p小于0.5,则像素值保持不变;否则像素值如式 (4)进行变换,对图像的中每个像素值img乘以val∈[0.5,1.5],当像素值小于0时图像的像素值取0,像素值大于255时,图像的像素值取255。
img=img*val,val=[0.5,1.5]ifp<0.5 (4)
③将图片从RGB颜色空装换到HSV颜色空间,依据概率p,然后对色调(H)通道的值进行改变。若p 小于0.5,则像素值保持不变;否则像素值进行如式(5)进行变换,对图像H通道的每个像素值img(H)加上 delta,delta取值范围为[-18,18],当像素值小于0时图像的像素值取0,像素值大于255时,图像的像素值取255。
img(H)=img(H)+delta,ifp<0.5 (5)
④依据概率p,对图像的饱和度(S)进行改变。若p小于0.5,则像素值保持不变;否则对图像S通道的每个像素值进行如式(6)所示变换,对图像S通道像素值img(S)乘以val∈[0.5,1.5],当像素值小于0 时图像的像素值取0,像素值大于255时,图像的像素值取255。
img(S)=img(S)*val,ifp<0.5 (6)
⑤将图片从HSV颜色空间装换到RGB颜色空间,依据概率p,对图像的通道进行改变。将RGB随机排列,变换为不同的颜色通道。包括RGB,RBG,BRG,BGR,GRB,GBR六种。
S3.1.2:图像空间几何变换
①以概率p,对图像进行水平镜像进行如式(6)变换。
img(y)=img(width-y)ifp<0.5 (7)
Img(y)表示的是输出图片。
②以概率p,对图像随机裁剪。
对图像进行随机裁剪。求出图像中最大物体框,求出可移动范围,然后在可移动范围区间进行随机裁剪。
img(y)=crop(img,bbox) (8)
crop表示对输入图片集标注框进行随机裁剪,输入为图片img以及标注框bbox,输出为图片img(y)。
S.3.1.3:输入转换为统一的格式
①图像进行通道转换。将OpenCV所读BGR格式图像转换为RGB格式图像。
②图像大小归一化。将图像进行Padding为方形,原图拷贝到对应区域,其他区域填充为0;将图片大小缩放至416*416*3。
③图像数值归一化,标签数值归一化,进行式(8)及(9)所示变换。
img=img/255.0 (9)
Figure BDA0002920215340000101
其中,labelx表示图片标注框的x坐标、labely表示图片标注框的y坐标、labelw表示图片标注框的宽、labelh表示图片标注框的高;img_width表示图片的宽,img_height表示图片的高。
将图片归一化到0-1之间的浮点数,矩形框(label_box)依图像大小归一化0-1之间的浮点数。
步骤S3.2:设置训练参数,该训练参数是所述yolov3目标检测模型中需要训练的参数,依据损失函数进行优化确定训练参数。
训练参数为:epoch:100;batch_size:4;图片大小:416*416*3;使用的优化算法为Adam算法;初始学习率为0.001:
步骤S3.3:输入yolov3目标检测模型进行训练,并保存模型。
S3.3.1使用Darknet53进行特征提取;
在yolov3目标检测模型中,用于特征提取的基础网络称之为DarkNet53。其网络结构图如附图3所示:
将步骤3.1中预处理过的批处理图片,输入yolov3的特征提取网络DarkNet53。通过Darknet53获取特征图C3、C4、C5。其大小分别为N×52×52×256、N×26×26×512、N×13×13×1024。其中N为训练的批尺寸(batch_size),表示卷积神经网络进行梯度下降训练所需的样本数。对于Darknet5特征提取网络中的输出C3、C4、C5特征图,C3相对于原图下采样8倍,C4相对于原图下采样16倍,C5相对于原图下采样32倍。特征图C3、C4、C5具有不同的感受野,特征图大小越小,其感受野越大,C3、C4、C5特征图的感受野由小到大,用于检测不同大小的物体。
S3.3.2基于注意力机制的特征金字塔网络。
由于融合不同层级的特征图可以提供更丰富的特征,以提升检测效果。在yolov3中使用FPN网络架构进行特征融合,本发明对其FPN结构进行改进,增加了通道及空间注意力模块,并将RFB模块融入检测分支之前。
输入的训练图片大小为416*416*3,经过Darknet53特征提取网络后,C3、C4、C5分支具体大小分别为N×52×52×256、N×26×26×512、N×13×13×1024。经过附图4所示改进FPN网络,C5通过如图CA-SAM、 RFB等操作后操作,得到Prediction3,其大小为13*13*[3*(4+1+C)];C4通过上图蓝色框所示upSample、 Concat、CA-SAM、RFB等操作后,其大小为26*26*[3*(4+1+C)];同理,C3通过上图蓝色框所示upSample、 Concat、CA-SAM、RFB等操作后,其大小为52*52*[3*(4+1+C)],由于本实施例中只需检测车辆与行人,故其中C=2。
对于其中的CA-SAM采用的是改进后的CBAM模块,其分为通道注意力与空间注意力两个子模块,分别表示为CA子模块和SA子模块。
图4-b为CA子模块,对输入CA模块的特征图进行通道注意力。该模块为对SENet中的 Squeeze-Excitaion模块进行改进。其主要区别是SENET中主要采用的是全局均值化操作,由于目标分类网络所输入的图像相对于整个图像来说其是占了较大比重;而目标检测任务相对来说其目标相对图像较小,若直接采用均值操作神经网络可能无法学到较好的特征,而全局最大池化是特征图上的极值,能更好的反应某个特征通道对物体的响应,因此考虑将全局池化与平均池化进行通道上的拼接,让网络自动学习特征;并且可以并行加入全局平均池化与全局最大池化。本实施例中,具体过程为对大小为H*W*C(对应宽*高 *通道数)的特征图Fc分别进行MaxPool、AvgPool以及对两者进行通道Concat,输出1*1*C,1*1*C,1*1*2C,然后输入至共享参数得MLP网络,该MLP网络为三层全连接网络,分别为FC1、FC2、FC3,其输出得通道数目分别为C、C/16、C,激活函数分别为Relu、Relu、sigmoid函数,最终将三者进行相加,形成通道注意力Mc特征图,然后将输入特征图与通道注意力Mc特征图进行点乘,最终输出的特征图为
Fc′=Mc*Fc
空间注意力改进后的子模块为SA,见图4-c,对输入SA模块所得特征图进行空间注意力。该模块采用类似Inception网络的思想,对进行全局最大化与全局平均化的特征图进行不同的卷积操作,而不是简单的使用单个卷积操作,以提升卷积神经网络学习邻域语义特征的能力。具体的操作为分别对Fc′进行 MaxPool以及AvgPool,然后2个大小H×W×1特征图,并对其进行Concat操作,得到H×W×2的特征图,对该特征图进行1×1、3×3、5×5的卷积并进行Concat操作,最后再进行1×1的卷积以增加非线性,然后得到空间注意力特征图Ms。同理,将其与Fc′进行点乘,最终输出特征图为Fs=Ms×Fc′。
由于在不同的环境下,港口环境下可能存在不同的噪声,为了让卷积神经网络减少误检,提出在检测分支前加入前景与背景显著图,对检测分支网络之前的特征进行进一步的增强。具体来说,在FPN的检测头之前加入前景背景显著图辅助分支,将其对CA-SAM输出的特征Fs进行进一步增强。通过采用前景背景分割模块(FBM模块),见图4-d,可利用分割图信息用来增强前景特征,削弱背景特征,FDM对Fs 输入不同膨胀率的膨胀卷积,将特征图W*H*2通过softmax函数后,然后取出前景特征图W*H*1,然后将其维度扩展到与Fs相同,再将其与特征图Fs进行点乘,Ds=Fs*Fas[:,:,:,1]。该分支在下文的损失函数中需要计算损失,即采用二值交叉熵损失函数计算的0.1*Lseg就是该损失,为前景背景分割损失。
为了在检测分支具有更大感受野,将RFB模块嵌入到yolov3的最终检测分支中,以获取更大的感受野,见图4-e。RFB模块如图4-d所示:其主要利用不同普通卷积以及不同膨胀卷积进行扩大感受野,分别进行1×1普通卷积和3*3大小且膨胀率为1的膨胀卷积、3×3普通卷积和3×3大小且膨胀率为3的膨胀卷积、5×5的普通卷积和3×3大小且膨胀率为5的膨胀卷积,将以上三组卷积的特征图进行Concat操作并进行1×1卷积降维得到需要的Prediction特征图。
对于yolov3中每个预测图Predictionm(m=1,2,3),其最后的特征的channel维度变化为 [3*(4+1+C)],C=2,(4+1+C)所对应参数为{tx,ty,tw,th,Pobj,Ci},其中,(tx,ty)相对于图像网格坐标的偏移,(tw,th)为相对先验框(Prior anchor)缩放比例系数;Pobj代表当前瞄框所对应的anchor是否是背景的概率,即anchor就是当前物体中心点加上所预测的宽与高得到的瞄框;Ci,i=0,1表示预测值属于某种物体的概率,i=0表示为汽车,i=1为行人。
S3.3.3预测值编码与解码。
测试时,需要对特征图进行解码,其中,bx表示预测的物体中心点x坐标,by表示预测的物体中心点y坐标,bh表示预测的物体的宽,bw表示预测物体的高,对预测值解密如下所示:
Figure BDA0002920215340000121
其中,δ(tx)表示是边界框相对所划分网格cx的横坐标偏移,δ(ty)表示的是相对所划分网格cy的纵坐标偏移,pw表示的相对先验框(prior anchor)的宽,ph表示的是相对先验框(prior anchor)的高;tw表示预测宽相对先验框(Prior anchor)的宽的缩放系数,th表示预测高相对先验框(Prior anchor)的高的缩放系数。对(bx,by,bw,bh)乘以每个特征图所对应的下采样倍数,即可得到预测框相对于原图的信息。
训练时,只需将标签使用上述式子进行变换,即可求出tx,ty,tw,th。即训练时,包含检测目标的目标框标签使用上述式子进行变换可以得到tx,ty,tw,th,进而将实际结果{tx,ty,tw,th,Pobj,Ci}与预测框的{tx,ty,tw,th,Pobj,Ci}进行比对,采用下文的损失函数进行模型训练。
S3.3.4训练并保存模型。
使用步骤S3.2中训练参数,将预处理后的图片输入yolov3目标检测模型进行训练,其损失函数定义如下式:
Loss=Lossx,y,w,h+Lossobj+noobj+Losscls+0.1×Lseg (12)
其中坐标损失Lossx,y,w,h式子如下:
Figure BDA0002920215340000131
式中G代表将原图进行FPN操作后的特征图的大小,N表示检测目标的类别数目,
Figure BDA0002920215340000132
表示的是第i 个位置是否存在第j类检测目标,存在为1,不存在为0;D为包含predbox与GTbox的最小外接矩形;predbox为预测框,GTbox为真实框;predbox矩形框与GTbox矩形框的IOU表示为:
Figure BDA0002920215340000133
其中物体置信度损失Lossobj+noobj式子如下:
Figure BDA0002920215340000134
式中,
Figure BDA0002920215340000135
表示预测出的第i个位置是否存在第j类目标的概率值(该概率为前景与背景目标值);
Figure BDA0002920215340000136
表示第i个位置是否存在第j类检测目标,存在为1,不存在为0;
Figure BDA0002920215340000141
表示第i个位置存在检测物体时表示为1,否则为0;
Figure BDA0002920215340000142
表示第i个位置不存在检测物体时为1,否则为0。
类别损失Losscls式子如下:
Figure BDA0002920215340000143
其中,
Figure BDA0002920215340000144
表示的是预测出的第i个位置第j类物体的概率值;pij表示的是第i个位置是否存在第j类检测目标,存在为1,不存在为0。
Lseg为辅助分支的损失,采用二值交叉熵计算损失。
通过使用Pytorch框架,搭建上述yolov3目标检测模型即可得到相港口环境下行人与车辆目标检测模型,训练的参数步骤S3.2设置,并使用上述损失函数进行模型参数优化,最终将训练好的模型保存到硬盘以供后续使用。
所述步骤S4的具体方法为:
步骤S4.1对预测结果进行非极大值抑制(Non-Maximum Suppression,NMS)。
NMS算法目的是为了去掉冗余的检测框,其根据预测物体置信度进行排序,当预测框与当前所保留的框之间的IOU超过一定程度的时候,置信度低的框会被舍弃。
具体的流程如下:
(1)根据置信度,对所有预测结果进行置信度降序排序,放入列表list_A中
(2)从list_A中取出置信度最高的检测结果box_A放入list_B中,将box_A从list_A删除,计算box_A 与list_A中剩下的所有预测框的IOUi,i表示list_A中第i个预测框。
(3)保留IOUi<δ的预测框,其中δ=0.4。重复第(2)步,当list_A为空,退出循环,NMS算法结束。
步骤S4.2设置先验区域及相机ID,对NMS后的预测结果list_B使用RBI算法进行结果筛选。
对于步骤S4.1中所获取的list_B的中的框,需要与所设置的先验区域进行计算,若满足RBI值大于 thresh,且相机ID满足一定条件,则将框放入对应的检测结果。定义RBI为下式:
RBI=IOU(area,new_list)>thresh (16)
其中area为PriorArea或TopArea,PriorArea表示1-4号轮胎吊腿部摄相机所设置的先验区域, TopArea表示为5号轮胎吊摄像机所设置的先验区域,阈值thresh可以根据场景进行设置为0-1中某个值。
上述的相机ID与检测物体关系为:根据摄像头的不同Camerai(i=1,2,3,4,5),分别检测不同的物体。对于轮胎吊腿部1-4号摄像机设置为检测先验区域的行人与车辆,对于5号轮胎吊5号摄像机设置为检测行人。
应用实例1:
本实例是针对轮胎吊顶部摄像机(5号相机)所拍摄图像,整体实施流程图如图5所示,基于yolov3 目标检测模型的港口环境下先验区域车辆与行人检测方法整体步骤如下:
步骤S1:对不同轮胎吊的工作区域进行数据采集,并制作车辆与行人数据集。
步骤S1.1:采集视频数据并保存。
对不同位置、不同天气、不同时间的轮胎吊所处的位置进行摄像机监控,将所拍摄的视频保存为mkv 格式或者mp4格式。
步骤S1.2将视频数据拆分成图片序列,并对含有车辆或行人的图片进行标注。
采用FFmpeg软件根据不同的视频格式分别进行处理,以得到图片序列并将图片序列保存到硬盘中。使用LabelImg进行标注,筛选出具有车辆或行人的图片(每张图片中至少含有一种物体),保存格式为VOC 中的xml格式。xml格式包含的信息有:物体的类(如车辆或行人),物体相对图片的位置信息,box的信息格式表示为{xmin,ymin,xmax,ymax}。
步骤S2:将数据集划分为训练集与测试集并进行K-means聚类,获取9个anchor。
步骤S2.1划分训练集与测试集。
划分训练集与测试集的方法如下:按照9:1的比例,划分训练集与测试集。将前90%的图片复制附图2中image目录得训练目录,后10%的图片附图2image目录的val目录。同理,将标注好的标注xml 文件以同样的方式,按照训练集与测试集分别移动到annotaions中的train与val目录中。在训练时,程序需要使用得格式需要进行转换,提前将训练集及测试集中的xml文件转换为yolo格式的标注文件。具体为通过解析xml文件,保存为对应的txt格式。txt文件每行的格式为{id,x,y,w,h},其中id表示类别,x, y,w,h为相对原图的宽和高归一化到0-1的浮点数。训练集及测试集所对应的txt文件分别保存至附图2所示labels目录中的train及val目录。
步骤S2.2使用K-means算法进行anchor聚类。
步骤S3:将训练集图片进程预处理后,输入yolov3目标检测模型进行训练,得到车辆与行人检测模型,将最终模型保存至硬盘。
S3.1图片的预处理。
训练时图像的预处理主要是为了增强对环境的检测鲁棒性效果。其主要包括图像像素内容的变换,以及空间几何变换以及最后的图像及标签归一化。
图像像素内容的具体变换包括图像的整体亮度、对比度、色度、饱和度以及图像通道进行改变。以概率p对图像进行整体的亮度以及对比度的改变,见式(3)与式(4);同理,将RGB空间图像转换到HSV图像空间,以概率p对图像整体的色度进行改变,见式(5);同理,以概率p对图像的整体的饱和度进行改变,见式(6);同理,以概率p对图像进行通道的改变,其通道排列方式可以为RGB、RBG、BRG、BGR、GRB、 GBR六种中的一种。
图像的空间几何变换主要包括水平镜像和crop图像操作。以概率p为阈值随机进行对图像进行水平镜像。同理,以概率p进行图像的crop操作。
为了以统一的格式进行输入进入yolov3目标进程模型进行训练,需要转换为统一的格式。利用OpenCV 将BGR通道图像转换为RGB通道图像;将图像进行Padding为方形,原图拷贝到对应区域,其他区域填充为0;将图片大小归一化到至416*416*3。采用式(9)将图片归一化到0-1之间的浮点数;并将标注矩形框boxes用式(10)归一化到0-1之间浮点数。
步骤S3.2:设置训练参数。
训练参数为:epoch:100;batch_size:4;图片大小:416*416*3;使用的优化算法为Adam算法;初始学习率为0.001:
步骤S3.3:输入yolov3目标检测模型进行训练,并保存模型。
进行以上图像预处理步骤以后,将预处理并进行归一化后的图片输入yolov3目标检测模型进行训练。
其中特征提取部分采用如图3所示的Darknet53的深度卷积神经网络,其产生C3、C4、C5三个特征图,其特征的通道维度分别为256,512,1024。特征图C3、C4、C5具有不同的感受野,C3、C4、C5特征图的感受野由小到大,故可以用于检测不同大小的物体。在yolov3中,C3、C4、C5分别用于检测小、中、大的物体。
对于其中的CA-SAM采用的是改进后的CBAM模块,其分为通道注意力与空间注意力两个子模块,如图4-b的CA子模块和图4-c的SA子模块。
为了在检测分支具有更大感受野,将RFB模块嵌入到yolov3的最终检测分支中,以获取更大的感受野。RFB模块如图4-d所示最后得到需要的Prediction特征图。
当得到以上三个预测特征图predictioni,i=1,2,3后,在训练与测试时需要对特征图进行编码与解码。在前向推理时,需要对特征值进行编码,如式(11)所示,得出物体边界框下采样所对应的{bx,by,bw,bh},然后乘以当前预测特征图下采样的倍数即可得到相对原图的坐标与长宽信息。训练时,对式(11)进行变换,即可求出训练时所需要的真实标签对应的值所对应原图的格子偏移及缩放系数tx,ty,tw,th
当进行训练时,采用的损失函数如式(12)所示,使用上述所述损失函数及S3.2所述训练参数进行训练,将训练好的模型保存到硬盘以供后续使用。
步骤S4:设定需要检测的先验区域及相机ID,基于NMS及RBI算法进行结果优化,并显示结果。
使用LabelImg等工具进行框选,获取先验区区域坐标,记下先验区域坐标xi,yj,坐标所构成的区域为矩形或者其他形状均可。在本实例中,选用的是矩形,设定先验框为RoiRect(Point(100,50),Point(540, 50),Point(540,250),Point(100,250),设定相机ID=5,相机ID=5的相机仅检测先验框内的行人。
进行以上步骤后,即可将图6-a(大小为640*360)所示原图输入步骤S3所保存的模型中。
测试时,首先运行程序,在GPU上加载模型。然后预处理图像,调整为合适的输入格式:利用OpenCV 将BGR通道图像转换为RGB通道图像;将图像进行Padding为方形,原图拷贝到对应区域,其他区域填充为0;将图片大小归一化到至416*416*3。采用式(9)将图片归一化到0-1之间的浮点数;并将标注矩形框boxes用式(10)归一化到0-1之间浮点数。将预处理为统一输入格式的图像,输入正在运行的模型,可获得如图4所示的预测结果prediction1、prediction2、prediction3,即3个预测结果,每个prediction中含有的预测框的数量不一定,其取决于输出的特征图的大小。对预测特征图的编码与解码,见式(11),然后对预测结果使用NMS算法以及RBI算法进行筛选。
NMS算法的目的是为了去掉冗余的检测框,具体的流程如下:
(1)根据置信度,对所有预测结果进行置信度降序排序,放入列表list_A中
(2)从list_A中取出置信度最高的检测结果box_A放入list_B中,将box_A从list_A删除,计算box_A 与list_A中剩下的所有预测框的IOUi,i表示list_A中第i个预测框。
(3)保留IOUi<δ的预测框,其中δ=0.4。重复第(2)步,当list_A为空,退出循环,NMS算法结束。
RBI算法采用利用式(16)算法筛选结果List_B中的检测框,当上述RoiRect与List_B的IOU值大于 thresh时,并根据相机ID=5筛选出类别为人的预测框。满足这两个条件时,保留该预测框至result中,否则抛弃该预测框。
如图由于该行人位于蓝色的先验框之外,因此不进行框选。最终检测的结果图如图6-b所示。
应用实例2:
对轮胎吊顶部摄像机所拍摄图片7-a(大小为640*360)进行行人检测。由于在应用实例1中已阐述训练模型的过程,故此实施例中只包含输入模型预测结果相应步骤。
步骤1:预处理图像,调整为合适的输入格式。利用OpenCV将BGR通道图像转换为RGB通道图像;将图像进行Padding为方形,原图拷贝到对应区域,其他区域填充为0;将图片大小归一化到至416*416*3。采用式(9)将图片归一化到0-1之间的浮点数;并将标注矩形框boxes用式(10)归一化到0-1之间浮点数,标注矩形框为待检测区域,即限定区域。
步骤2:将预处理为统一输入格式的图像,输入正在运行的车辆与行人检测模型。使用如图(4)所示 Darknet53特征提取网络,并经过附图4所示FPN特征金字塔进行特征融合后,可获得如图4所示的预测结果prediction1、prediction2、prediction3,对预测特征图的编码与解码见式(11),然后对编码后的预测结果使用NMS算法以及RBI算法进行筛选。步骤3:设定需要检测的先验区域及相机ID,基于NMS及RBI 算法进行结果优化,并显示结果。
程序中设置相机ID为5号,设定先验框为RoiRect(Point(100,50),Point(540,50),Point(540, 250),Point(100,250))。
使用NMS算法的去掉冗余的检测框,具体的流程如下:
(4)根据置信度,对所有预测结果进行置信度降序排序,放入列表list_A中
(5)从list_A中取出置信度最高的检测结果box_A放入list_B中,将box_A从list_A删除,计算box_A 与list_A中剩下的所有预测框的IOUi,i表示list_A中第i个预测框。
(6)保留IOUi<δ的预测框,其中δ=0.4。重复第(2)步,当list_A为空,退出循环,NMS算法结束。
设置workRect为上述值,设定相机ID=5。RBI算法采用利用式(13)算法筛选结果List_B中的检测框,当上述RoiRect与List_B的IOU值大于thresh时,并根据相机ID=5筛选出类别为人的预测框。满足这两个条件时,保留该预测框至result中,否则抛弃该预测框。
由于该行人位于蓝色的先验框之内,程序使用框图进行标记所检测行人,最终检测的结果图如图7-b 所示。
应用实例3:
对轮胎吊顶部摄像机所拍摄图片8-a(大小为640*360)进行行人检测。由于在应用实例1中已阐述训练模型的过程,故此实施例中只包含输入模型预测结果相应步骤。
步骤1:预处理图像,调整为合适的输入格式。利用OpenCV将BGR通道图像转换为RGB通道图像;将图像进行Padding为方形,原图拷贝到对应区域,其他区域填充为0;将图片大小归一化到至416*416*3。采用式(9)将图片归一化到0-1之间的浮点数;并将标注矩形框boxes用式(10)归一化到0-1之间浮点数。
步骤2:将预处理为统一输入格式的图像,输入正在运行的车辆与行人检测模型。使用如图(4)所示 Darknet53特征提取网络,并经过附图4所示FPN特征金字塔进行特征融合后,可获得如图4所示的预测结果prediction1、prediction2、prediction3,对预测特征图的编码与解码见式(11),然后对编码后的预测结果使用NMS算法以及RBI算法进行筛选。
步骤3:设定需要检测的先验区域及相机ID,基于NMS及RBI算法进行结果优化,并显示结果。
程序中设置相机ID为5号,设定先验框为RoiRect(Point(100,50),Point(540,50),Point(540, 250),Point(100,250))。
使用NMS算法的去掉冗余的检测框,具体的流程如下:
(7)根据置信度,对所有预测结果进行置信度降序排序,放入列表list_A中
(8)从list_A中取出置信度最高的检测结果box_A放入list_B中,将box_A从list_A删除,计算box_A 与list_A中剩下的所有预测框的IOUi,i表示list_A中第i个预测框。
(9)保留IOUi<δ的预测框,其中δ=0.4。重复第(2)步,当list_A为空,退出循环,NMS算法结束。
设置workRect为上述值,设定相机ID=5。RBI算法采用利用式(16)算法筛选结果List_B中的检测框,当上述RoiRect与List_B的IOU值大于thresh时,并根据相机ID=5筛选出类别为人的预测框。满足这两个条件时,保留该预测框至result中,否则抛弃该预测框。
由于原图中仅有车辆,而5号摄像机相机不需要检测车辆,检测图中为框选先验框中的车辆,检测最终结果如图8-b所示。
应用实例4:
对轮胎吊腿部摄像机所拍摄图片9-a(大小为720*1280)进行车辆与行人检测。由于在应用实例1中已阐述训练模型的过程,故此实施例中只包含输入模型预测结果步骤。
步骤1:预处理图像,调整为合适的输入格式。利用OpenCV将BGR通道图像转换为RGB通道图像;将图像进行Padding为方形,原图拷贝到对应区域,其他区域填充为0;将图片大小归一化到至416*416*3。采用式(9)将图片归一化到0-1之间的浮点数;并将标注矩形框boxes用式(10)归一化到0-1之间浮点数。
步骤2:将预处理为统一输入格式的图像,输入正在运行的车辆与行人检测模型。使用如图(4)所示 Darknet53特征提取网络,经过附图4所示FPN特征金字塔进行特征融合后,可获得如图4所示的预测结果predictionl、prediction2、prediction3,对预测特征图的编码与解码见式(11),然后对编码后的预测结果使用NMS算法以及RBI算法进行筛选。
步骤3:设定需要检测的先验区域及相机ID,基于NMS及RBI算法进行结果优化,并显示结果。
程序中设置相机ID为1号,设定先验框为RoiRect(Point(100,50),Point(540,50),Point(540, 250),Point(100,250))。
使用NMS算法以及RBI算法筛选结果,由于原图中不含有车辆及行人,而1号摄像机相机需要检测车辆与行人,检测最终结果如图9-b所示。
应用实例5:
对轮胎吊腿部摄像机所拍摄图片10-a(大小为720*1280)进行车辆与行人检测。由于在应用实例1中已阐述训练模型的过程,故此实施例中只包含输入模型预测结果步骤。
步骤1:预处理图像,调整为合适的输入格式。利用OpenCV将BGR通道图像转换为RGB通道图像;将图像进行Padding为方形,原图拷贝到对应区域,其他区域填充为0;将图片大小归一化到至416*416*3。采用式(9)将图片归一化到0-1之间的浮点数;并将标注矩形框boxes用式(10)归一化到0-1之间浮点数。
步骤2:将预处理为统一输入格式的图像,输入正在运行的车辆与行人检测模型。使用如图(4)所示 Darknet53特征提取网络,并经过附图4所示FPN特征金字塔进行特征融合后,可获得如图4所示的预测结果prediction1、prediction2、prediction3,对预测特征图的编码与解码见式(11),然后对编码后的预测结果使用NMS算法以及RBI算法进行筛选。
步骤3:设定需要检测的先验区域及相机ID,基于NMS及RBI算法进行结果优化,并显示结果。
程序中设置相机ID为1号,设定先验框为RoiRect(Point(100,50),Point(540,50),Point(540, 250),Point(100,250))。
使用NMS算法以及RBI算法筛选结果,由于该车辆位于蓝色的先验框之内,程序使用框图进行标记所检测车辆,检测最终结果如图10-b所示。
应用实例6:
对轮胎吊腿部摄像机所拍摄图片11-a(大小为720*1280)进行车辆与行人检测。由于在应用实例1中已阐述训练模型的过程,故此实施例中只包含输入模型预测结果步骤。
步骤1:预处理图像,调整为合适的输入格式。利用OpenCV将BGR通道图像转换为RGB通道图像;将图像进行Padding为方形,原图拷贝到对应区域,其他区域填充为0;将图片大小归一化到至416*416*3。采用式(9)将图片归一化到0-1之间的浮点数;并将标注矩形框boxes用式(10)归一化到0-1之间浮点数。
步骤2:将预处理为统一输入格式的图像,输入正在运行的车辆与行人检测模型。使用如图(4)所示 Darknet53特征提取网络,并经过附图4所示FPN特征金字塔进行特征融合后,可获得如图4所示的预测结果prediction1、prediction2、prediction3,对预测特征图的编码与解码见式(11),然后对编码后的预测结果使用NMS算法以及RBI算法进行筛选。
步骤3:设定需要检测的先验区域及相机ID,基于NMS及RBI算法进行结果优化,并显示结果。
程序中设置相机ID为1号,设定先验框为RoiRect(Point(100,50),Point(540,50),Point(540, 250),Point(100,250))。
使用NMS算法以及RBI算法筛选结果,由于该行人位于图11-a蓝色的先验框之内,程序使用红色框进行标记所检测行人,检测最终结果如图11-b所示:
基于上述6个应用实例应当可以充分理解本发明的构思。应当说明的是,上述实施例和应用实例中均利用设置的先验区域以及相机ID进行了预测结果的优化,其他可行的实施例中对优化步骤是否执行不进行具体的限定。
在一些可行的方式中,本发明还提供一种基于上述方法的系统,其包括:
数据采集以及处理模块:用于采集港口环境下轮胎吊作业监控范围内的图像数据,利用图像数据中的含检测目标的图像构建样本集;
聚类模块:用于将样本集进行K-means聚类以获取k个Anchor;
目标检测模型构建模块:用于对样本集中的图像进行预处理,并输入基于注意力机制的yolov3目标检测模型进行训练,得到港口环境下的目标检测模型;
其中,基于注意力机制的yolov3目标检测模型的架构请参照前文的方法内容的阐述,在此不再赘述。
所述目标检测模型的输入参数为预处理的图像,输出结果包括对应图像中是否存在目标;
目标检测模块:用于利用所述港口环境下目标检测模型进行目标检测。
其中,各个单元模块的具体实现过程请参照前述方法的对应过程。应当理解,上述单元模块的具体实现过程参照方法内容,本发明在此不进行具体的赘述,且上述功能模块单元的划分仅仅是一种逻辑功能的划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。同时,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
在一些可行的方式中,目标检测模块是首先利用目标检测模型进行目标检测得到初始的预测结果,再利用NMS算法以及RBI算法优化所述初始的预测结果。
在一些可行的方式中,本发明还提供一种终端,包括处理器和存储器,所述存储器存储了计算机程序,所述处理器调用所述计算机程序以执行:所述一种基于注意力机制的港口环境下目标检测方法的步骤。
在一些可行的方式中,本发明还提供一种可读存储介质,存储了计算机程序,所述计算机程序被处理器调用以执行所述一种基于注意力机制的港口环境下目标检测方法的步骤。
应当理解,在本发明实施例中,所称处理器可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据。存储器的一部分还可以包括非易失性随机存取存储器。例如,存储器还可以存储设备类型的信息。
所述可读存储介质为计算机可读存储介质,其可以是前述任一实施例所述的控制器的内部存储单元,例如控制器的硬盘或内存。所述可读存储介质也可以是所述控制器的外部存储设备,例如所述控制器上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card) 等。进一步地,所述可读存储介质还可以既包括所述控制器的内部存储单元也包括外部存储设备。所述可读存储介质用于存储所述计算机程序以及所述控制器所需的其他程序和数据。所述可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的可读存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccess Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要强调的是,本发明所述的实例是说明性的,而不是限定性的,因此本发明不限于具体实施方式中所述的实例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,不脱离本发明宗旨和范围的,不论是修改还是替换,同样属于本发明的保护范围。

Claims (10)

1.一种基于注意力机制的港口环境下目标检测方法,其特征在于:包括如下步骤:
步骤S1:采集港口环境下轮胎吊作业监控范围内的图像数据,利用图像数据中的含检测目标的图像构建样本集;
步骤S2:将样本集进行K-means聚类以获取k个先验瞄框Prior Anchor;
步骤S3:对样本集中的图像进行预处理,并输入基于注意力机制的yolov3目标检测模型进行训练,得到港口环境下的目标检测模型;
其中,在所述yolov3目标检测模型中的FPN网络架构中增设通道及空间注意力模块CA-SAM,所述通道及空间注意力模块CA-SAM包括通道注意力子模块和空间注意力子模块,分别表示为CA子模块和SA子模块;
所述CA子模块中对输入的特征图Fc分别进行最大池化MaxPool、平均池化AvgPool以及将MaxPool与AvgPool的结果进行通道拼接Concat操作,再输入至共享参数的MLP网络,再将所述MLP网络的通道输出结果相加形成通道注意力Mc特征图,然后将输入特征图Fc与所述通道注意力Mc特征图进行点乘输出的全局最大化与全局平均化的特征图Fc′;
所述SA子模块对全局最大化与全局平均化的特征图Fc′进行不同的卷积操作;所述目标检测模型的输入参数为预处理后的图像,输出结果包括对应图像的预测框中是否存在检测目标;
步骤S4:利用所述港口环境下目标检测模型进行目标检测。
2.根据权利要求1所述的方法,其特征在于:所述SA子模块的实现过程如下:
对特征图Fc′进行MaxPool以及AvgPool操作并将MaxPool以及AvgPool操作后的2个特征图进行Concat操作,对Concat操作后的特征图分别进行若干个不同大小卷积并再次进行Concat操作,然后再进行1×1的卷积得到空间注意力特征图Ms,最后将空间注意力特征图Ms与特征图Fc′进行点乘得到输出特征图Fs
3.根据权利要求1所述的方法,其特征在于:在所述yolov3目标检测模型中的特征金字塔FPN网络架构中设有前景背景分割模块,表示为FBM模块;
其中,所述FBM模块设置在所述空间注意力模块CA-SAM之后,所述FBM模块对所述空间注意力模块CA-SAM输出的特征图Fs分别进行不同膨胀率的膨胀卷积,再进行Concat操作得到特征图,并利用softmax函数从所述特征图中提取前景特征图,然后将所述前景特征图的维度扩展到与特征图Fs相同,再将其与特征图Fs进行点乘得到特征图Ds。
4.根据权利要求1所述的方法,其特征在于:所述yolov3目标检测模型中的FPN网络架构的最终检测分支上设有RFB模块,所述RFB模块利用不同的普通卷积以及不同膨胀卷积对输入的特征图进行操作,并将操作后的多组特征图进行Concat操作,再将Concat操作后的特征图进行1×1卷积得到所述yolov3目标检测模型输出的最终的特征图。
5.根据权利要求4所述的方法,其特征在于:所述RFB模块的实现过程如下:
对输入的特征图分别进行1×1普通卷积和3*3大小且膨胀率为1的膨胀卷积、3×3普通卷积和3×3大小且膨胀率为3的膨胀卷积、5×5的普通卷积和3×3大小且膨胀率为5的膨胀卷积,然后,将以上三组卷积的特征图进行Concat操作;且将Concat操作后的特征图进行1×1卷积得到最终的特征图。
6.根据权利要求1所述的方法,其特征在于:步骤S4中利用所述目标检测模型进行目标检测过程为:
获取先验区域以及相机ID号;
将图像输入至所述目标检测模型得到初始的预测结果;
再利用非极大值抑制NMS算法以及基于区域的非极大值抑制RBI算法优化所述初始的预测结果,过程如下A-D:
A:根据置信度对所有预测结果进行置信度降序排序,放入列表list_A中;
B:从所述list_A中取出置信度最高的预测框box_A放入list_B中,在所述list_A中删除所述box_A,再计算box_A与list_A中剩下的所有预测框的IOUi,i表示list_A中第i个预测框;
其中,A矩形框与B矩形框的IOU表示为:
Figure FDA0002920215330000021
C:保留IOUi<δ的预测框,其中δ为预设阈值,重复第B步,直至所述list_A为空,退出循环,得到NMS的预测结果list_B;
D:对NMS后的预测结果list_B使用RBI算法进行结果筛选;其中,计算所述list_B的中的预测框与先验区域的RBI值,若满足RBI值大于阈值thresh,且对应图像的相机ID符合目标检测要求,则将所述预测框放入对应的检测结果,所述RBI值的计算公式如下:
RBI=IOU(area,new_list)>thresh
其中,area为先验区域;new_list为所述list_B的中的预测框;
所述相机ID的检测要求为:图像中预测框内的目标与相机ID配置的检测目标为同一类目标;
其中,若检测目标为车辆和行人,在轮胎吊腿部设置4个摄像机,用于检测先验区域的行人和车辆,在轮胎吊顶部安装1个摄像机,用于检测先验区域的行人。
7.根据权利要求6所述的方法,其特征在于:所述基于注意力机制的yolov3目标检测模型的训练过程的损失函数Loss如下:
Loss=Lossx,y,w,h+Lossobj+noobj+Losscls+0.1×Lseg
其中,坐标损失Lossx,y,w,h如下:
Figure FDA0002920215330000031
Figure FDA0002920215330000032
式中,G代表将原图进行FPN操作后的特征图的大小,N表示检测目标的类别数目,
Figure FDA0002920215330000033
表示的是第i个位置是否存在第j类检测目标,存在为1,不存在为0;D为包含predbox与GTbox的最小外接矩形;predbox为预测框,GTbox为真实框,IOU表示为两矩形框的交并比;
置信度损失Lossobj+noobj式子如下:
Figure FDA0002920215330000034
式中,
Figure FDA0002920215330000035
表示预测出的第i个位置是否存在第j类目标的概率值;
Figure FDA0002920215330000036
表示第i个位置是否存在第j类检测目标,存在为1,不存在为0;
Figure FDA0002920215330000037
表示第i个位置存在检测物体时表示为1,否则为0;
Figure FDA0002920215330000038
表示第i个位置不存在检测物体时为1,否则为0。
类别损失Losscls式子如下:
Figure FDA0002920215330000039
其中,
Figure FDA00029202153300000310
表示的是预测出的第i个位置是否存在第j类检测目标,存在为1,不存在为0;pij表示的是第i个位置是否存在第j类检测目标,存在为1,不存在为0;Lseg为辅助分支的损失,采用二值交叉熵计算损失。
8.一种基于权利要求1-7任一项所述方法的系统,其特征在于:包括:
数据采集以及处理模块:用于采集港口环境下轮胎吊作业监控范围内的图像数据,利用图像数据中的含检测目标的图像构建样本集;
聚类模块:用于将样本集进行K-means聚类以获取k个先验瞄框Prior Anchor;
目标检测模型构建模块:用于对样本集中的图像进行预处理,并输入基于注意力机制的yolov3目标检测模型进行训练,得到港口环境下的目标检测模型;
其中,在所述yolov3目标检测模型中的FPN网络架构中增设通道及空间注意力模块CA-SAM,所述通道及空间注意力模块CA-SAM包括通道注意力子模块和空间注意力子模块,分别表示为CA子模块和SA子模块;
所述CA子模块中对输入的特征图Fc分别进行MaxPool、AvgPool以及将MaxPool与AvgPool的结果进行Concat操作,再输入至共享参数的MLP网络,再将所述MLP网络的通道输出结果相加形成通道注意力Mc特征图,然后将输入特征图Fc与所述通道注意力Mc特征图进行点乘输出的全局最大化与全局平均化的特征图Fc′;所述SA子模块对全局最大化与全局平均化的特征图Fc′进行不同的卷积操作;
所述目标检测模型的输入参数为预处理后的图像,输出结果包括对应图像的预测框中是否存在检测目标;
目标检测模块:用于利用所述港口环境下目标检测模型进行目标检测。
9.一种终端,其特征在于:包括处理器和存储器,所述存储器存储了计算机程序,所述处理器调用所述计算机程序以执行权利要求1-7任一项所述方法的步骤。
10.一种可读存储介质,其特征在于:存储了计算机程序,所述计算机程序被处理器调用以执行权利要求1-7任一项所述方法的步骤。
CN202110115168.7A 2021-01-28 2021-01-28 一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质 Active CN113158738B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110115168.7A CN113158738B (zh) 2021-01-28 2021-01-28 一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110115168.7A CN113158738B (zh) 2021-01-28 2021-01-28 一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质

Publications (2)

Publication Number Publication Date
CN113158738A true CN113158738A (zh) 2021-07-23
CN113158738B CN113158738B (zh) 2022-09-20

Family

ID=76878912

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110115168.7A Active CN113158738B (zh) 2021-01-28 2021-01-28 一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质

Country Status (1)

Country Link
CN (1) CN113158738B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113744524A (zh) * 2021-08-16 2021-12-03 武汉理工大学 一种基于车辆间协同计算通信的行人意图预测方法及系统
CN113780111A (zh) * 2021-08-25 2021-12-10 哈尔滨工程大学 一种基于优化YOLOv3算法的管道连接器及缺陷精确识别方法
CN113870183A (zh) * 2021-08-27 2021-12-31 福建省海洋预报台 一种港口目标动态检测的方法及终端
CN114037888A (zh) * 2021-11-05 2022-02-11 中国人民解放军国防科技大学 基于联合注意力和自适应nms的目标检测方法和系统
CN114494415A (zh) * 2021-12-31 2022-05-13 北京建筑大学 一种自动驾驶装载机对沙石堆检测识别和测量的方法
CN114971093A (zh) * 2022-08-01 2022-08-30 中南大学 城市道路交通流属性预测方法、系统、设备及介质
CN115115863A (zh) * 2022-06-28 2022-09-27 成都信息工程大学 水面多尺度目标检测方法、装置及系统和存储介质
CN115147642A (zh) * 2022-06-02 2022-10-04 盛视科技股份有限公司 基于视觉的渣土车检测方法、装置、计算机及存储介质
CN117351016A (zh) * 2023-12-05 2024-01-05 菲特(天津)检测技术有限公司 提升缺陷检测模型准确度的后处理优化方法及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934397A (zh) * 2017-03-13 2017-07-07 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备
CN109934121A (zh) * 2019-02-21 2019-06-25 江苏大学 一种基于YOLOv3算法的果园行人检测方法
CN110188765A (zh) * 2019-06-05 2019-08-30 京东方科技集团股份有限公司 图像语义分割模型生成方法、装置、设备及存储介质
CN110633661A (zh) * 2019-08-31 2019-12-31 南京理工大学 一种融合语义分割的遥感图像目标检测方法
CN111079584A (zh) * 2019-12-03 2020-04-28 东华大学 基于改进YOLOv3的快速车辆检测方法
CN111104898A (zh) * 2019-12-18 2020-05-05 武汉大学 基于目标语义和注意力机制的图像场景分类方法及装置
CN111639654A (zh) * 2020-05-12 2020-09-08 博泰车联网(南京)有限公司 一种图像处理方法、装置及计算机存储介质
CN111914917A (zh) * 2020-07-22 2020-11-10 西安建筑科技大学 一种基于特征金字塔网络和注意力机制的目标检测改进算法
CN112070713A (zh) * 2020-07-03 2020-12-11 中山大学 一种引入attention机制的多尺度目标检测方法
CN112200161A (zh) * 2020-12-03 2021-01-08 北京电信易通信息技术股份有限公司 一种基于混合注意力机制的人脸识别检测方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934397A (zh) * 2017-03-13 2017-07-07 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备
US20190311223A1 (en) * 2017-03-13 2019-10-10 Beijing Sensetime Technology Development Co., Ltd. Image processing methods and apparatus, and electronic devices
CN109934121A (zh) * 2019-02-21 2019-06-25 江苏大学 一种基于YOLOv3算法的果园行人检测方法
CN110188765A (zh) * 2019-06-05 2019-08-30 京东方科技集团股份有限公司 图像语义分割模型生成方法、装置、设备及存储介质
CN110633661A (zh) * 2019-08-31 2019-12-31 南京理工大学 一种融合语义分割的遥感图像目标检测方法
CN111079584A (zh) * 2019-12-03 2020-04-28 东华大学 基于改进YOLOv3的快速车辆检测方法
CN111104898A (zh) * 2019-12-18 2020-05-05 武汉大学 基于目标语义和注意力机制的图像场景分类方法及装置
CN111639654A (zh) * 2020-05-12 2020-09-08 博泰车联网(南京)有限公司 一种图像处理方法、装置及计算机存储介质
CN112070713A (zh) * 2020-07-03 2020-12-11 中山大学 一种引入attention机制的多尺度目标检测方法
CN111914917A (zh) * 2020-07-22 2020-11-10 西安建筑科技大学 一种基于特征金字塔网络和注意力机制的目标检测改进算法
CN112200161A (zh) * 2020-12-03 2021-01-08 北京电信易通信息技术股份有限公司 一种基于混合注意力机制的人脸识别检测方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
XUAN NIE ET AL.: "《Attention Mask R-CNN for ship Detection and Segmentation From Reomte Sensing Images》", 《IEEE ACCESS》 *
张丹丹: "《基于深度神经网络技术的高分遥感图像处理及应用》", 31 August 2020, 北京:中国宇航出版社 *
王一丁 等: "《基于深度学习的小样本中药材粉末显微图像识别》", 《计算机应用》 *
董洪义: "《深度学习之PyTorch物体检测实战》", 31 March 2020, 北京:机械工业出版社 *
邹承明 等: "《融合GIoU和Focal loss 的YOLOv3 目标检测算法》", 《计算机工程与应用》 *
郭璠 等: "《YOLOv3-A:基于注意力机制的交通标志检测网络》", 《通信学报》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113744524A (zh) * 2021-08-16 2021-12-03 武汉理工大学 一种基于车辆间协同计算通信的行人意图预测方法及系统
CN113780111A (zh) * 2021-08-25 2021-12-10 哈尔滨工程大学 一种基于优化YOLOv3算法的管道连接器及缺陷精确识别方法
CN113780111B (zh) * 2021-08-25 2023-11-24 哈尔滨工程大学 一种基于优化YOLOv3算法的管道连接器的缺陷精确识别方法
CN113870183A (zh) * 2021-08-27 2021-12-31 福建省海洋预报台 一种港口目标动态检测的方法及终端
CN113870183B (zh) * 2021-08-27 2024-05-31 福建省海洋预报台 一种港口目标动态检测的方法及终端
CN114037888B (zh) * 2021-11-05 2024-03-08 中国人民解放军国防科技大学 基于联合注意力和自适应nms的目标检测方法和系统
CN114037888A (zh) * 2021-11-05 2022-02-11 中国人民解放军国防科技大学 基于联合注意力和自适应nms的目标检测方法和系统
CN114494415A (zh) * 2021-12-31 2022-05-13 北京建筑大学 一种自动驾驶装载机对沙石堆检测识别和测量的方法
CN115147642A (zh) * 2022-06-02 2022-10-04 盛视科技股份有限公司 基于视觉的渣土车检测方法、装置、计算机及存储介质
CN115115863A (zh) * 2022-06-28 2022-09-27 成都信息工程大学 水面多尺度目标检测方法、装置及系统和存储介质
CN114971093A (zh) * 2022-08-01 2022-08-30 中南大学 城市道路交通流属性预测方法、系统、设备及介质
CN117351016B (zh) * 2023-12-05 2024-02-06 菲特(天津)检测技术有限公司 提升缺陷检测模型准确度的后处理优化方法及装置
CN117351016A (zh) * 2023-12-05 2024-01-05 菲特(天津)检测技术有限公司 提升缺陷检测模型准确度的后处理优化方法及装置

Also Published As

Publication number Publication date
CN113158738B (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN113158738B (zh) 一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质
CN111539265B (zh) 一种电梯轿厢内异常行为检测方法
CN112232349A (zh) 模型训练方法、图像分割方法及装置
CN112686207B (zh) 一种基于区域信息增强的城市街道场景目标检测方法
CN109740463A (zh) 一种车载环境下的目标检测方法
CN113421269A (zh) 一种基于双分支深度卷积神经网络的实时语义分割方法
CN112801027B (zh) 基于事件相机的车辆目标检测方法
KR101176552B1 (ko) 속도 제한 표지판 인식 방법 및 장치, 이미지 인식 방법
KR20200003349A (ko) 교통 표지판 인식 시스템 및 방법
CN109506628A (zh) 一种基于深度学习的卡车环境下目标物测距方法
CN116188999B (zh) 一种基于可见光和红外图像数据融合的小目标检测方法
CN112446292B (zh) 一种2d图像显著目标检测方法及系统
US20230394829A1 (en) Methods, systems, and computer-readable storage mediums for detecting a state of a signal light
CN114037640A (zh) 图像生成方法及装置
CN112766056A (zh) 一种基于深度神经网络的弱光环境车道线检测方法、装置
CN113724286A (zh) 显著性目标的检测方法、检测设备及计算机可读存储介质
CN115439803A (zh) 一种基于深度学习模型的烟雾光流识别方法
CN114926456A (zh) 一种半自动标注和改进深度学习的铁轨异物检测方法
CN116129291A (zh) 一种面向无人机畜牧的图像目标识别方法及其装置
CN113221760A (zh) 一种高速公路摩托车检测方法
CN113936299A (zh) 建筑工地中危险区域检测方法
CN114359196A (zh) 雾气检测方法及系统
CN117789077A (zh) 一种通用场景下用于视频结构化的人与车辆预测的方法
CN113158747A (zh) 一种黑烟车夜间抓拍识别方法
Sankaranarayanan et al. Pre-processing framework with virtual mono-layer sequence of boxes for video based vehicle detection applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant