CN112884064B - 一种基于神经网络的目标检测与识别方法 - Google Patents
一种基于神经网络的目标检测与识别方法 Download PDFInfo
- Publication number
- CN112884064B CN112884064B CN202110268857.1A CN202110268857A CN112884064B CN 112884064 B CN112884064 B CN 112884064B CN 202110268857 A CN202110268857 A CN 202110268857A CN 112884064 B CN112884064 B CN 112884064B
- Authority
- CN
- China
- Prior art keywords
- target
- prediction
- detection
- network model
- box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4046—Scaling the whole image or part thereof using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于神经网络的目标检测与识别方法,该方法在现有YOLOv5网络模型的三层检测层后再增加一层检测层得到新型YOLOv5网络模型;然后在考虑预测框和真实框的重叠区域、两个框的中心点的距离和两框的纵横比的情况下对新型YOLOv5网络模型进行训练,最后将待检测图像输入训练好的模型中,输出目标的预测框和目标所属类别对应的概率值,设最大概率值对应的类别为该待检测图像中目标的预测类别。该方法能够快速有效地检测出多类目标,尤其对小目标检测效果更为理想,同时克服了多目标紧凑排列易出现的漏检现象,算法检测速度也可以满足实时检测要求。
Description
技术领域
本发明涉及计算机视觉及图像处理技术领域,特别涉及一种基于神经网络的目标检测与识别方法。
背景技术
近年来,随着人工智能技术的发展和计算设备算力的提升,使得人工智能算法被广泛应用于军事和民用领域。计算机视觉作为人工智能领域的一大分支,一直为国内外研究的热点方向,其主要针对图像和视频进行处理。视频处理中的目标进行检测与识别已衍生出众多实际应用,例如:人脸识别、舰船检测、自动驾驶路标障碍物检测与识别等,其都需要检测算法具备高准确性和实时性。
现有的神经网络目标检测与识别方法主要分为两大类。第一类为基于区域生成方式的,首先生成区域候选帧,然后进行分类。主流方法有SPP、R-CNN和Fast R-CNN等,这类方法检测准确率高,但速度很慢,无法满足实时检测需求。另外一类为采用端到端的方法,常用的方法为SSD、RetinaNet和YOLOv3等,这类方法检测速度快,但准确率稍微低了些。为了提升检测性能,业界学者对上述两大类方法做了大量的改进工作,使其能够更好的满足实际需求。但由于模型结构的限制,以上方法无法获得较快的检测速度。
YOLOv5为2020年最新提出的网络模型,其在检测准确率和速度方面都有了很大程度的提升,但在小目标提取方面表现不是很理想。
发明内容
针对现有技术存在的上述问题,本发明的要解决的技术问题是:在目标检测与识别过程中存在小目标和多目标排列紧凑情况下容易出现的漏检错检的问题。
为解决上述技术问题,本发明采用如下技术方案:一种基于神经网络的目标检测与识别方法,包括如下步骤:
S100:构建新型YOLOv5网络模型,在现有YOLOv5网络模型的三层检测层后再增加一层检测层;
S200:训练新型YOLOv5网络模型,具体训练过程如下:
S210:构建训练数据集:采集N张图像,将每张图像进行尺寸变换使其适用于模型训练,并对每张进行标注,即标注目标框和目标分类标签,标注后的所有图像构成训练数据集;
S220:设置新型YOLOv5网络模型的中心点间距离阈值和纵横比阈值;
S230:初始化新型YOLOv5网络模型中的参数;
将训练数据集中的所有样本输入新型YOLOv5网络模型中,采用如下公式计算:
IoU为预测框和真实框的纵横比,表达式为:
RCIoU为重叠区域和真实框中心点距离,表达式为:
其中,si为各类别目标的分类得分,ε为人为设定的NMS阈值,M为预测框得分最高的值,Bi为预测框列表,,b为预测框,bgt为真实框,ρ2(b,bgt)为预测框与真实框中心点的距离,表示为两个框中最小的封闭矩形盒子的对角线长度,ωgt和hgt分别表示为真实框的宽和高,ω和h分别表示为预测框的宽和高;
S240:当所述S230训练时,针对预测框的抑制问题,得分最高的预测框M与其它框Bi的IoU-CIoU相减后的值小于所设置的阈值ε,Bi框的得分si不变;否则,直接将si变成0,如此这个预测框将会被过滤掉;
再通过计算损失函数,其中包括目标损失函数、类别损失函数和框损失函数,通过反复迭代训练使损失函数最小,获取最优的网络模型参数。
S300:待检测图像检测,将待检测图像采用S210中的方法进行尺寸变换后输入训练好的新型YOLOv5网络模型中进行预测,输出目标的预测框和目标所属类别对应的概率值,设最大概率值对应的类别为该待检测图像中目标的预测类别。
作为优选,所述S210构建训练数据集时,对标注好的N张图像通过Mosaic数据增强提升训练数据集中数据量。
相对于现有技术,本发明至少具有如下优点:
1.本发明提供的基于神经网络的目标检测与识别方法能够在测试图像中快速检测识别出多类目标,尤其对小目标检测能力显著提升,在多目标紧凑排列情况下也能实现精准检测与识别。本发明所设计方法检测识别准确率高,检测速度能够满足实时性要求,同时在背景复杂、光线昏暗等复杂环境下,依然能够获得较好的检测效果,整体鲁棒性较强。
2.本发明方法在现有YOLOv5网络模型三个检测层的基础上进行改进,加入一个检测层,使其能够检测出更小的目标。当模型输入图像尺寸为640*640像素时,原始模型的三个感受野为20*20、40*40、80*80,即当小目标的长宽尺寸和多目标之间距离的像素值小于8像素时,模型将会出现漏检现象,而现实中很多小目标的图像往往小于上述尺寸。通过增加一个检测层,增加的感受野为160*160,如此网络模型可以检测出大于等于4*4像素的目标,多目标排列紧凑的情况也得以解决,可以满足实际需求。
3.本发明使用CIoU-NMS方法,实现对预测框的抑制。CIoU-NMS同时考虑了预测框目标框的重叠区域、两框中心点间距离和两框的纵横比三个因素来训练模型,从而得到的模型检测准确率更高,漏检情况更少。
附图说明
图1是本发明新型YOLOv5网络模型的网络模型图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
实施例1:一种基于神经网络的目标检测与识别方法,包括如下步骤:
S100:构建新型YOLOv5网络模型,在现有YOLOv5网络模型的三层检测层后再增加一层检测层;
S200:训练新型YOLOv5网络模型,具体训练过程如下:
S210:构建训练数据集:采集N张图像,将每张图像进行尺寸变换使其适用于模型训练,并对每张进行标注,即标注目标框和目标分类标签,对标注好的N张图像通过Mosaic数据增强提升训练数据集,经过Mosaic数据增强后得到的所有图像构成训练数据集;
S220:设置新型YOLOv5网络模型的中心点间距离阈值和纵横比阈值;
S230:初始化新型YOLOv5网络模型中的参数;
将训练数据集中的所有样本输入新型YOLOv5网络模型中,采用如下公式计算:
IoU为预测框和真实框的纵横比,表达式为:
RCIoU为重叠区域和真实框中心点距离,表达式为:
si为各类别目标的分类得分,ε为人为设定的NMS阈值,M为预测框得分最高的值,Bi为预测框列表,b为预测框,bgt为真实框,ρ2(b,bgt)为预测框与真实框中心点的距离,表示为两个框中最小的封闭矩形盒子的对角线长度,ωgt和hgt分别表示为真实框的宽和高,ω和h分别表示为预测框的宽和高;
S240:当所述S230训练时,针对预测框的抑制问题,得分最高的预测框M与其它框Bi的IoU-CIoU相减后的值小于所设置的阈值ε,Bi框的得分si不变;否则,直接将si变成0,如此这个预测框将会被过滤掉;
再通过计算损失函数,其中包括目标损失函数、类别损失函数和框损失函数,通过反复迭代训练使损失函数最小,获取最优的网络模型参数;所述目标损失函数、类别损失函数和框损失函数是现有技术,此处不再赘述。
S300:待检测图像检测,将待检测图像采用S210中的方法进行尺寸变换后输入训练好的新型YOLOv5网络模型中进行预测,输出目标的预测框和目标所属类别对应的概率值,设最大概率值对应的类别为该待检测图像中目标的预测类别。
本发明所述的新型YOLOv5网络模型具体包括以下四个模块:
1.输入端:首先对输入图像进行尺寸变换使其适用于模型训练,再通过Mosaic数据增强提升训练集数据量,最后进行自适应初始锚框计算,避免了传统方法通过程序方式进行锚框聚类。Mosaic数据增强的方式是一种现有技术,简单来说就是把多张图片,通过随机缩放、随机裁减、随机排布的方式进行拼接。该方法丰富了检测物体的背景和小目标,丰富数据集:随机使用多张图片,随机缩放,再随机分布进行拼接,大大丰富了检测数据集,特别是随机缩放增加了很多小目标,可以让模型的鲁棒性更好。
2.Backbone模块:Focus实现对图像的切片处理,使原始图像从RGB三通道变为12通道,解决图像在下采样过程中信息丢失问题,同时减少了模型的计算量。CBL为卷积、正则化和leaky relu激活函数的组合操作。
CSP为跨阶段局部网络解决模型中的推理计算问题,提升模型学习能力和减少计算时间,此结构同时应用在Backbone和Neck中。
3.Neck模块:采用FPN和PAN相组合的结构,主要通过上采样操作进行信息传递和融合,获取不同尺度的检测层。
图1在YOLOv5网络模型三个检测层的基础上进行改进,加入一个检测层,使其能够检测出更小的目标。当模型输入图像尺寸为640*640像素时,原始模型的三个感受野为20*20、40*40、80*80,即当小目标的长宽尺寸和多目标之间距离的像素值小于8像素时,模型将会出现漏检现象,而现实中很多小目标的图像往往小于上述尺寸。通过增加一个检测层,增加的感受野为160*160,如此网络模型可以检测出大于等于4*4像素的目标,多目标排列紧凑的情况也得以解决,可以满足实际需求。
4.输出端:主要为边界框损失计算和非极大值抑制算法。边界框损失函数采用CIoU,它同时考虑了预测框和真实框重叠面积,中心点距离和纵横比,较传统IoU、GIoU等具有更高的准确性。使用CIoU-NMS替代传统的NMS方法,实现对预测框的抑制。传统NMS方法为通过人为设置一个阈值,当预测框和真实框的交并比大于此阈值,保留预测框,反之则直接舍去此预测框。这种处理方式十分粗暴,直接抹除了这个预测框为其它目标的可能性,导致易产生漏检和召回率低的现象。CIoU-NMS同时考虑了预测框目标框的重叠区域、两框中心点间距离以及两框的纵横比。
实验对比:
本发明在公开的DOTA数据集上进行实验,并和现有的SSD、Faster R-CNN、YOLOv2和YOLOv5算法进行了检测准确率比较,主要比较了数据集中的飞机和船舶目标,比较结果如表1:
表1
通过表1可见:本发明方法在飞机和船舶目标上检测准确率均高达90%,切远远高于现有方法。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (2)
1.一种基于神经网络的目标检测与识别方法,其特征在于,包括如下步骤:
S100:构建新型YOLOv5网络模型,在现有YOLOv5网络模型的三层检测层后再增加一层检测层;
S200:训练新型YOLOv5网络模型,具体训练过程如下:
S210:构建训练数据集:采集N张图像,将每张图像进行尺寸变换使其适用于模型训练,并对每张进行标注,即标注目标框和目标分类标签,标注后的所有图像构成训练数据集;
S220:设置新型YOLOv5网络模型的中心点间距离阈值和纵横比阈值;
S230:初始化新型YOLOv5网络模型中的参数;
将训练数据集中的所有样本输入新型YOLOv5网络模型中,采用如下公式计算:
IoU为预测框和真实框的纵横比,表达式为:
RCIoU为重叠区域和真实框中心点距离,表达式为:
其中,si为各类别目标的分类得分,ε为人为设定的NMS阈值,M为预测框得分最高的值,Bi为预测框列表,b为预测框,bgt为真实框,ρ2(b,bgt)为预测框与真实框中心点的距离,表示为两个框中最小的封闭矩形盒子的对角线长度,ωgt和hgt分别表示为真实框的宽和高,ω和h分别表示为预测框的宽和高;
S240:当所述S230训练时,针对预测框的抑制问题,得分最高的预测框M与其它框Bi的IoU-CIoU相减后的值小于所设置的阈值ε,Bi框的得分si不变;否则,直接将si变成0,如此这个预测框将会被过滤掉;
再通过计算损失函数,其中包括目标损失函数、类别损失函数和框损失函数,通过反复迭代训练使损失函数最小,获取最优的网络模型参数;
S300:待检测图像检测,将待检测图像采用S210中的方法进行尺寸变换后输入训练好的新型YOLOv5网络模型中进行预测,输出目标的预测框和目标所属类别对应的概率值,设最大概率值对应的类别为该待检测图像中目标的预测类别。
2.如权利要求1所述的基于神经网络的目标检测与识别方法,其特征在于,所述S210构建训练数据集时,对标注好的N张图像通过Mosaic数据增强提升训练数据集中数据量。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110268857.1A CN112884064B (zh) | 2021-03-12 | 2021-03-12 | 一种基于神经网络的目标检测与识别方法 |
US17/368,946 US11790040B2 (en) | 2021-03-12 | 2021-07-07 | Method for object detection and recognition based on neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110268857.1A CN112884064B (zh) | 2021-03-12 | 2021-03-12 | 一种基于神经网络的目标检测与识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112884064A CN112884064A (zh) | 2021-06-01 |
CN112884064B true CN112884064B (zh) | 2022-07-29 |
Family
ID=76041213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110268857.1A Active CN112884064B (zh) | 2021-03-12 | 2021-03-12 | 一种基于神经网络的目标检测与识别方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11790040B2 (zh) |
CN (1) | CN112884064B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114359627A (zh) * | 2021-12-15 | 2022-04-15 | 南京视察者智能科技有限公司 | 一种基于图卷积的目标检测后处理方法及装置 |
CN114549523A (zh) * | 2022-04-25 | 2022-05-27 | 南京邮电大学 | 基于单步深度网络的曲面体层图正中多生牙自动检测方法 |
CN115359345B (zh) * | 2022-09-16 | 2023-07-28 | 湖南苏科智能科技有限公司 | 一种基于异类别元学习的x光下重叠物体识别方法 |
CN115294556B (zh) * | 2022-09-28 | 2022-12-13 | 西南石油大学 | 基于改进YOLOv5的密闭振动筛上异常流态流体检测方法 |
CN115588117B (zh) * | 2022-10-17 | 2023-06-09 | 华南农业大学 | 基于YOLOv5s-BC的柑橘木虱检测方法及系统 |
CN115482309B (zh) * | 2022-11-04 | 2023-08-25 | 平安银行股份有限公司 | 图像处理方法、计算机设备及存储介质 |
CN115861186A (zh) * | 2022-11-15 | 2023-03-28 | 佳源科技股份有限公司 | 基于深度学习的电力杆塔检测方法、装置、无人机设备 |
CN115909070B (zh) * | 2022-11-25 | 2023-10-17 | 南通大学 | 一种基于改进yolov5网络的杂草检测方法 |
CN115731533B (zh) * | 2022-11-29 | 2024-04-05 | 淮阴工学院 | 一种基于改进YOLOv5的车载目标检测方法 |
CN116012296B (zh) * | 2022-12-01 | 2023-10-24 | 浙江大学 | 基于超分辨率和半监督学习的装配式预制构件检测方法 |
CN116188767B (zh) * | 2023-01-13 | 2023-09-08 | 湖北普罗格科技股份有限公司 | 一种基于神经网络的堆叠木板计数方法及系统 |
CN116468984B (zh) * | 2023-03-10 | 2023-10-27 | 衡阳师范学院 | 可移动物体检测模型的构建方法、检测模型及检测方法 |
CN116245732A (zh) * | 2023-03-13 | 2023-06-09 | 江南大学 | 一种基于YOLOv5的小目标反光衣识别检测方法 |
CN116152685B (zh) * | 2023-04-19 | 2023-07-28 | 武汉纺织大学 | 一种基于无人机视野下行人检测方法及系统 |
CN116777843B (zh) * | 2023-05-26 | 2024-02-27 | 湖南大学 | 一种基于动态非极大值抑制的厨余垃圾检测方法及系统 |
CN116824681B (zh) * | 2023-08-24 | 2023-11-24 | 北京集联网络技术有限公司 | 基于深度卷积神经网络的眼检测方法、系统及设备 |
CN117333808B (zh) * | 2023-09-13 | 2024-04-30 | 汕头市澄海区建筑设计院 | 一种面向轻量化部署的建筑物火灾识别方法及系统 |
CN117197728B (zh) * | 2023-11-07 | 2024-01-23 | 成都千嘉科技股份有限公司 | 通过可穿戴摄像设备进行实时燃气放散作业识别的方法 |
CN117690124A (zh) * | 2023-12-13 | 2024-03-12 | 安徽农业大学 | 基于多尺度注意力机制的小番茄成熟度实时检测方法 |
CN117593528B (zh) * | 2024-01-18 | 2024-04-16 | 中数智科(杭州)科技有限公司 | 一种基于机器视觉的轨道车辆螺栓松动检测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549877A (zh) * | 2018-04-23 | 2018-09-18 | 重庆大学 | 一种基于神经网络的循迹机器人轨迹识别方法 |
CN110211200A (zh) * | 2019-04-22 | 2019-09-06 | 深圳安科高技术股份有限公司 | 一种基于神经网络技术的牙弓线生成方法及其系统 |
CN110334594A (zh) * | 2019-05-28 | 2019-10-15 | 昆明理工大学 | 一种基于批再规范化处理的yolo算法的目标检测方法 |
CN111079540A (zh) * | 2019-11-19 | 2020-04-28 | 北航航空航天产业研究院丹阳有限公司 | 一种基于目标特性的分层可重构车载视频目标检测方法 |
CN111079584A (zh) * | 2019-12-03 | 2020-04-28 | 东华大学 | 基于改进YOLOv3的快速车辆检测方法 |
CN112233090A (zh) * | 2020-10-15 | 2021-01-15 | 浙江工商大学 | 基于改进注意力机制的薄膜瑕疵检测方法 |
CN112307921A (zh) * | 2020-10-22 | 2021-02-02 | 桂林电子科技大学 | 一种车载端多目标识别跟踪预测方法 |
CN112329542A (zh) * | 2020-10-10 | 2021-02-05 | 中国人民解放军战略支援部队航天工程大学 | 基于特征细化网络模型的sar图像舰船目标检测方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MX2021012510A (es) * | 2019-04-12 | 2022-01-06 | Univ Iowa Res Found | Sistema y método para predecir, prevenir y mitigar lesiones en el lugar de trabajo. |
US11188746B1 (en) * | 2020-03-25 | 2021-11-30 | Verizon Media Inc. | Systems and methods for deep learning based approach for content extraction |
US20210383533A1 (en) * | 2020-06-03 | 2021-12-09 | Nvidia Corporation | Machine-learning-based object detection system |
US20220207305A1 (en) * | 2020-12-30 | 2022-06-30 | Synaptics Incorporated | Multi-object detection with single detection per object |
-
2021
- 2021-03-12 CN CN202110268857.1A patent/CN112884064B/zh active Active
- 2021-07-07 US US17/368,946 patent/US11790040B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549877A (zh) * | 2018-04-23 | 2018-09-18 | 重庆大学 | 一种基于神经网络的循迹机器人轨迹识别方法 |
CN110211200A (zh) * | 2019-04-22 | 2019-09-06 | 深圳安科高技术股份有限公司 | 一种基于神经网络技术的牙弓线生成方法及其系统 |
CN110334594A (zh) * | 2019-05-28 | 2019-10-15 | 昆明理工大学 | 一种基于批再规范化处理的yolo算法的目标检测方法 |
CN111079540A (zh) * | 2019-11-19 | 2020-04-28 | 北航航空航天产业研究院丹阳有限公司 | 一种基于目标特性的分层可重构车载视频目标检测方法 |
CN111079584A (zh) * | 2019-12-03 | 2020-04-28 | 东华大学 | 基于改进YOLOv3的快速车辆检测方法 |
CN112329542A (zh) * | 2020-10-10 | 2021-02-05 | 中国人民解放军战略支援部队航天工程大学 | 基于特征细化网络模型的sar图像舰船目标检测方法 |
CN112233090A (zh) * | 2020-10-15 | 2021-01-15 | 浙江工商大学 | 基于改进注意力机制的薄膜瑕疵检测方法 |
CN112307921A (zh) * | 2020-10-22 | 2021-02-02 | 桂林电子科技大学 | 一种车载端多目标识别跟踪预测方法 |
Non-Patent Citations (2)
Title |
---|
钱弘毅 等."基于深度学习的交通信号灯快速检测与识别".《计算机科学》.2019,第46卷(第12期), * |
鞠默然 等."改进的YOLO V3算法及其在小目标检测中的应用".《光学学报》.2019,第39卷(第7期),第1-8页. * |
Also Published As
Publication number | Publication date |
---|---|
US11790040B2 (en) | 2023-10-17 |
US20220292311A1 (en) | 2022-09-15 |
CN112884064A (zh) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112884064B (zh) | 一种基于神经网络的目标检测与识别方法 | |
CN110210539B (zh) | 多级深度特征融合的rgb-t图像显著性目标检测方法 | |
CN109978807B (zh) | 一种基于生成式对抗网络的阴影去除方法 | |
CN111767882A (zh) | 一种基于改进yolo模型的多模态行人检测方法 | |
CN114549439A (zh) | 一种基于多模态特征融合的rgb-d图像语义分割方法 | |
CN111723693A (zh) | 一种基于小样本学习的人群计数方法 | |
CN113191204B (zh) | 一种多尺度遮挡行人检测方法及系统 | |
CN114419413A (zh) | 感受野自适应的变电站绝缘子缺陷检测神经网络构建方法 | |
CN109657538B (zh) | 基于上下文信息指导的场景分割方法和系统 | |
CN114708566A (zh) | 一种基于改进YOLOv4的自动驾驶目标检测方法 | |
CN114155474A (zh) | 基于视频语义分割算法的损伤识别技术 | |
CN111738295A (zh) | 图像的分割方法及存储介质 | |
CN112819837A (zh) | 一种基于多源异构遥感影像的语义分割方法 | |
CN116342894A (zh) | 基于改进YOLOv5的GIS红外特征识别系统及方法 | |
CN111612803B (zh) | 一种基于图像清晰度的车辆图像语义分割方法 | |
Mirani et al. | Object Recognition in Different Lighting Conditions at Various Angles by Deep Learning Method | |
CN116740572A (zh) | 一种基于改进yolox的海上船舰目标检测方法和系统 | |
CN116342536A (zh) | 基于轻量化模型的铝带材表面缺陷检测方法、系统及设备 | |
CN116758340A (zh) | 基于超分辨率特征金字塔和注意力机制的小目标检测方法 | |
Cao et al. | QuasiVSD: efficient dual-frame smoke detection | |
CN116309270A (zh) | 一种基于双目图像的输电线路典型缺陷识别方法 | |
CN112380970B (zh) | 基于局部区域搜索的视频目标检测方法 | |
CN112200840B (zh) | 一种可见光和红外图像组合中的运动物体检测系统 | |
CN117011722A (zh) | 基于无人机实时监控视频的车牌识别方法及装置 | |
Zeng et al. | Evaluation of physical electrical experiment operation process based on YOLOv5 and ResNeXt cascade networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220909 Address after: 401233 No. 6 Xinmin Road, new city street, Changshou District, Chongqing Patentee after: DIBI (CHONGQING) INTELLIGENT TECHNOLOGY RESEARCH INSTITUTE Co.,Ltd. Patentee after: Chongqing Yingdi Industrial (Group) Co.,Ltd. Address before: 401233 No. 6 Xinmin Road, new city street, Changshou District, Chongqing Patentee before: DIBI (CHONGQING) INTELLIGENT TECHNOLOGY RESEARCH INSTITUTE Co.,Ltd. |