CN112131933A - 一种基于改进yolo网络的快速行人检测方法与系统 - Google Patents

一种基于改进yolo网络的快速行人检测方法与系统 Download PDF

Info

Publication number
CN112131933A
CN112131933A CN202010802385.9A CN202010802385A CN112131933A CN 112131933 A CN112131933 A CN 112131933A CN 202010802385 A CN202010802385 A CN 202010802385A CN 112131933 A CN112131933 A CN 112131933A
Authority
CN
China
Prior art keywords
network
grid cell
predicting
bounding box
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010802385.9A
Other languages
English (en)
Inventor
段运生
竺德
黄雪峰
汪晨威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
CERNET Corp
Original Assignee
Anhui University
CERNET Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University, CERNET Corp filed Critical Anhui University
Priority to CN202010802385.9A priority Critical patent/CN112131933A/zh
Publication of CN112131933A publication Critical patent/CN112131933A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进YOLO网络的快速行人检测方法及系统。所述基于改进YOLO网络的快速行人检测方法,包括如下步骤:输入图像;输入图像的大小为416×416;将图像分为S×S网格;若对象的中心落入网格单元,则该网格单元负责检测该对象;特征提取网络;使用DRKCELM和DLELM‑AE联合网络作为特征提取器进行分类和检测;边界框预测;每个网格单元预测B边界框和这些框的置信度得分;每个边界框负责预测以下四个值tx、ty、tw、th以及信心值to;最终检测结果;通过非最大抑制(NMS)算法获取最终目标检测结果。本发明旨在提出改进YOLO网络的快速行人检测,使其能够准确、有效地对视频中的行人进行检测和提取。

Description

一种基于改进YOLO网络的快速行人检测方法与系统
技术领域
本发明涉及基于视频的行人检测算法的技术领域,尤其涉及一种基于改进YOLO网络的快速行人检测方法与系统。
背景技术
随着互联网技术的飞速发展,大量的监控终端设备接入到网络,从而产生了大量的视频数据。因此基于视频的各类应用得到社会的广泛关注,例如智能监控、安防检测、行为分析等。在计算机视觉中,对象检测一直被认为是最具挑战性的问题之一,因为它需要在同一场景中对对象进行分类和定位。同时,这也是计算机视觉和人工智能领域的重要研究课题之一。基于视频的行人目标检测是对图像序列中的行人进行检测和提取,为目标的识别和分析提供基础数据。目前常见的行人检测算法有Faster R-CNN、SSD、YOLO等。然而这些算法均存在各自局限性,例如训练速度慢,人工干预,费时。
Faster R-CNN提出了基于SPP-Net的感兴趣区域(RoI)池化层。同时使用一种称为选择性搜索(SS)的方法来限制边界框的数量,Faster R-CNN直接生成潜在的边界框,可通过区域生成网络(RPN)进行检测。RPN训练包括真实值(ground truth)和损失函数(lossfunction)两部分。真实值就是anchor内是否有目标,如果某anchor与任一目标区域的IoU最大,则该anchor判定为有目标;假如某anchor与任一目标区域的IoU>0.7,则判定为有目标;假如某anchor与任一目标区域的IoU<0.3,则判定为背景。其中,IoU就是预测边框和真实边框的交集除以两者的并集。损失函数对应RPN的两条支路,即是否为目标的分类损失和边框的回归损失。
Faster R-CNN仍然使用ROI Pooling,导致之后的网络特征失去平移不变性,影响最终定位准确性;
ROI Pooling后每个区域经过多个全连接层,存在较多重复计算;
Faster R-CNN在特征图上使用锚点框对应原图,而锚点框经过多次下采样操作,对应原图一块较大的区域,导致Faster R-CNN检测小目标的效果并不是很好。
SSD利用不同卷积层的特征图,直接预测边框位置和类别,没有生成候选区域的过程。SSD算法是在原来VGG16的后面添加了几个卷积层来预测置信度和位置,SSD的主网络结构是VGG16,修改之处在于将VGG最后的两个全连接层改成了卷积层(conv6:3*3*1024的卷积,conv7:1*1*1024的卷积),再增加4个卷积层构造网络结构。对conv4_3,conv7,conv8_2,conv9_2,conv10_2和conv11_2分别采用两个3*3大小的卷积核进行卷积,一个输出分类用的置信度,每个预设边框生成21个置信度(针对VOC数据集包含20个物体类别而言);另一个输出回归用的位置,每个预设边框生成4个坐标值(x,y,w,h)。最后将前面三个计算结果分别合并然后传递给损失层。总的损失是位置损失和置信度损失之和。最后用非最大化抑制(non-maximum Suppression)确定物体的检测位置。
网络中检测框的基础大小和形状不能直接通过学习获得,需要人工设置超参数值。导致调试过程非常依赖经验。
对小目标的召回率一般,低级特征卷积层数少,存在特征提取不充分的问题。
YOLO直接选用整图作为训练模型,在图像的多个位置上回归出目标的边框以及其分类类别,是将物体检测转化成回归的方法。YOLO可以一次性预测多个边框位置和类别,能够实现端到端的目标检测和识别。
YOLO算法首先将输入图像尺寸调整到448*448,然后将图像划分为S*S个网格,如果一个物体的中心落在某网格内,则相应网格负责检测该物体。在训练和测试时,每个网络预测B个边框,每个边框对应5个预测参数:边框的中心点坐标(x,y)、宽高(w,h)和置信度评分。置信度评分反应了当前边框中含有物体的置信度Pr和预测位置的准确性IOU。如果边框内不存在物体,则Pr=0。如果存在物体,则根据预测的边框和真实的边框计算IOU,同时会预测存在物体的情况下该物体属于某一类的概率Pr。
YOLO对相互靠的很近的物体,还有很小的群体检测效果不好,这是因为一个网格中只预测了两个框,并且只属于一类。
同一类物体出现的新的不常见的长宽比和其他情况时,泛化能力偏弱。
由于损失函数的问题,定位误差是影响检测效果的主要原因。尤其是大小物体的处理上,还有待加强。
因此,有必要提供一种新的基于改进YOLO网络的快速行人检测方法与系统,以解决上述技术问题。
发明内容
本发明的主要目的在于提供一种基于改进YOLO网络的快速行人检测方法,旨在解决相关技术中,无法进行快速和准确的行人检测,且不能有效对视频中的行人进行检测和提取的技术问题。
为实现上述目的,本发明提供的基于改进YOLO网络的快速行人检测方法,包括如下步骤:
输入图像;输入图像的大小为416×416;将图像分为S×S网格;若对象的中心落入网格单元,则该网格单元负责检测该对象;
特征提取网络;使用DRKCELM和DLELM-AE联合网络作为特征提取器进行分类和检测;
边界框预测;每个网格单元预测B边界框和这些框的置信度得分;每个边界框负责预测以下四个值tx、ty、tw、th以及信心值to;
其中,关于检测到的对象,每个网格单元还预测C个条件类别概率(tci,i=1,2,...,C);最终,得到了一个预测的张量,该张量用于回归;Faster-YOLO的最终预测是3-d张量:S×S×B×(5+C);
最终检测结果;通过非最大抑制(NMS)算法获取最终目标检测结果。
为解决上述技术问题,本发明还提供一种基于改进YOLO网络的快速行人检测系统,包括:
输入图像模块;所述输入图像模块用于:
输入图像的大小为416×416;将图像分为S×S网格;若对象的中心落入网格单元,则该网格单元负责检测该对象;
特征提取网络模块;特征提取网络模块用于:
使用DRKCELM和DLELM-AE联合网络作为特征提取器进行分类和检测;
边界框预测模块;所述边界框预测模块用于:
每个网格单元预测B边界框和这些框的置信度得分;每个边界框负责预测以下四个值tx、ty、tw、th以及信心值to;
其中,关于检测到的对象,每个网格单元还预测C个条件类别概率(tci,i=1,2,...,C);最终,得到了一个预测的张量,该张量用于回归;Faster-YOLO的最终预测是3-d张量:S×S×B×(5+C);
最终检测结果模块;最终检测结果模块用于:
通过非最大抑制(NMS)算法获取最终目标检测结果。
本发明提供的基于改进YOLO网络的快速行人检测方法,输入图像;输入图像的大小为416×416;将图像分为S×S网格;若对象的中心落入网格单元,则该网格单元负责检测该对象;特征提取网络;使用DRKCELM和DLELM-AE联合网络作为特征提取器进行分类和检测;边界框预测;每个网格单元预测B边界框和这些框的置信度得分;每个边界框负责预测以下四个值tx、ty、tw、th以及信心值to;其中,关于检测到的对象,每个网格单元还预测C个条件类别概率(tci,i=1,2,...,C);最终,得到了一个预测的张量,该张量用于回归;Faster-YOLO的最终预测是3-d张量:S×S×B×(5+C);最终检测结果;通过非最大抑制(NMS)算法获取最终目标检测结果。
针对现有技术中的缺点和不足,本发明旨在提出改进YOLO网络的快速行人检测,使其能够准确、有效地对视频中的行人进行检测和提取。
本算法能够准确地检测视频中的行人,并且本发明提出的算法具有较好的特征提取能力,该特性主要得益于通过DRKCELM和DLELM-AE联合网络提取模型特征。
通过DRKCELM和DLELM-AE联合网络模型,以获取检测行人的特征。
通过搭建目标检测网络在行人识别中的贡献度,以及各网络结构的特性,实现快速行人检测。
附图说明
图1为本发明提供的基于改进YOLO网络的快速行人检测方法的算法流程图;
图2为本发明提供的基于改进YOLO网络的快速行人检测方法的RKCELM模型的结构图;
图3为本发明提供的基于改进YOLO网络的快速行人检测方法的DRKCELM和DLELM-AE联合网络体系结构图;
图4为本发明提供的基于改进YOLO网络的快速行人检测方法的位置预测的边界框图;
图5为本发明提供的基于改进YOLO网络的快速行人检测方法的检测结果图。
本发明目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于改进YOLO网络的快速行人检测方法。
请参阅图1,为实现上述目的,本发明的一实施例中,基于改进YOLO网络的快速行人检测方法,包括如下步骤:
S10,输入图像;输入图像的大小为416×416;将图像分为S×S网格;若对象的中心落入网格单元,则该网格单元负责检测该对象;
S20,特征提取网络;使用DRKCELM和DLELM-AE联合网络作为特征提取器进行分类和检测;
S30,边界框预测;每个网格单元预测B边界框和这些框的置信度得分;每个边界框负责预测以下四个值tx、ty、tw、th以及信心值to;
其中,关于检测到的对象,每个网格单元还预测C个条件类别概率(tci,i=1,2,...,C);最终,得到了一个预测的张量,该张量用于回归;Faster-YOLO的最终预测是3-d张量:S×S×B×(5+C);
S40,最终检测结果;通过非最大抑制(NMS)算法获取最终目标检测结果。
针对基于改进YOLO网络的快速行人检测方法的工作原理,具体说明如下:
1)构建RKCELM
为了充分利用CNN在特征提取和基于ELM-LRF的ELM算法快速训练速度方面的优势,提出了一种结合ELM自动编码器(ELM-AE)和卷积神经网络(CNN)。ELM-AE是一种无监督的学习方法,它有助于堆叠网络获得更多抽象表示而不会丢失重要信息。其主要思想是将快速模型与复杂模型相结合,以充分发挥其优势。
卷积核对所有输入图执行卷积运算,并且可以根据高斯分布随机生成共享的卷积核参数。这等效于通过与输入图像的本地连接使用随机卷积内核来提取低级特征信息。然后,将ELM-AE完全连接到隐藏层和卷积特征图之间,并通过编码和重建来提取代表性特征。最后,平方根池以组合节点的形式使用,这使得RKCELM网络具有平移不变性。RKCELM模型的结构如图2所示,主要包括以下部分:随机卷积核,卷积层,ELM-AE层和组合池化层。
2)DRKCELM和DLELM-AE联合网络提取模型特征
考虑到YOLO中的Darknet复杂且参数过多,本发明将YOLO中的Darknet替换为DRKCELM和DLELM-AE联合网络,如图2所示。联合网络由两层RKCELM和一个双隐藏层极限学习机自动编码器(DLELM-AE)组成。RKCELM负责底层特征提取,而DLELM-AE则负责高层特征提取。DRKCELM和DLELM-AE联合网络的参数如表1所示。
表1 DRKCELM和DLELM-AE联合网络的参数设置
Figure BDA0002627878490000061
3)边界框预测
本发明使用维数聚类作为锚定框来预测边界框。网络的预测包括4个坐标的每个边界框。(cx,cy)是栅格距图片左上角的偏移量。(pw,ph)是先验边界框的宽度和高度。λw和λh表示最小锚点框和输入图像的宽度和高度之比。σ(·)是S型函数。相应的预测在图4中示出。
4)检测结果
本发明为了验证算法对检测结果的影响,如图5所示,在模型中分别检测出了单个行人和多个行人的。可以看出,改进YOLO网络的快速行人检测算法具有良好的检测性能。
本发明还提供一种基于改进YOLO网络的快速行人检测系统。
基于改进YOLO网络的快速行人检测系统,包括:
输入图像模块;所述输入图像模块用于:
输入图像的大小为416×416;将图像分为S×S网格;若对象的中心落入网格单元,则该网格单元负责检测该对象;
特征提取网络模块;特征提取网络模块用于:
使用DRKCELM和DLELM-AE联合网络作为特征提取器进行分类和检测;
边界框预测模块;所述边界框预测模块用于:
每个网格单元预测B边界框和这些框的置信度得分;每个边界框负责预测以下四个值tx、ty、tw、th以及信心值to;
其中,关于检测到的对象,每个网格单元还预测C个条件类别概率(tci,i=1,2,...,C);最终,得到了一个预测的张量,该张量用于回归;Faster-YOLO的最终预测是3-d张量:S×S×B×(5+C);
最终检测结果模块;最终检测结果模块用于:
通过非最大抑制(NMS)算法获取最终目标检测结果。
针对基于改进YOLO网络的快速行人检测系统的工作原理,具体说明如下:
1)构建RKCELM
为了充分利用CNN在特征提取和基于ELM-LRF的ELM算法快速训练速度方面的优势,提出了一种结合ELM自动编码器(ELM-AE)和卷积神经网络(CNN)。ELM-AE是一种无监督的学习方法,它有助于堆叠网络获得更多抽象表示而不会丢失重要信息。其主要思想是将快速模型与复杂模型相结合,以充分发挥其优势。
卷积核对所有输入图执行卷积运算,并且可以根据高斯分布随机生成共享的卷积核参数。这等效于通过与输入图像的本地连接使用随机卷积内核来提取低级特征信息。然后,将ELM-AE完全连接到隐藏层和卷积特征图之间,并通过编码和重建来提取代表性特征。最后,平方根池以组合节点的形式使用,这使得RKCELM网络具有平移不变性。RKCELM模型的结构如图2所示,主要包括以下部分:随机卷积核,卷积层,ELM-AE层和组合池化层。
2)DRKCELM和DLELM-AE联合网络提取模型特征
考虑到YOLO中的Darknet复杂且参数过多,本发明将YOLO中的Darknet替换为DRKCELM和DLELM-AE联合网络,如图2所示。联合网络由两层RKCELM和一个双隐藏层极限学习机自动编码器(DLELM-AE)组成。RKCELM负责底层特征提取,而DLELM-AE则负责高层特征提取。DRKCELM和DLELM-AE联合网络的参数如表1所示。
表1 DRKCELM和DLELM-AE联合网络的参数设置
Figure BDA0002627878490000081
Figure BDA0002627878490000091
3)边界框预测
本发明使用维数聚类作为锚定框来预测边界框。网络的预测包括4个坐标的每个边界框。(cx,cy)是栅格距图片左上角的偏移量。(pw,ph)是先验边界框的宽度和高度。λw和λh表示最小锚点框和输入图像的宽度和高度之比。σ(·)是S型函数。相应的预测在图4中示出。
4)检测结果
本发明为了验证算法对检测结果的影响,如图5所示,在模型中分别检测出了单个行人和多个行人的。可以看出,改进YOLO网络的快速行人检测算法具有良好的检测性能。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个计算机可读存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备进入本发明各个实施例所述的方法。
在本说明书的描述中,参考术语“一实施例”、“另一实施例”、“其他实施例”、或“第一实施例~第X实施例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料、方法步骤或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (2)

1.一种基于改进YOLO网络的快速行人检测方法,其特征在于,包括如下步骤:
输入图像;输入图像的大小为416×416;将图像分为S×S网格;若对象的中心落入网格单元,则该网格单元负责检测该对象;
特征提取网络;使用DRKCELM和DLELM-AE联合网络作为特征提取器进行分类和检测;
边界框预测;每个网格单元预测B边界框和这些框的置信度得分;每个边界框负责预测以下四个值tx、ty、tw、th以及信心值to;
其中,关于检测到的对象,每个网格单元还预测C个条件类别概率(tci,i=1,2,...,C);最终,得到了一个预测的张量,该张量用于回归;Faster-YOLO的最终预测是3-d张量:S×S×B×(5+C);
最终检测结果;通过非最大抑制(NMS)算法获取最终目标检测结果。
2.一种基于改进YOLO网络的快速行人检测系统,其特征在于,包括:
输入图像模块;所述输入图像模块用于:
输入图像的大小为416×416;将图像分为S×S网格;若对象的中心落入网格单元,则该网格单元负责检测该对象;
特征提取网络模块;特征提取网络模块用于:
使用DRKCELM和DLELM-AE联合网络作为特征提取器进行分类和检测;
边界框预测模块;所述边界框预测模块用于:
每个网格单元预测B边界框和这些框的置信度得分;每个边界框负责预测以下四个值tx、ty、tw、th以及信心值to;
其中,关于检测到的对象,每个网格单元还预测C个条件类别概率(tci,i=1,2,...,C);最终,得到了一个预测的张量,该张量用于回归;Faster-YOLO的最终预测是3-d张量:S×S×B×(5+C);
最终检测结果模块;最终检测结果模块用于:
通过非最大抑制算法获取最终目标检测结果。
CN202010802385.9A 2020-08-11 2020-08-11 一种基于改进yolo网络的快速行人检测方法与系统 Pending CN112131933A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010802385.9A CN112131933A (zh) 2020-08-11 2020-08-11 一种基于改进yolo网络的快速行人检测方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010802385.9A CN112131933A (zh) 2020-08-11 2020-08-11 一种基于改进yolo网络的快速行人检测方法与系统

Publications (1)

Publication Number Publication Date
CN112131933A true CN112131933A (zh) 2020-12-25

Family

ID=73850319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010802385.9A Pending CN112131933A (zh) 2020-08-11 2020-08-11 一种基于改进yolo网络的快速行人检测方法与系统

Country Status (1)

Country Link
CN (1) CN112131933A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836745A (zh) * 2021-02-02 2021-05-25 歌尔股份有限公司 一种目标检测方法和装置
CN112861686A (zh) * 2021-02-01 2021-05-28 内蒙古大学 一种基于svm的图像目标检测方法
CN113822172A (zh) * 2021-08-30 2021-12-21 中国科学院上海微系统与信息技术研究所 一种视频时空行为检测方法
CN116704267A (zh) * 2023-08-01 2023-09-05 成都斐正能达科技有限责任公司 一种基于改进yolox算法的深度学习3d打印缺陷检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934121A (zh) * 2019-02-21 2019-06-25 江苏大学 一种基于YOLOv3算法的果园行人检测方法
CN110334594A (zh) * 2019-05-28 2019-10-15 昆明理工大学 一种基于批再规范化处理的yolo算法的目标检测方法
CN110728200A (zh) * 2019-09-23 2020-01-24 武汉大学 一种基于深度学习的实时行人检测方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934121A (zh) * 2019-02-21 2019-06-25 江苏大学 一种基于YOLOv3算法的果园行人检测方法
CN110334594A (zh) * 2019-05-28 2019-10-15 昆明理工大学 一种基于批再规范化处理的yolo算法的目标检测方法
CN110728200A (zh) * 2019-09-23 2020-01-24 武汉大学 一种基于深度学习的实时行人检测方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YUNHUA YIN ET AL: "Faster-YOLO: An accurate and faster object detection method", 《DIGITAL SIGNAL PROCESSING》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112861686A (zh) * 2021-02-01 2021-05-28 内蒙古大学 一种基于svm的图像目标检测方法
CN112836745A (zh) * 2021-02-02 2021-05-25 歌尔股份有限公司 一种目标检测方法和装置
CN113822172A (zh) * 2021-08-30 2021-12-21 中国科学院上海微系统与信息技术研究所 一种视频时空行为检测方法
CN116704267A (zh) * 2023-08-01 2023-09-05 成都斐正能达科技有限责任公司 一种基于改进yolox算法的深度学习3d打印缺陷检测方法
CN116704267B (zh) * 2023-08-01 2023-10-27 成都斐正能达科技有限责任公司 一种基于改进yolox算法的深度学习3d打印缺陷检测方法

Similar Documents

Publication Publication Date Title
CN108564097B (zh) 一种基于深度卷积神经网络的多尺度目标检测方法
CN109902677B (zh) 一种基于深度学习的车辆检测方法
CN112131933A (zh) 一种基于改进yolo网络的快速行人检测方法与系统
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN111291637A (zh) 一种基于卷积神经网络的人脸检测方法、装置及设备
Mahmoud et al. Object detection using adaptive mask RCNN in optical remote sensing images
CN111626128A (zh) 一种基于改进YOLOv3的果园环境下行人检测方法
CN111898432B (zh) 一种基于改进YOLOv3算法的行人检测系统及方法
CN106778757A (zh) 基于文本显著性的场景文本检测方法
CN110826379B (zh) 一种基于特征复用与YOLOv3的目标检测方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN112132093A (zh) 高分辨率遥感图像目标检测方法、装置和计算机设备
CN114627052A (zh) 一种基于深度学习的红外图像漏气漏液检测方法及系统
CN110263731B (zh) 一种单步人脸检测系统
CN112836668A (zh) 一种船舶目标检测方法、终端设备及存储介质
CN113808166B (zh) 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法
CN114092487A (zh) 目标果实实例分割方法及系统
CN112733614A (zh) 一种带有相似尺寸强化识别的害虫图像检测方法
CN107766792B (zh) 一种遥感图像舰船目标识别方法
CN115527036A (zh) 电网场景点云语义分割方法、装置、计算机设备和介质
CN114565842A (zh) 基于Nvidia Jetson嵌入式硬件的无人机实时目标检测方法及系统
CN116310386A (zh) 基于浅层自适应增强上下文的CenterNet小目标检测方法
CN111382638B (zh) 一种图像检测方法、装置、设备和存储介质
CN109284752A (zh) 一种车辆的快速检测方法
Wang et al. A transformer-based mask R-CNN for tomato detection and segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201225